Ошибки оптимизаторов


Содержание

Ошибки внутренней оптимизации

Ошибки внутренней оптимизации — явление очень частое. Вебмастера часто допускают ошибки, оптимизируя сайты под поисковые системы. Ошибки при внутренней оптимизации могут существенно снизить позиции сайтов при ранжировании поисковыми системами. По этой причине давайте рассмотрим наиболее часто допускаемые ошибки оптимизаторов, чтобы в будущем их не совершать.

Типичные ошибки внутренней оптимизации

Итак, наиболее частые ошибки, которые допускаются при внутренней оптимизации сайта:

1. Шапка сайта в виде картинки

Не следует использовать в качестве верхней части сайта (шапки) картинку во всю ширину страницы. В шапке сайта можно разместить ценные ключевые слова и фразы. При использовании графического заголовка ценное место пропадает впустую. По этой причине лучше, например, совместить в верхней части сайта логотип виде небольшой картинки и текстом указать ключевые слова.

2. Графическое меню навигации

При навигации в виде картинок поисковые не смогут распознать текст ссылки. При этом теряется дополнительное преимущество при ранжировании. Таким образом, с точки зрения поисковой оптимизации, на сайте рекомендуется избегать графического меню навигации.

3. Использование навигации с помощью скриптов

Следует знать, что поисковые системы не умеют распознавать скрипты. В случае навигации с помощью скриптов, ссылки поисковиками учитываться не будут.

4. Оптимизация страницы под неверные ключевые слова

Зачастую при оптимизации страницы оптимизатор допускает ошибки при подборе ключевых слов для конкретной страницы продвигаемого сайта. Ключевые слова должны быть релевантны странице.

5. Неверно прописываются заголовки и мета-теги на странице

Очень важно правильно указывать заголовки и мета-теги на странице. Заголовок H1 должен встречаться на странице только один раз, также стоит использовать заголовки H2, H3.

За название страницы отвечает тег «Title», который является одним из важных тегов. В названии страницы необходимо указывать ключевые слова, по которым идет раскрутка страницы. По сути, название страницы является в поисковой системе ссылкой для перехода посетителей на наш сайт. Поэтому, название страницы должно быть оформлено должным образом.

Мета-тег Description предназначен для описания страницы. Описание страницы должно быть кратким, отражать суть страницы. При составлении описания для страницы следует использовать ключевые слова, которые характерны для данной страницы.

Мета-тег Keywords был придуман для указания ключевых слов данной страницы. В настоящее время, он практически не учитывается поисковыми системами. Однако, «на всякий случай» данный тег лучше заполнять. При заполнении следует указывать слова, которые реально встречаются на странице.

6. Переоптимизация контента

При оптимизации страницы сайта не следует слишком часто повторять ключевые слова. Слишком частое использование ключевых слов на странице может привести к тому, что поисковая система применит к ней санкции.

Ключевые слова должны встречаться на странице, в среднем, 3−4 раза. Чем больше, тем лучше. Однако, не следует просто размещать ключевые слова друг за другом, это не даст никакого положительного эффекта, а лишь, наоборот, может быть воспринято поисковой системой, как попытка искусственного воздействия на результаты ранжирования. Для того, чтобы избежать соответствующих санкций от поисковых систем, лучше так не делать. Ключевые слова следует «разбавлять» текстом. Соответственно, чем больше у нас текста на странице, тем больше раз мы можем упомянуть на ней наше ключевое слово.

7. Использование скрытого текста и однопиксельных ссылок

Использование скрытого текста (текста, оформленного в таком стиле, что пользователь его не видит, например, белый шрифт текста на белом фоне), а также однопиксельных ссылок (их посетитель не видит) может привести к исключению сайта их индекса поисковой системы. Поэтому не стоит прибегать к «серым» методам раскрутки сайта. Рано или поздно поисковая система заменит это и примет соответствующие меры.

Вот, пожалуй, наиболее распространенные ошибки внутренней оптимизации сайта. Следует запомнить ошибки, которые допускают вебмастера при оптимизации своих сайтов, чтобы самим их не совершать. Правильная оптимизация — очень важный момент для вывода сайта в ТОП и, как следствие, успеха Вашего дела.

7 ошибок SEO оптимизации, из-за которых вы теряете деньги

Правильная SEO оптимизация сайта дает вам доступ к «горячим» клиентам, которые хотят купить именно ваш товар или услугу здесь и сейчас, но кроме этого позволяет также прогреть аудиторию, у которой потребность только формируется.

При хорошей поисковой оптимизации сайта вы можете избежать дорогостоящей покупки кликов и выстроить четкую и контролируемую воронку продаж.

Но если вы допустили хотя бы одну из перечисленных ниже ошибок в оптимизации — вы теряете деньги!

Ошибка SEO #1 Фокус не на тех ключевых словах

Если при построении структуры сайта и текстовой оптимизации страниц, вы используете не те ключевые слова — ваш клиент может вас попросту не найти. Проведите подробный анализ целевой аудитории, как они формулируют потребность? Какие ключевые слова используют ваши конкуренты?

Как исправить: используйте эффективные ключевые слова

Часто самыми эффективными ключевыми запросами являются запросы с длинным хвостом или низкочастотные запросы. Это запросы состоящие из 3ех и более слов, они менее конкурентные чем общие запросы из 1 или 2ух слов, но более конкретные.

Общий запрос «Деревянный стол» — имеет общую частотность около 50 тыс запросов в месяц, но сколько из них целевых, транзакционных запросов?

а если заглянуть еще глубже?

Получить по этим запросам целевой трафик проще, и конверсия в покупку с них будет выше.

Запрос «Кроссовки»
Запрос «Купить баскетбольные кроссовки jordan ultra fly 2»

Оцените трезво ситуацию!


Для этого ответьте на следующий ряд вопросов:

  • Насколько конкурентна ваша ниша?
  • Можете ли вы конкурировать по кол-ву товаров?
  • Оцените какие типы контента занимают ТОП3
  • Вы сможете сделать в 5 раз лучше?

Отберите тот список запросов по которым вы действительно можете конкурировать в поисковой выдаче. Т.е. выйти в ТОП10 поисковой выдачи. Помните что 80% SEO трафика забирают сайты, которые находятся на первых трех позициях.

Ошибка SEO #2 Слабая техническая оптимизация

Даже если внешний интерфейс вашего веб-сайта выглядит идеально и может похвастаться отличным пользовательским интерфейсом, структура и код, составляющие основу вашего сайта, могут нанести ущерб эффективности SEO.

Самые распространенные технические ошибки:

  • Низкая скорость загрузки
  • Ошибки в карте сайта (например наличие в ней удаленных страниц или страниц закрытых в robots.txt)
  • Использование 302 редиректа вместо 301
  • Не оптимизированные изображения и видео
  • Отсутствие мобильной версии

Как исправить: провести технический аудит сайта

Вы можете заказать платный аудит у компании, которая специализируется на этом и имеет лицензионные версии разнообразных программ для этих целей или провести его самостоятельно используя бесплатные онлайн сервисы, например:

Проверка скорости загрузки сайта и оптимизации изображений https://developers.google.com/speed/pagespeed/insights/

Подробный чек лист ошибок с рекомендациями https://seositecheckup.com/

Ошибка SEO #3 Отсутствие лонгридов

Поисковики очень любят длинные (более 2000 слов) уникальные и информативные статьи! Но помимо прочего, такие статьи также хорошо сами разлетаются по внешним площадкам тем самым увеличивая кол-во внешних ссылок на сайт.

Сами пользователи тоже активно сохраняют лонгриды «на почитать потом» на своих страничках в соц сетях. Все это повышает авторитетность вашего домена и отлично сказывается на поведенческих факторах сайта.

Как исправить: написать текст или увеличить объем текста на существующей странице

Если статья в которой 400 слов никак не продвигается до первой страницы — напишите больше! Ответьте в ней на все возможные пользовательские вопросы, распишите по шагам процесс решения проблемы пользователя, добавьте в нее ссылки на другие страницы вашего сайта.

Но избегайте воды! Не пишите ради того, что бы написать. Задайте себе вопрос: что еще может быть интересно и важно пользователю?

Ошибка SEO #4 Отсутствие форматирования

Недостаточно просто написать текст длиной в 2000 слов. Необходимо тщательно продумать все подзаголовки в статье: используйте для них синонимы ключевых слов. Не забывайте про мета теги, а также про маркированные и нумерованные списки в тексте.

Как исправить: использовать подсказки Яндекса и Гугла

В результатах поиска по запросам типа: «что это», поисковая система отмечает самые точные ответы в специальном верхнем блоке. Попадание в него гарантирует вам заветное право «первого клика».

Ошибка SEO #5 Ваш блог на субдомене

Если ваш блог находится на субдомене например blog.site.ru, он не будет настолько эффективен как блог, который находится внутри папки сайта site.ru/blog

Как исправить: перенесите сайт на wordpress

WordPress начал свою работу в качестве платформы для ведения блогов, но теперь это полнофункциональная система управления контентом, которая позволяет создавать полноценный веб-сайт практически для любых предпринимательских целей.

WordPress имеет очень удобную админ панель для редактирования контента в соответствии со всеми требованиями SEO оптимизации.

Также существует много действительно хороших и простых в использовании плагинов для оптимизация страниц вашего сайта. Что подводит нас к следующему пункту …

Ошибка SEO #6 Отсутствие SEO плагинов

У вас есть сайт на WordPress и блог — отлично! Но без плагинов для поисковой оптимизации вы снова будете терять лиды и упускать трафик.

Как исправить: установите один из плагинов для WordPress

Например All in SEO pack, он включает в себя все необходимые поля, которые необходимо заполнить для корректной метаоптимизации страницы:

All in seo pack

Отличный плагин Yoast seo, он выдает шкалу оптимизации страницы с подсказками для улучшения.


Не забудьте про SSL сертификат! Гугл учитывает его наличие при ранжировании сайтов и может помечать ваш сайт как небезопасный если не обнаружит его — это сильно сказывается на посещаемости сайта.

Ошибка SEO #7 Реоптимизация контента

Намного проще продвинуть страницу с 5ой позиции на 1ую, чем создать статью, которая сразу попадет в ТОП1. Реоптимизация контента — это относительно малозатратный способ повысить эффективность вашего SEO.

Как исправить: Отслеживайте эффективность статей в Я.Метрике и Google Analytics

Фиксируйте статистику статьи: как быстро пользователи покидают страницу, сколько страниц просматривают на сайте после нее, как часто делятся ей в соц. сетях.

Дополняйте уже существующие статьи с низкими показателями: добавляйте актуальный текст, изображения, видео и гиперссылки.

Обязательно замеряйте показатели после внесения изменений в статью!

Еще больше ошибок оптимизации и способов их устранения мы подробно разбираем на нашем SEO курсе!

У вас есть проект, вместе с которым вы готовы развиваться как специалист?

Ошибки SEO оптимизаторов

Перечисленные далее в статье ошибки, способны существенно ухудшить позиции вашего сайта в поисковой выдаче. Постарайтесь их избегать, а в случае обнаружения — устранить их и резульат скоро даст о себе знать

Ошибки при выборе ключевых слов

Следует тщательно подойти к выбору ключевых слов, по которым ваш сайт будет продвигаться. Поинтересуйтесь у ваших клиентов, какими они ключевыми фразами пользуются, для того, чтоб найти интересующий их товар, или услугу. Воспользуйтесь онлайн сервисами (например Яндекст Wordstat, или Google Webmaster tools), которые помогут в выборе ключевых слов. Помимо привлечения посетителей по определенным ключевым словам, подумайте, приведет-ли продвигаемое ключевое слово целевую аудиторию на ваш сайт.

Дублирование мета тегов

Эта ошибка довольно-таки распространена и встречается на большинстве сайтов.

Мета теги должны быть уникальными для каждой страницы в пределах вашего сайта. Каждая страница должна иметь уникальный заголовок, описание и ключевые слова. Если этого не делать, поисковая система может применить к ваешму сайту санкции. Если-же вы прописали одинаковые ключевые слова для нескольких страниц, эти страницы будут конкурировать между собой за право первенства в поисковой выдаче по отношению к выбранным вами ключевым словам. Все это в конечном итоге может привести к потере позиций обоими страницами.

Сайт построен на флэш и не имеет HTML версии

Не смотря на то, что многие веб разработчики уходят с Адобовского флэш, все еще можно встрерить сайты, которые пестрят баннерами и анимацией, использующими этот стандарт. Ну ладно анимация, но встречаются уникумы, которые делают сайты, построенные исключительно на флэше, и не имеют HTML альтернативы. Почему использование флэш плохо? Да потому, что сканеры поисковых систем не умеют читать информацию из флэша, соответственно, каким-бы ваш сайт полезным для людей не был, про него поисковая система узнает только тогда, когда вы создадите альтернативную версию с использованием HTML.

Ошибки работы с графикой

Также как и с флешем, поисковые системы не умеют читать содержимое картинок, поэтому, им приходится догадыватся про содержимое по косвенным признакам, а именно: имени файла, альтенативному тексту и заголовку.

  • Старайтесь избегать банальных имен файлов image1.png, image2.png и т.д
  • Прописывайте альтернативный текст и заголовок каждой картинки.
  • Не располагайте текст в виде картинок, а используйте HTML и CSS, благо средств для этого хватает.
  • И на последок — не выгружайте огромных изображений — никому пятимегабайтные картинки не нужны.

Контент страницы плохо организован

Многие SEO оптимизаторы пренебрегают рекомендациями поисковых систем по правильной организации структуры страницы. И зря это делают, ведь это поможет посетителю легче ориентироваться на странице, а поисковые системы отдают предпочтение страницам, с хорошо организованной структурой, то-есть в которых для организации текста используются теги (h1, h2 и h3).

Перегруженность страниц ключевыми словами

Также этот термин называют тошнотой страницы. При написании статей, имейте в виду, что вы пишете их для людей, а не для поисковых машин. Из-за того, что часто горе-оптимизаторы злоупотребляют использованием ключевых слов, алгоритмы поисковых систем научились выявлять факты злоупотреблений. Выявив такие факты, поисковая система может применть санкции против вашего сайта и эффект такой оптимизации будет полностью противоположным.

Злоупотребление SEO

Помимо вышеперечисленных ошибок, хочется упомянуть ошибки, связанные с попыткой обмануть поисковую систему, а именно: клоакинг и скрытый текст. Клоакинг представляет из себя попытку отображать разный контент посетителям сайта и для поисковой системы. С помощью скрытого текста (например, белый текст на белом фоне), поисковые оптимизаторы пытаются внедрить в тело страницы как можно больше ключевых слов, при этом сохранив читабельность самой страницы. Со временем, поисковые алгоритмы научились выявлять данный тип «оптимизации» и при выявлении фактов злоупотребления наказывают таких оптимизаторов «по полной».

На последок, хочу дать вам рекомендацию — не зацикливайтесь только на поисковой оптимизации, а поработайте также над удобством вашего сайта. Проанализируйте отказы, почему посетители уходят с вашего сайта и устраните эти причины. Сократив количество отказов, вы сможете добиться повышения отдачи сайта, не вкладывая дополнительных средств в поисковую оптимизацию.

Ошибки в оптимизации сайта

Ни кто не застрахован от ошибок, в любых делах. Это касается и оптимизации сайтов. Вебмастера допускают разные ошибки оптимизации сайтов, от не значительных, до довольно серьезных.

Серьезные ошибки могут привести к плохому ранжированию страниц, к медленно и неполной индексации сайта и т.д. Приведу примеры самых распространенных ошибок при оптимизации страниц.

Первая ошибка: некачественный заголовок и описание

До сих пор часто встречаются некачественно сделанные заголовки страниц. В тег Title пишут абы что, чаще всего это перечень ключей, который не читабельный. Запомните, заголовок это лицо сайта. Это первое что видит юзер в поиске. Что писать в Title почитаете по ссылке. Далее — описание под заголовком. На него тоже мало кто уделяет внимание, а зря. Оптимизируя его можно добиться улучшения кликабельности вашего сниппета в поиске.

Илон Маск рекомендует:  Программирование cgi скриптов на перле

Вторая ошибка: нерелевантный заголовок.


Я разделил это на два разных пункта. Так как можно написать некачественный заголовок, но по теме. А можно написать красивый, но нерелевантный содержимому страницы. Грубо говоря вы решили собрать в вашем тайтле все трафиковые ключи, а на странице этот вопрос не раскрыт. И юзер перейдя по вашему привлекательному заголовку на сайт увидит, что его обманули и уйдет. Вам сразу пойдет минус в поведенческие факторы.

Третья ошибка: пустые страницы на сайте.

Некоторые думают, что чем больше страниц на сайте, тем лучше. В целом это так, но они должны нести смысловую нагрузку. Не стоит держать в индексе пустые страницы, различные служебные страницы, скрипты и прочее. Закрывайте все это от индексации в robots.txt. Или получите еще один минус в «карму» вашего сайта. Минимум 500 символов на страницу.

Четвертая ошибка: переоптимизация текста ключевыми словами.

Следующая ошибка в оптимизации страниц сайта это чрезмерное употребление ключевых слов. Предложения становятся противными к чтению. От таких текстов тошнит и юзеров и поисковые системы. Не злоупотребляйте излишним количеством ключевиков. Можете прочитать как проверить плотность ключей.

Пятая ошибка: недостаточная оптимизация контента.

Если в прошлом пункте шла речь о чрезмерном использовании ключей, то в этом их о недостатке. Не забывайте использовать все значимые места на странице, где можно упомянуть продвигаемые ключи. Это заголовки и подзаголовки, мета теги, подписи к картинкам и т.д. Подробно мы рассматривали этот вопросы в прошлых статьях.

Шестая ошибка: избыток рекламных баннеров

В последнее время поисковики ревностно относятся к большому обилию рекламных материалов размещенных на сайтах. Да и пользователям не нравится, когда из-за обилия мигающих рекламных баннеров, не видно основного контента.

Седьмая ошибка: отсутствие карты сайта и robots.txt

Большое количество вебмастеров пренебрегают советами по использованию карты сайта. А зря, она очень помогает при индексации больших сайтов. Кроме того, правильно настроенный файл robots.txt помогает избежать многих проблем с дублированием контента.

Использование клоакинга

Что бы не хотели сделать в конечном итоге, ни когда не делайте клоакинг на СДЛ сайте. Клоакинг – это подмена контента, когда поисковому роботу выдается одна информация, а юзеру другая. Все поисковики за это жестко наказывают сайты. К клоакингу так же относится текст под цвет фона, display:none и другие более изощренные методы.

Размещение линкопомойки на сайте

Подобный пережиток прошло уже мало где встречается, но имеет место быть. Ни когда не делайте каталога ссылок для обмена с другими сайтами. Это и есть линкопомойка.

Переходим к следующему разделу Индексация сайта

Самые страшные ошибки в SEO

Некоторые ниже перечисленные ошибки являются очень грубыми и могут приводить к санкциям со стороны поисковых систем, другие же — помягче, но тоже не дающие выйти сайту в топ по нужным запросам. В любом случае каждая из перечисленных ошибок может привести к снижению трафика в разы. Поэтому очень внимательно изучите этот раздел и бойтесь как огня допустить эти ошибки.

  1. Переспам. Это, пожалуй, самая грубая из всех ошибок поисковой оптимизации сайта. Некоторые оптимизаторы стараются перенасытить страницы продвигаемыми ключами. Они добавляют их по несколько раз в метатеги, заголовки, а в тексте ключ может встречаться у них десятки раз во всех склонениях, часто полужирным шрифтом или с подчеркиванием. Ну и в завершение они добавляют на страницу множество внутренних ссылок, угадайте каких, — с вхождением продвигаемого ключа. В итоге, страница больше похожа на созданную для поисковых систем, чем для человека.

Что об этом думает Яндекс? Читаем в блоге Яндекса: «Как мы уже писали, поиск Яндекса отдает предпочтение сайтам, которые созданы для людей и удобны пользователям, и негативно относится к попыткам повышения релевантности страниц за счет чрезмерного употребления в текстах ключевых слов (или целых популярных запросов). Размещение переоптимизированных текстов, которые не адресованы посетителям сайта, относится к приемам «псевдооптимизации» и никак не улучшает качество сайта. Если алгоритм определит, что контент создан для влияния на поисковую систему и повышения релевантности, позиции этого документа в выдаче могут ухудшиться».

И это не шутки, поисковые системы очень жестко карают сайт за переспам потерей позиций и выпадением страниц из индекса.

Ниже пример переспамленного текста с блога Яндекса:

«В последнее время проблема переоптимизированных текстов особенно актуальна. Переоптимизированные тексты (которые по-английски можно назвать over-optimized texts или over-optimized content) или тексты с запросами, часто используются для оптимизации сайтов. Переоптимизированные тексты помогают поместить на сайт большое количество ключевиков (ключевых слов, целевых запросов), по которым сайт продвигается. Поэтому сейчас активно используется такая процедура, как продвижение переоптимизированными текстами. Что такое продвижение переоптимизированными текстами, спросите вы. Если вы никогда раньше не пробовали продвижение переоптимизированными текстами, вы все равно наверняка знаете, что это такое».

Случаев фильтрации сайтов за переспам немало. Вот один из недавних примеров с форума Searchengines:

«Подскажите, опытные товарищи. Девелопил сайт, интернет-магазин аксессуаров. Пока сайт разрабатывался (месяца два в индексе был), были позиции по НЧ и шел трафик. Прямо перед запуском, подключением мерчанта (Яндекс.Касса, кстати) сайт выпал из индекса. На письма в саппорт отвечают стандартно: «Наши алгоритмы… работайте над сайтом и т.д.». Добавил тексты (главная, категории, приоритетные бренды), не помогло, тот же ответ от платонов. Сайт — чистый екомерц, 5000 позиций товаров, свой чекаут и т.д. По совету отправил сайт на апрув в Яндекс Каталог, получил ответ: «По оценке редакции сайт переоптимизирован». Хотя, на мой взгляд, все ОК, тайтлы человеческие более чем. Из стремного — только динамическая перелинковка на страницах товара. В ней может быть дело?»

Опытные товарищи тут же разобрались, что дело в жестком переспаме текстов продвигаемыми ключами. Например, фраза «солнцезащитные очки» встречалась в коде одной страницы 181 раз!

Переспам ключей в тексте на продвигаемой странице

Поэтому оптимизируйте-оптимизируйте, но не переоптимизируйте. Нескольких повторов продвигаемой фразы в тексте страницы вполне достаточно. Главное, чтобы текст был для людей, а не для поисковых систем.

  1. Слабая оптимизация страницы. Противоположная ошибка хоть и не приводит к санкциям, но делает невозможным выход сайта в топ по конкурентным ключам. Довольно часто, продвигая страницу, оптимизаторы не добавляют ключи в метатеги, заголовки, а иногда точных вхождений нет даже в тексте страницы. И как мы с вами уже увидели на примере конкретных кейсов, одна лишь внутренняя оптимизация страниц может увеличить трафик сайта в разы.
  2. Слишком много продвигаемых ключей на страницах. Чтобы сэкономить свои силы и время, некоторые оптимизаторы продвигают главную страницу сразу по всем конкурентным фразам. Примерно так же дело обстоит и с внутренними страницами: вместо того чтобы подготовить для каждого ключа или группы из нескольких ключей отдельную оптимизированную страницу, они создают 2-3 страницы, которые продвигаются по нескольким десяткам ключевых фраз.

В результате заточить страницу под конкретные ключи не получается, что ослабляет позиции сайта. Более того, посадочные страницы слабо отвечают на вопрос посетителя, пришедшего с поисковой системы, так как они содержат слишком много разной информации. Опять же мешает отсутствие заточки под конкретные ключи. Поэтому посетители приходят на страницу, закрывают ее и ухудшают этим поведенческие факторы, что еще ниже опускает сайт в выдаче.

Правильным выходом было бы создание специальных разделов и страниц, которые четко и точно заточены под один или несколько смежных ключей и дают исчерпывающий ответ на вопрос пользователя.

Кстати, по словам SEO-консультанта Лены Камской, эта ошибка является самой распространенной среди всех ошибок оптимизаторов.

  1. Ошибки структуры сайта (дубли, мусорные страницы и т.д.). Поисковые системы настолько не любят дубли страниц, точные или частичные, что зачастую из-за них снижают позиции сайта в поиске. Дубли обычно плодят CMSсайтов при неправильной настройке: Joomla, WordPressи многие другие. Главная страница сайта может быть доступна по адресу site.ru, а также site.ru/index.html и site.ru/default.html. Для пользователей это одна и та же страница, а для поисковых систем дубли. Их нужно найти и настроить сайт таким образом, чтобы полностью исключить дубли.


Искать можно через поисковую систему. Для этого ставим галочку поиска по сайту и вставляем в качестве поискового запроса фрагмент текста со страницы в кавычках (кавычки помогают найти точное соответствие). Проверив ряд страниц таким образом, можно понять, создает ли CMS их дубли или нет. Дубли будут видны сразу, когда по уникальному запросу будет отображаться сразу несколько результатов с вашего сайта. Если дубли есть, нужно обратиться к программисту для настройки CMS таким образом, чтобы она не плодила копии страниц.

Кстати, в свое время наш тестовый сайт резко потерял все позиции в Яндексе по основным запросам, и они вылетели из топа в 5-ую сотню выдачи. Причина была проста — ошибка программиста, из-за которой было автоматически создано множество дублей страниц. После устранения этой проблемы позиции вскоре вновь восстановились.

Мусорные страницы — это страницы, которые возникли по технической ошибке, например пустые страницы или страницы с технической информацией, которые не должны отображаться пользователям. От таких страниц нужно избавляться. Чтобы выявить их, можно добавить сайт в Яндекс-Вебмастер и изучить раздел проиндексированных страниц. Из бесплатных инструментов, не требующих регистрации, рекомендуем Линкпад. Там при проверке сайта в разделе «Страницы в индексе» можно увидеть основные страницы и их размер.

Признаком мусорной страницы является ее малый размер. Особенно обратите внимание на страницы размером менее 3 кб, именно они могут быть пустыми или ошибочно созданными. Найдя лишь несколько подобных страниц, остается показать их программисту с тем, чтобы он устранил причины их появления.

Отсутствие страницы с ошибкой 404 — некоторые сайты вместо того, чтобы выдать в ответ на запрос несуществующей страницы 404-ую ошибку, возвращают ответ 200 ОК и отображают какое-то содержимое или совершают 302-ой редирект. Это неправильно, так как заставляет поисковые системы считать, что страница существует. Даже из-за такой мелочи ранжирование сайта может ухудшаться.

Поэтому проверьте ответ сайта на запрос к странице, которой точно нет на сервере. Рекомендуем использовать для этого сервис BertaL Если в ответ на запрос несуществующей страницы на вашем сайте типа site.ru/test404.html, а также несуществующего домена типа test.site.ru сервер не вернет 404-ую ошибку, необходимо обращаться к программисту для устранения проблемы.

Большое количество сквозных динамических блоков на странице — это болезнь интернет-магазинов, когда на странице отображается чуть-чуть текста, касающегося данного товара или товарной категории, и множество информации в динамических блоках: похожие и рекомендуемые товары, последние отзывы и прочее… Иногда содержимого динамических блоков в разы больше, чем основного контента страницы. Продвижение таких страниц — это проблема, потому что происходит растворение основного контента неосновным.

Плюс к этому, динамические блоки на разных страницах могут выдавать примерно одинаковое содержание, а это уже дублирование контента, которое приводит к снижению позиций таких страниц.

Если эти блоки формируются на лету при помощи аякса, то есть сначала страница загружается, а потом скрипты подтягивают содержимое блоков, то проблем нет. В этом случае эти блоки вообще не будут проиндексированы (помните разговор о скриптах?).

Но если содержимое блоков есть в HTML-коде, то они будут проиндексированы, а следовательно, нужно работать с ними так, чтобы не создавались дубли контента и не размывалось основное содержимое страниц.

  1. Формирование основного контента на лету при помощи javascript и ajax. Эта ошибка, как правило, встречается
    на самописных сайтах. Ее суть в том, что основной контент формируется после открытия страницы пользователем.

Чем это плохо? Поисковые системы, как правило, не запускают скрипты на сайте. Они видят страницу без тех текстов, которые подгружаются скриптами. И хотя представители Гугла заявляют, что научились хорошо работать с ява-скриптом, наш опыт показывает, что пока это не соответствует действительности. Если основное содержимое подтягивается скриптами, то поисковики будут видеть страницу без основного содержимого. Тогда ни о каком продвижении страницы не может идти и речи. Необходимо, чтобы весь основной контент загружался сразу, а не при помощи скриптов.

  1. Исходящие ссылки на плохие сайты — в Советах вебмастеру от Яндекса сказано, что поисковик старается не
    индексировать или не ранжировать высоко «немодерируемые форумы, доски объявлений, содержащие большое
    количество ссылочного спама». Такие сайты действительно очень быстро вылетают из индекса из-за спам-ссылок.

В группе риска блоги или другие сайты, где посетители или сам владелец сайта размещает ссылки на плохие сайты.

Ни в коем случае нельзя ставить ссылки на дорвеи (автоматически сгенерированные страницы и сайты, созданные только для сбора поискового трафика и для редиректа его на какие-то другие площадки), фишинговые сайты (сайты, созданные для воровства персональных данных). Нужно избегать ссылок на порносайты, а также любые другие сайты, которые кажутся вам сомнительными.

Если любой пользователь может добавить на сайт ссылку, то позаботьтесь о том, чтобы все ссылки шли с атрибутом rel=nofollow, например Xоpоший сайт Этот атрибут запрещает поисковой системе переходить по ссылке. Попросту говоря, она не учитывается поисковиками, хотя у оптимизаторов на этот счет есть обоснованные сомнения. В любом случае ответственность за такую ссылку при помощи rel=»nofollow» вы с сайта снимаете.

В частности, Гугл рекомендует использовать этот атрибут для ссылок в ненадежном (пользовательском) контенте: «Если вы не можете или не хотите поручиться за содержание страниц, на которые ведут ссылки с вашего сайта (например из комментариев пользователей), следует вставлять в теги таких ссылок rel=»nofollow». Это сократит количество спама и поможет исключить непреднамеренную передачу значения PageRank с сайта недобросовестным пользователям».

Итак, не ссылайтесь на плохие сайты либо используйте атрибут rel=nofollow, когда нет возможности проверять сайты.

  1. Агрессивная реклама — кто бы мог подумать, что за рекламу на сайте могут быть какие-то санкции! И, тем не менее, это реальность. Яндекс, описывая сайты, которые подлежат исключению или понижению в поиске, в своих рекомендациях упоминает «сайты, основным предназначением которых является агрессивная демонстрация рекламных материалов (в том числе popup, popunder, clickunder)». Аналогичного подхода придерживается и Гугл, поэтому мы настоятельно рекомендуем не использовать рекламу, которая вызывает открытие каких-то дополнительных окон.

Кроме того, лучше забыть о показе на своем сайте шокирующей рекламы и рекламы для взрослых. В блоге Яндекса об этом написано следующее: «К такой рекламе относятся, например, тизеры с фотографиями болезней, изображение частей тела людей с сильно избыточным весом, реклама, в которой используются картинки с явно выраженным эротическим содержанием, кадры из фильмов ужасов и тому подобное… В связи с вышесказанным в Поиске будет постепенно внедряться механизм, который отдает предпочтение страницам, не содержащим шокирующей рекламы…»

Вот еще характерное сообщение от Яндекса на тему рекламы: «Наверняка вы хотя бы раз замечали на сайтах всплывающие окна, похожие на уведомления от социальных сетей, предложения по обновлению ПО или сообщения от «антивирусов» о заражении… Теперь Яндекс умеет определять сайты с подобным контентом, и в ближайшее время их позиции в результатах поиска будут понижены».

Хотите узнать еще один простой способ ухудшить ранжирование сайта? Для этого нужно разместить на нем слишком много рекламы. К примеру, Гугл борется с этим с помощью своего алгоритма Page Layout, накладывая так называемый фильтр Top heavy на сайты, верхняя часть которых переполнена рекламой. Вот что об этом сообщает Мэтт Каттс, ведущий инженер Гугл по борьбе с поисковым спамом: «Мы понимаем, что размещение рекламы в верхней части сайта характерно для многих веб-ресурсов, поскольку именно такие объявления заметны пользователю и являются основным источником дохода для издателей. Вот почему фильтр не будет понижать в ранжировании те сайты, которые публикуют рекламу «в разумных пределах». Основной удар придется на сайты, изобилующие рекламой, где пользователь с трудом находит оригинальный контент. Не пройдет и распространенный прием, когда оригинальный контент, размещенный в видимой верхней части сайта, настойчиво направляет пользователя ниже к огромным блокам рекламных объявлений».

Поэтому нужно относиться к рекламе на своем сайте очень осторожно, избегая назойливой, надоедливой, шокирующей рекламы, а также не допуская избытка даже допустимой рекламы на страницах.

Избегая перечисленных выше ошибок и выполняя все рекомендации раздела по поисковой оптимизации, можно добиться потрясающих результатов в продвижении любого сайта. А теперь давайте подытожим и вспомним самые важные моменты, касающиеся внутренней оптимизации итоги

Топ-10 SEO ошибок на сайте

Привет уважаемые читатели seoslim.ru! Сегодня мы продолжим говорить про поисковую оптимизацию (СЕО) внутри сайта, а если точнее попробуем рассмотреть парочку популярных ошибок, которые чаще всего допускаю, как начинающие, так и опытные вебмастера, специализирующиеся на продвижении сайтов в поисковых системах.

Список ошибок в СЕО, которые лучше не допускать

Конечно же недочетов, оказывающих плохое влияние на позиции в поиске очень много, но я решил сделать акцент на самых популярных, с которыми столкнулся лично.

Илон Маск рекомендует:  Арифметическое кодирование

Кто-то скажет, что на ошибках учатся, но я считаю, что лучше учиться на чужих ошибках, поэтому начнем.

1 Плохие тексты

Содержимое или контент это основа любого проекта. Не стоит думать, что неуникальный, спамный и переоптимизированный текст вытянет сайта в ТОП поисковиков.


Яндекс и Google за последние годы стали очень совершенны и хорошо отличают тексты, которые созданы не для людей.

Даже этот блог в начале своего пути, угодил под фильтр АГС, в итоге пришлось потрать много времени, чтобы переписать все статьи и вернуть доверие алгоритмов Yandex.

Не повторяйте моих ошибок, пишите статьи сами, а если заказываете их у копирайтеров, то требуйте от них максимального освещения темы, чтобы посетитель смог получить ответ на свой вопрос.

2 Плохие внешние ссылки

Раньше у Яндекса был показатель ТИЦ, который отображал значение цитируемости проекта в сети. В результате чего начался бум закупки и продажи большого количества линков с не совсем хороших сайтов. В просто народе из назвали ГС-ами.

ТИЦ прекратил свое существование, ему на смену пришел новый показатель ИКС (индекс качества сайта), но покупать ссылке не перестали.

Я сам раньше придерживался стратегии чем больше добыть внешних ссылок, тем лучше. Но и здесь поисковики постарались, запустив специальные алгоритмы вроде Пингвина и Минусинска, которые накладывают санкции на проекты за некачественные линки.

Теперь если нужна ссылка, проверьте, чтобы она была с ресурса схожего по тематике вашему, анкор ссылки должен быть естественным и самое главное, по таким линкам должны переходить люди.

3 Битые ссылки на сайте

Продолжим тему, только теперь посмотрим на те ссылки, что размещены на нашем сайте. Немаловажным является работоспособность внутренних и внешних линков на страницах площадки, ведь по ним переходят люди и если гиперссылка будет нерабочей, пользователь попадет в никуда и скорее всего к вам уже не вернется, а это отрицательно скажется на поведенческих факторах ранжирования.

ПС тоже отслеживают это дело, все ради удобства посетителей, и если нерабочих линков будет очень много сайт может просесть по позициям в поиске.

Как искать битые линки на сайте я рассказывал в предыдущих статьях.

4 Одинаковый контент

Ввиду того, что проекты создаются на разных движках CMS, некоторые из систем управления могут без вашего участия создавать дубли страниц, на основе того контента, что вы уже разместили.

Такие страницы могут создаваться автоматически через поиск на сайте, страницы пагинации, плагины, комментарии и др.

Как я боролся с некоторыми из них читайте в прошлых статьях:

5 Не используется подключение по HTTPS

Еще несколько лет назад Гугл заявил, что сайты, которые используют безопасное подключение https будут ранжироваться немного лучше, чем те кто использует http при прочих равных условиях.

Исследования это подтвердили, в ТОП-3 Google находится более 30% сайтов, у которых подключен SSL сертификат.

Если у вас коммерческий проект, то наличие https обязательно, а если информационный и вы ходите получить немного плюсов в поиске, тогда глупо будет не использовать эту возможность.

6 Повторение Title и Дублирование H1

Заголовок страницы H1 должен быть уникальным и единственным. Некоторые забывают это правило и используют несколько таких тегов в статье.

Тоже самое касается и названия статьи, которое заполняется через метатег Title, оно должно быть уникальным и не повторяться с H1.

7 Не заполняется Description

Мета-тег отвечающий за описание страницы большого значения не имеет при ранжировании страниц, но именно из него может браться текст, который вводится в поисковой выдаче.

Даже Яндекс следит за представлением ваших проектов в поиске и присылает уведомление, если description не заполнен.

8 Альтернативный текст картинок

Хоть никто и не видит на сайте альтернативный текст изображений, прописывать его в ходе добавления графики надо.

Так как поисковые машины распознают картинки по словам, и если вы добавите текст, который сообщает, что там изображено, то Гугл и Яндекс её увидят и смогут добавить в ранжирование в поиске по картинкам.

9 Отсутствие мобильной версии сайта

У каждого есть смартфон, а значит 50% пользования сетью интернет осуществляется именно с помощью мобильного устройства. Тем более, что поисковые машины на телефоне выводят пользователю именно мобильную выдачу, где представлены ресурсы, у которых шаблон адаптирован под экраны телефонов.

Считаю неправильным будет терять позиции в ТОП из-за экономии на верстке площадки под моб. устройства.

10 Аналитика

Последним и тоже важным пунктом является ведение аналитики. Ведь, как можно понять насколько успешной является оптимизация сайта, если не проводить ее анализ.

Благо для этого существует много бесплатных инструментов от самих систем поиска:


На этом у меня все, если вы знаете еще о важных пунктах из seo, о которых я не рассказал прошу дополнить статью в комментариях.

Основные ошибки SEO оптимизации: почему сайт не продвигается

Вступление

И для начала вспомним, что подразумевает, поисковая SEO оптимизация, или иначе, где искать ошибки.

SEO оптимизация это

SEO оптимизация или поисковая SEO оптимизация — продвижение страниц сайта по поисковой выдаче вверх, в соответствии с конкретными поисковыми запросами пользователей.

Здесь все понятно, есть запрос пользователя, поисковики ищут по данному запросу релевантные страницы в своих базах. Релевантные страницы определяются по алгоритмам поисковиков, а алгоритмы поисковиков это набор определенных правил. Именно, нарушение или игнорирование этих правил и есть ошибки SEO оптимизации.

Ошибки SEO оптимизации

Давайте посмотрим, где искать основные ошибки оптимизации.

1. Основной тег, который ищет поисковик, это тег title. По сути это заголовок страницы. Допускать отсутствие title нельзя, это грубейшее нарушение правил оптимизации. Кроме это в заголовке (title), должны быть ключевая фраза, по которой продвигается страница.

2. Неверное использование ключевых слов. Нельзя продавать детскую мебель, а продвигать по ключевым фразам, элементы интерьера или обивка мебели.

3. Продвижение не полного сайта. Лучше продвигать полностью готовый сайт с полностью сформированной навигацией и внутренней перелинковкой страниц.

4. Размещение внешних ссылок, не совпадающих по тематике сайта. Поисковики стали отслеживать тематичность исходящих ссылок. Большое количество исходящих, не тематических ссылок могут отрицательно сказаться на продвижение в выдаче и более того, сайт может попасть фильтры поисковиков.

Еще ошибки

6. Плохая навигация на сайте. На сайте должна быть сделана, удобная навигация для пользователей. Посетитель должен легко передвигаться по сайту и всегда вернуться в исходную точку «путешествия». Необходимые элементы навигации: меню сайта, «хлебные крошки», блоки «Похожие материалы», списки статей раздела.

7. Игнорирование внутренней перелинковки. Наряду с удобной навигацией, нельзя игнорировать внутреннюю перелинковку сайта. В теле страницы должны быть ссылки на другие статьи раздела, на главную страницу сайта и ссылки на статьи других разделов.

8. Внимание к тегам h1-h4. На странице должно быть не более одного тега h1. Он должен обрамлять заголовок страницы. Сама страница должна имеет иерархическую структуру по тегам h1-h4.

9. Description и Keywords. Поисковики изменили отношение к тегам Description и Keywords для страниц сайта. Google их вообще не учитывает, Яндекс «не видит» Keywords. Однако сайт в целом, должен иметь и Description и Keywords.

10.

  • Не нужно забывать про социальные сети и интегрировать сайт с ними.
  • Важно максимально увеличить уникальность статей (90%) и не использовать чужой контент.
  • Следует обратить внимание на оптимизацию картинок сайта и указывать в тегах alt к картинке ключевую фразу страницы.

И последнее, если хотите понять, что вы делаете неправильно в продвижении сайта и понять все ошибки SEO оптимизации, начните с технического аудита сайта на специальных онлайн серверах.

5 ошибок SEO оптимизированного текста: найти и исправить

Даже профессионалы ошибаются…

Текстовый контент по сей день остается главным элементом информационного ресурса.

Статьи веб-сайта способствуют продвижению площадки в поисковых системах, они привлекают заинтересованных пользователей, влияют на ранжирование веб-проекта, обеспечивают обновление и развитие.

При этом даже опытные копирайтеры, создавая очередной текст, могут допускать ошибки, вызванные:

  • ленью или невнимательностью
  • нежеланием перечитать текст и вникнуть в содержание
  • отсутствием времени на повторную проверку
  • безответственностью или забывчивостью
  • отвлеченностью от сути и смысла выполняемой работы

В результате такие «SEO оптимизированные тексты» (в кавычках), купленные за деньги, не могут решить первостепенные задачи сайта. О типичных ошибках, неточностях, недочетах и очевидных проблемах в текстах статей, мы и поговорим в рамках данной темы на сайте todid.ru.

Ошибки SEO оптимизированного текстового контента

1. Ошибки в подборе ключей

Для оптимизации текстов часто подбираются ключевые фразы с максимальной частотой популярности, причем, таких ключей в статье может быть даже несколько.

Сложно представить, каким образом одна публикация способна выбиться в ТОП по конкурентным и высокочастотным фразам, когда другие веб-площадки отдают за продвижение немалые деньги. Поверхностная работа с высокочастотными запросами редко дает какие-либо результаты.

2. Нерелевантность ключей

Если ключевые запросы, использованные в статье, вставлены в готовый текст искусственным и мучительным способом, то (с высокой долей вероятности) можно утверждать, что они будут выделяться из общего содержания.


Такие ключи часто вообще не соответствуют материалу, раскрытому в статье. Говорить о том, что подобный контент может заинтересовать читателя, – обманывать себя и заказчика.

3. Плотность ключей

В процессе работы копирайтер должен добиться оптимальной плотности ключевых фраз, исходя из заданных объемов конкретного текстового наполнения.

Любые крайности здесь нежелательны и опасны.

Если ключевых запросов в SEO оптимизированной статье оказывается слишком много, наблюдается очевидный спам и переоптимизация. Когда же ключей недостаточно, их плотность слишком мала, статья проигрывает оптимизированным площадкам конкурентов, что тоже плохо.

Еще хуже, когда объемы текстового контента на странице чрезмерно велики (тексты-простыни) или малы (заметки, описания или анонсы). Выдержать заданную плотность в таких условиях можно лишь вопреки качеству и читабельности текста.

4. Машинная и смысловая уникальность

Хороший автор всегда различает глубинную уникальность с ее машинным (техническим) аналогом. Разница здесь закладывается на уровне излагаемых идей и раскрываемых мыслей, что, в принципе, может заметить только живой человек.

И даже когда поисковая система видит стопроцентно уникальную статью, это не всегда соответствует действительности, так как оригинальный порядок слов и словосочетаний не гарантирует новизны предоставленной информации, не отражает актуальности изложенных данных.

5. Без оглядки на перелинковку

Если текст никоим образом не учитывает внутренних ссылок на другие публикации, обособлен, никак не связан с прочими материалами и разделами сайта, он:

  • либо начинает дублировать информацию имеющихся статей
  • либо выпадает из общей логической цепочки
  • либо содержит слишком мало полезной информации

В плане SEO оптимизации все эти «либо» имеют негативные последствия и никак не способствуют продвижению сайта к лидирующим местам органической выдачи.

Внутренняя перелинковка – обязательный элемент хорошей статьи, воздействующий одновременно и на пользователей и на поисковые системы.

Работа над ошибками

Вышеперечисленные замечания и ошибки являются типовыми и частыми. Не будет преувеличением сказать, что в Сети нет информационного ресурса, целиком свободного от этих проблем.

Любая страница сайта, не входящая в ТОП-10, почти гарантированно:

  • имеет слишком высокую или малую плотность ключей
  • не использует всех возможностей грамотной перелинковки
  • содержит в тексте высокочастотные фразы
  • полностью или частично дублирует содержание аналогичных публикаций других сайтов (здесь подразумевается рерайт)

Соответственно, исправление вышеупомянутых ошибок ведет к положительным результатам в виде роста позиций ресурса, повышения посещаемости, увеличения продаж сайта.

По этой причине игнорировать ошибки текстового контента, как минимум, глупо и нецелесообразно. О проблемах контента нельзя просто забыть, их придется устранить на практике.

Самые страшные ошибки в SEO

Некоторые ниже перечисленные ошибки являются очень грубыми и могут приводить к санкциям со стороны поисковых систем, другие же — помягче, но тоже не дающие выйти сайту в топ по нужным запросам. В любом случае каждая из перечисленных ошибок может привести к снижению трафика в разы. Поэтому очень внимательно изучите этот раздел и бойтесь как огня допустить эти ошибки.

  1. Переспам. Это, пожалуй, самая грубая из всех ошибок поисковой оптимизации сайта. Некоторые оптимизаторы стараются перенасытить страницы продвигаемыми ключами. Они добавляют их по несколько раз в метатеги, заголовки, а в тексте ключ может встречаться у них десятки раз во всех склонениях, часто полужирным шрифтом или с подчеркиванием. Ну и в завершение они добавляют на страницу множество внутренних ссылок, угадайте каких, — с вхождением продвигаемого ключа. В итоге, страница больше похожа на созданную для поисковых систем, чем для человека.

Что об этом думает Яндекс? Читаем в блоге Яндекса: «Как мы уже писали, поиск Яндекса отдает предпочтение сайтам, которые созданы для людей и удобны пользователям, и негативно относится к попыткам повышения релевантности страниц за счет чрезмерного употребления в текстах ключевых слов (или целых популярных запросов). Размещение переоптимизированных текстов, которые не адресованы посетителям сайта, относится к приемам «псевдооптимизации» и никак не улучшает качество сайта. Если алгоритм определит, что контент создан для влияния на поисковую систему и повышения релевантности, позиции этого документа в выдаче могут ухудшиться».

И это не шутки, поисковые системы очень жестко карают сайт за переспам потерей позиций и выпадением страниц из индекса.

Ниже пример переспамленного текста с блога Яндекса:

«В последнее время проблема переоптимизированных текстов особенно актуальна. Переоптимизированные тексты (которые по-английски можно назвать over-optimized texts или over-optimized content) или тексты с запросами, часто используются для оптимизации сайтов. Переоптимизированные тексты помогают поместить на сайт большое количество ключевиков (ключевых слов, целевых запросов), по которым сайт продвигается. Поэтому сейчас активно используется такая процедура, как продвижение переоптимизированными текстами. Что такое продвижение переоптимизированными текстами, спросите вы. Если вы никогда раньше не пробовали продвижение переоптимизированными текстами, вы все равно наверняка знаете, что это такое».

Случаев фильтрации сайтов за переспам немало. Вот один из недавних примеров с форума Searchengines:

«Подскажите, опытные товарищи. Девелопил сайт, интернет-магазин аксессуаров. Пока сайт разрабатывался (месяца два в индексе был), были позиции по НЧ и шел трафик. Прямо перед запуском, подключением мерчанта (Яндекс.Касса, кстати) сайт выпал из индекса. На письма в саппорт отвечают стандартно: «Наши алгоритмы… работайте над сайтом и т.д.». Добавил тексты (главная, категории, приоритетные бренды), не помогло, тот же ответ от платонов. Сайт — чистый екомерц, 5000 позиций товаров, свой чекаут и т.д. По совету отправил сайт на апрув в Яндекс Каталог, получил ответ: «По оценке редакции сайт переоптимизирован». Хотя, на мой взгляд, все ОК, тайтлы человеческие более чем. Из стремного — только динамическая перелинковка на страницах товара. В ней может быть дело?»

Опытные товарищи тут же разобрались, что дело в жестком переспаме текстов продвигаемыми ключами. Например, фраза «солнцезащитные очки» встречалась в коде одной страницы 181 раз!

Переспам ключей в тексте на продвигаемой странице

Поэтому оптимизируйте-оптимизируйте, но не переоптимизируйте. Нескольких повторов продвигаемой фразы в тексте страницы вполне достаточно. Главное, чтобы текст был для людей, а не для поисковых систем.


  1. Слабая оптимизация страницы. Противоположная ошибка хоть и не приводит к санкциям, но делает невозможным выход сайта в топ по конкурентным ключам. Довольно часто, продвигая страницу, оптимизаторы не добавляют ключи в метатеги, заголовки, а иногда точных вхождений нет даже в тексте страницы. И как мы с вами уже увидели на примере конкретных кейсов, одна лишь внутренняя оптимизация страниц может увеличить трафик сайта в разы.
  2. Слишком много продвигаемых ключей на страницах. Чтобы сэкономить свои силы и время, некоторые оптимизаторы продвигают главную страницу сразу по всем конкурентным фразам. Примерно так же дело обстоит и с внутренними страницами: вместо того чтобы подготовить для каждого ключа или группы из нескольких ключей отдельную оптимизированную страницу, они создают 2-3 страницы, которые продвигаются по нескольким десяткам ключевых фраз.

В результате заточить страницу под конкретные ключи не получается, что ослабляет позиции сайта. Более того, посадочные страницы слабо отвечают на вопрос посетителя, пришедшего с поисковой системы, так как они содержат слишком много разной информации. Опять же мешает отсутствие заточки под конкретные ключи. Поэтому посетители приходят на страницу, закрывают ее и ухудшают этим поведенческие факторы, что еще ниже опускает сайт в выдаче.

Правильным выходом было бы создание специальных разделов и страниц, которые четко и точно заточены под один или несколько смежных ключей и дают исчерпывающий ответ на вопрос пользователя.

Кстати, по словам SEO-консультанта Лены Камской, эта ошибка является самой распространенной среди всех ошибок оптимизаторов.

  1. Ошибки структуры сайта (дубли, мусорные страницы и т.д.). Поисковые системы настолько не любят дубли страниц, точные или частичные, что зачастую из-за них снижают позиции сайта в поиске. Дубли обычно плодят CMSсайтов при неправильной настройке: Joomla, WordPressи многие другие. Главная страница сайта может быть доступна по адресу site.ru, а также site.ru/index.html и site.ru/default.html. Для пользователей это одна и та же страница, а для поисковых систем дубли. Их нужно найти и настроить сайт таким образом, чтобы полностью исключить дубли.
Илон Маск рекомендует:  box-shadow в CSS

Искать можно через поисковую систему. Для этого ставим галочку поиска по сайту и вставляем в качестве поискового запроса фрагмент текста со страницы в кавычках (кавычки помогают найти точное соответствие). Проверив ряд страниц таким образом, можно понять, создает ли CMS их дубли или нет. Дубли будут видны сразу, когда по уникальному запросу будет отображаться сразу несколько результатов с вашего сайта. Если дубли есть, нужно обратиться к программисту для настройки CMS таким образом, чтобы она не плодила копии страниц.

Кстати, в свое время наш тестовый сайт резко потерял все позиции в Яндексе по основным запросам, и они вылетели из топа в 5-ую сотню выдачи. Причина была проста — ошибка программиста, из-за которой было автоматически создано множество дублей страниц. После устранения этой проблемы позиции вскоре вновь восстановились.

Мусорные страницы — это страницы, которые возникли по технической ошибке, например пустые страницы или страницы с технической информацией, которые не должны отображаться пользователям. От таких страниц нужно избавляться. Чтобы выявить их, можно добавить сайт в Яндекс-Вебмастер и изучить раздел проиндексированных страниц. Из бесплатных инструментов, не требующих регистрации, рекомендуем Линкпад. Там при проверке сайта в разделе «Страницы в индексе» можно увидеть основные страницы и их размер.

Признаком мусорной страницы является ее малый размер. Особенно обратите внимание на страницы размером менее 3 кб, именно они могут быть пустыми или ошибочно созданными. Найдя лишь несколько подобных страниц, остается показать их программисту с тем, чтобы он устранил причины их появления.

Отсутствие страницы с ошибкой 404 — некоторые сайты вместо того, чтобы выдать в ответ на запрос несуществующей страницы 404-ую ошибку, возвращают ответ 200 ОК и отображают какое-то содержимое или совершают 302-ой редирект. Это неправильно, так как заставляет поисковые системы считать, что страница существует. Даже из-за такой мелочи ранжирование сайта может ухудшаться.

Поэтому проверьте ответ сайта на запрос к странице, которой точно нет на сервере. Рекомендуем использовать для этого сервис BertaL Если в ответ на запрос несуществующей страницы на вашем сайте типа site.ru/test404.html, а также несуществующего домена типа test.site.ru сервер не вернет 404-ую ошибку, необходимо обращаться к программисту для устранения проблемы.

Большое количество сквозных динамических блоков на странице — это болезнь интернет-магазинов, когда на странице отображается чуть-чуть текста, касающегося данного товара или товарной категории, и множество информации в динамических блоках: похожие и рекомендуемые товары, последние отзывы и прочее… Иногда содержимого динамических блоков в разы больше, чем основного контента страницы. Продвижение таких страниц — это проблема, потому что происходит растворение основного контента неосновным.

Плюс к этому, динамические блоки на разных страницах могут выдавать примерно одинаковое содержание, а это уже дублирование контента, которое приводит к снижению позиций таких страниц.

Если эти блоки формируются на лету при помощи аякса, то есть сначала страница загружается, а потом скрипты подтягивают содержимое блоков, то проблем нет. В этом случае эти блоки вообще не будут проиндексированы (помните разговор о скриптах?).

Но если содержимое блоков есть в HTML-коде, то они будут проиндексированы, а следовательно, нужно работать с ними так, чтобы не создавались дубли контента и не размывалось основное содержимое страниц.

  1. Формирование основного контента на лету при помощи javascript и ajax. Эта ошибка, как правило, встречается
    на самописных сайтах. Ее суть в том, что основной контент формируется после открытия страницы пользователем.

Чем это плохо? Поисковые системы, как правило, не запускают скрипты на сайте. Они видят страницу без тех текстов, которые подгружаются скриптами. И хотя представители Гугла заявляют, что научились хорошо работать с ява-скриптом, наш опыт показывает, что пока это не соответствует действительности. Если основное содержимое подтягивается скриптами, то поисковики будут видеть страницу без основного содержимого. Тогда ни о каком продвижении страницы не может идти и речи. Необходимо, чтобы весь основной контент загружался сразу, а не при помощи скриптов.

  1. Исходящие ссылки на плохие сайты — в Советах вебмастеру от Яндекса сказано, что поисковик старается не
    индексировать или не ранжировать высоко «немодерируемые форумы, доски объявлений, содержащие большое
    количество ссылочного спама». Такие сайты действительно очень быстро вылетают из индекса из-за спам-ссылок.

В группе риска блоги или другие сайты, где посетители или сам владелец сайта размещает ссылки на плохие сайты.

Ни в коем случае нельзя ставить ссылки на дорвеи (автоматически сгенерированные страницы и сайты, созданные только для сбора поискового трафика и для редиректа его на какие-то другие площадки), фишинговые сайты (сайты, созданные для воровства персональных данных). Нужно избегать ссылок на порносайты, а также любые другие сайты, которые кажутся вам сомнительными.

Если любой пользователь может добавить на сайт ссылку, то позаботьтесь о том, чтобы все ссылки шли с атрибутом rel=nofollow, например Xоpоший сайт Этот атрибут запрещает поисковой системе переходить по ссылке. Попросту говоря, она не учитывается поисковиками, хотя у оптимизаторов на этот счет есть обоснованные сомнения. В любом случае ответственность за такую ссылку при помощи rel=»nofollow» вы с сайта снимаете.

В частности, Гугл рекомендует использовать этот атрибут для ссылок в ненадежном (пользовательском) контенте: «Если вы не можете или не хотите поручиться за содержание страниц, на которые ведут ссылки с вашего сайта (например из комментариев пользователей), следует вставлять в теги таких ссылок rel=»nofollow». Это сократит количество спама и поможет исключить непреднамеренную передачу значения PageRank с сайта недобросовестным пользователям».

Итак, не ссылайтесь на плохие сайты либо используйте атрибут rel=nofollow, когда нет возможности проверять сайты.

  1. Агрессивная реклама — кто бы мог подумать, что за рекламу на сайте могут быть какие-то санкции! И, тем не менее, это реальность. Яндекс, описывая сайты, которые подлежат исключению или понижению в поиске, в своих рекомендациях упоминает «сайты, основным предназначением которых является агрессивная демонстрация рекламных материалов (в том числе popup, popunder, clickunder)». Аналогичного подхода придерживается и Гугл, поэтому мы настоятельно рекомендуем не использовать рекламу, которая вызывает открытие каких-то дополнительных окон.

Кроме того, лучше забыть о показе на своем сайте шокирующей рекламы и рекламы для взрослых. В блоге Яндекса об этом написано следующее: «К такой рекламе относятся, например, тизеры с фотографиями болезней, изображение частей тела людей с сильно избыточным весом, реклама, в которой используются картинки с явно выраженным эротическим содержанием, кадры из фильмов ужасов и тому подобное… В связи с вышесказанным в Поиске будет постепенно внедряться механизм, который отдает предпочтение страницам, не содержащим шокирующей рекламы…»

Вот еще характерное сообщение от Яндекса на тему рекламы: «Наверняка вы хотя бы раз замечали на сайтах всплывающие окна, похожие на уведомления от социальных сетей, предложения по обновлению ПО или сообщения от «антивирусов» о заражении… Теперь Яндекс умеет определять сайты с подобным контентом, и в ближайшее время их позиции в результатах поиска будут понижены».

Хотите узнать еще один простой способ ухудшить ранжирование сайта? Для этого нужно разместить на нем слишком много рекламы. К примеру, Гугл борется с этим с помощью своего алгоритма Page Layout, накладывая так называемый фильтр Top heavy на сайты, верхняя часть которых переполнена рекламой. Вот что об этом сообщает Мэтт Каттс, ведущий инженер Гугл по борьбе с поисковым спамом: «Мы понимаем, что размещение рекламы в верхней части сайта характерно для многих веб-ресурсов, поскольку именно такие объявления заметны пользователю и являются основным источником дохода для издателей. Вот почему фильтр не будет понижать в ранжировании те сайты, которые публикуют рекламу «в разумных пределах». Основной удар придется на сайты, изобилующие рекламой, где пользователь с трудом находит оригинальный контент. Не пройдет и распространенный прием, когда оригинальный контент, размещенный в видимой верхней части сайта, настойчиво направляет пользователя ниже к огромным блокам рекламных объявлений».

Поэтому нужно относиться к рекламе на своем сайте очень осторожно, избегая назойливой, надоедливой, шокирующей рекламы, а также не допуская избытка даже допустимой рекламы на страницах.

Избегая перечисленных выше ошибок и выполняя все рекомендации раздела по поисковой оптимизации, можно добиться потрясающих результатов в продвижении любого сайта. А теперь давайте подытожим и вспомним самые важные моменты, касающиеся внутренней оптимизации итоги

Распространенные ошибки в оптимизации сайта


Начинаю новую серию статей про ошибки в продвижении и первая из них будет про основные ошибки оптимизации сайта.

Наверняка, вы попадете хотя бы под один пункт из данного чек-листа, в виде которого я и хочу сделать сей мануал. Конечно же не обойдется и без объяснений каждой ошибки. Настоятельно рекомендую провести анализ сайта на ошибки по данной статье.

Важно! В данном материале не буду показывать, как устранить данные ошибки. Я лишь перечислю и объясню основные, которые вам уже нужно будет найти на сайте и устранить их. Это будет первый материал по данному вопросу. В следующих мы уже начнем практиковаться.

Технические ошибки

    Доступность сайта. Мало кто уделяет данному моменту должное внимание. Происходит ситуация, когда владелец сайта заходит на него иногда и видит, что ресурс в строю. Но если поставить мониторинг доступности сайта, то можно увидеть, что показатели работы сайта не совпадают с тем, что мы замечаем.Очень часто сайт может быть недоступным по пару минут в день, а в месяц уже накапливается достаточно большое количество времени его неработоспособности, а ведь в данный промежуток времени мог зайти робот поисковых систем и собрать нежелательную статистику. Тогда сайт может понижаться в поисковой выдаче. Также это касается и показа рекламы на сайте. Если из 30ти дней 1-2 дня сайт недоступен, то мы можем терять часть прибыли с него.

В сервиса Яндекс.Вебмастер можно отслеживать статистику запросов робота и наличие ошибок при соединении с сервером сайта.

Доступность сайта также можно отслеживать с помощью сервиса ping-admin, который часто делает запросы к сайту и можно видеть детальную статистику о работе сайта. К тому же, если не изменяет память, в нем можно реализовать оповещение о недоступности сайта на мобильный номер;

  • Дубликаты страниц. Один из важнейших моментов, когда один и тот же контент доступен по разным адресам. Обязательно нужно проверять сайт на ошибки данного характера. Вы можете и не создавать такие страницы сами. Но они могут создаваться автоматически различными лишними ссылками движка, если неправильно настроена оптимизация сайта.На движке WordPress это могут быть ссылки «Ответить» в комментариях. Часто появляются дубли страниц комментариев. Чтобы таких страниц не было, всегда старайтесь избавиться от лишних и ненужных ссылок с сайта, которые могут посодействовать появлению дублей страниц;
  • Ошибки отклика от сервера. Ошибка связана со слабым хостингом или его слабым тарифом, когда сервер не справляется с нагрузкой на сайт и ресурс становится недоступным. По началу, когда сайт только создался, эта проблема не будет заметна, так как нагрузки на него не будет.Но, когда в один момент на сайт будут заходить сразу 100 человек, то сервер просто не выдержит, страницы не будут грузиться и посетители на сайт не зайдут. В данном случае мы обращаемся к хостингу и повышаем тариф. Если ресурс сильно посещаем, то придется переезжать на выделенный сервер;
  • Наличие ошибок 404, 50*.

    На вашем ресурсе не должно быть ошибок, которые отдают ответ сервера 404, когда страницы не существует или же различные ошибки 501, 502 и так далее, когда страницы не грузятся из-за большего времени ожидания или же из-за ее недоступности в данный момент времени.

    Такие документы обязательно анализируем и устраняем проблемы;

  • Циклические ссылки. На сайте не должно быть ссылок страниц, которые ведут на самих себя. То есть, если я сейчас нахожусь на странице «Об авторе», то на данной странице я не должен иметь возможности перейти на эту же страницу. Можете посмотреть в моем главном меню.Тоже самое касается и ссылок в тексте. У многих внутри статьи имеется кликабельный заголовок статьи, являющийся ссылкой на эту же страницу. Также часто внутри статьи используют изображения, которые тоже являются ссылкой на данный материал. Такие ссылки называются циклическими и их не должно быть;
  • Глубина сайта не больше 2х, в редких случаях 3. Старайтесь, чтобы глубина вложенности ресурса была максимум 2го. То есть, главная страница — 0 уровень, рубрика — 1й, статья — 2й.Могут быть еще и подрубрики, тогда глубина сайта будет 3. Это также допустимо, но старайтесь не использовать глубину 3го уровня, так как это затрудняет индексирование таких страниц поисковым роботам;
  • Наличие страниц с низкой скоростью загрузки. Выявляем такие страницы и анализируем на причины низкой скорости. Это могут быть не оптимизированные изображения большого размера, ошибки в коде страницы и так далее.Если не знаете, как ускорить загрузку сайта, то прочтите материал по предыдущей ссылке;
  • 30% контента в соотношении к коду страницы. В большинстве случаев, веб-мастера использую такие навороченные шаблоны, в которых куча ненужного кода или его просто слишком много. таком обилии кода контент просто теряется и это плохо с точки зрения технической оптимизации.Стараемся придерживаться минимум в 30% контента из всех 100% исходного кода страницы. Если добьетесь показателя в 50%-60%, то вообще супер;
  • Наличие непроиндексированных страниц. Обязательно проверяем их на причины отсутствия в индексе, так как на них могут быть технические ошибки. Также это могут быть страницы с низким качеством контента или вообще копипаст, который рано или поздно может выпасть из индекса.
  • к содержанию ↑

    SEO ошибки

    1. 95% страниц, загруженных роботом, должны находится в индексе. Частый случай, когда много страниц были загружены роботом, но в поисковый индекс не попали. Стоит находить такие страницы и анализировать их.Причиной может быть сам контент, наличие ошибок на странице. Такая проблема случается и со старыми страницами сайта, которую уже кучу раз скопировали на другие ресурсы, она потеряла свою уникальность и выпала из индекса. Можно переписать текст. Много вы от этого не потеряете, но зато будет полноценная индексация проекта;
    2. Обязательное должен присутствовать файл robots.txt, в котором прописаны директивы для всех поисковых роботом (яндекс, google, mail, а также рекламные роботы адсена и яндекс директа).

    Если у вас ресурс на движке WordPress, то настоятельно рекомендую проштудировать мой материал про файл robots.txt для WordPress;

  • Обязательно наличие карты сайта Sitemap.xml для поисковых роботов, а также рекомендуемое наличие html карты для людей.HTML карта должна быть открыта для индексации на всех страницах сайта;
  • Отсутствие заголовков и подзаголовков. На каждой странице сайта должен быть заголовок H1 и подзаголовки (хотя бы H2). Если таких заголовков нет, то переделывайте страницы, так как это спорный момент. Что это за страница, если на ней нет заголовков?H1 должен быть в обязательном порядке и содержать в себе название страницы. А H2-H6 используются для структурирования контента;
  • Переспам страницы тегом strong. В своих статьях я уже писал, что данный тег стоит использовать лишь для выделения ключевых мыслей статьи для акцентирования на них внимания посетителей. Можно сделать вывод, что много данного тега на странице быть не должно, а уж тем боле выделений ключевых слов или отдельных фраз.Старайтесь употреблять данный тег 1 раз на 2000 символов и выделять лишь целые предложения с ключевыми мыслями. Никаких выделений «для галочки» и употребления более 10 раз на странице;
  • Отсутствие или повторяющиеся мета-теги (title, description, keywords). Даже, если это служебные страницы или рубрики, вы все равно должны прописать к ним все мета-теги.Также должно отсутствовать дублирование мета-тегов, например один и тот же заголовок для разных страниц. Когда такая проблема будет у вас, то в google веб-мастере вы будете получать уведомления об этом в соответствующем разделе;

    Исключены нужные страницы в файле robots.txt. Если вы закрываете какие-то страницы в данном файле, то обязательно просматривайте через инструменты веб-мастеров, те ли страницы исключены, так как из индекса могут выпасть нужные страницы.

    У меня, например, вот недавно выпала одна статья из индекса, так как в файле роботса было прописано правило, которое содержало слово, содержащееся в URL адресе статьи. Повезло, что я быстро среагировал на данную проблему и изменил свой файл.

    Как видите, максимальная плотностью слова составляет 3.01 процента. Это можно учесть за норму. Если бы было в пределах 3.5, тогда пришлось бы форматировать текст.

    Конечно же это не полный список ошибок, который можно анализировать. Но я перечислил те, которые необходимо проверить в первую очередь.

    В комментариях отпишите, пожалуйста, какие ошибки вашего ресурса вы уже можете назвать без проверки. Такие имеются?

    Статьи про ошибки оптимизации сайта и ошибки в продвижении я буду продолжать писать и на очереди статья про аудит сайта на ошибки, в которой я покажу, как проанализировать все недочеты проекта с помощью онлайн сервиса.

    На этом я прощаюсь и в заключение даю видео по теме.

  • Понравилась статья? Поделиться с друзьями:
    Кодинг, CSS и SQL