Главное Авторские колонки Вакансии Образование
arrow-right Created with Sketch. Мария 64326 1 581 2 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Гайд: Фильтры Google и Яндекс — что, почем и почему

Фильтры разные важны, фильтры разные нужны. Если положить руку на сердце — на самом деле большинство из них действительно полезное явление, отсекающее совсем уж никакущие сайты. В этой статье мы обсуждаем самые важные (а также малоизвестные) фильтры популярных поисковиков, не забывая обмениваться опытом и важными находками.
Мнение автора может не совпадать с мнением редакции

Часть первая: Google.

#Что такое Фильтры:

Знает каждый веб-мастер. Но мы повторим.

Фильтры — это алгоритмы поисковых систем, которые позволяют исключить из поисковой выдачи некачественные сайты или те, чей уровень ранжирования был поднят искусственными методами.

Здесь важно понимать следующее:

  • это не Гугл или Яндекс плохие.

В большинстве случаев — это просто качественное исполнение своих обязанностей, а для Поисковиков исполнение обязанностей как раз и заключается в том, чтобы предоставить пользователю всю необходимую ему информацию.

  • представители Гугл любят общаться с веб-мастерами, что в Твиттере, что на конференциях.

Даже если в описании их деятельности четко видно слово SEO. А это значит, что не белое конкурентное продвижение не любит Гугл. А черное и искусственное.

  • Точное действие работы алгоритмов поисковиков знают только представители поисковиков.

Но они нам не расскажут. Так что приходится добывать крупицы информации с миру по нитке.

Sandbox (Песочница)

Действие:

Спорный фильтр, разделивший веб-мастеров на два лагеря: одни верят в его существование и исправное функционирование, вторые же — упорно отрицают. Если Песочница существует, то этот фильтр, несомненно, охотится на недавно созданные сайты, не пуская их дальше второй страницы поисковой выдачи.

Цель — проверить новоявленные сайты на серьезность намерений.

В целом, Песочницу можно рассматривать как ответ Черному SEO.

Противодействие:

  • Развитие сайта: перелинковка, наполнение страниц полезным+уникальным контентом.
  • Внимательная закупка ссылок (жизненно важно не переборщить).
  • Наращивание упоминаний о вашем сайте от авторитетных источников.
  • Сарафанное радио — стремитесь, чтобы вашим контентом делились в социальных сетях (и, конечно же, предоставьте пользователям сайта такую возможность).

Bombing (Бомбежка)

Действие:

От этого фильтра страдают сайты, чьи веб-мастера злоупотребляют внешними ссылками с одинаковыми анкорами. По сути, с таким же успехом сайтом можно не заниматься вовсе — такие ссылки в глазах Гугл полностью теряют свою значимость.

Противодействие:

  • Частичное удаление одинаковых ссылок.
  • Закупка ссылок на трастовых ресурсах.

Broken Links (Битые ссылки)

Действие:

От этого фильтра страдают сайты, на которых можно обнаружить множество ссылок с 404й ошибкой, т.е. битых. Как результат — стремительное падение позиций в поисковой выдаче.

Противодействие:

  • Поиск и удаление битых ссылок (например, при помощи Яндекс.Вебмастер).

Too Much Links (Слишком много ссылок)

Действие:

Если вы закупили слишком много ссылок в один период времени — они теряют всю свою силу. Как результат — остановка роста позиций в лучшем случае, стремительное падение — в худшем.

Противодействие:

  • Если вы еще не успели ничего испортить — совет прост: не пользуйтесь методами черного продвижения, закупайте ссылки постепенно. Многие веб-мастера советуют начинать продвижение с момента того, как сайту исполнилось не меньше, чем полгода. А до этого времени все свое внимание бросить на функционал и создание уникального контента.

Page Load Time (Длительное время загрузки)

Действие:

Фильтр накладывается в том случае, если страницы сайта загружаются слишком долго.

Чаще всего это происходит из-за большого количество плагинов (возможно, конфликтующих между собой), большого количества скриптов, слишком тяжелых изображений или медленного хостинга.

Противодействие:

  • Убедитесь, что страницы вашего сайта не переполнены плагинами. Их оптимальное количество — 5-7. Проверьте, не конфликтуют ли они между собой.
  • Проверьте качество и количество скриптов.
  • Проверьте скорость хостинга. Например, при помощи Хост Трекера.
  • Сжимайте изображения. Благо, существует масса хороших сервисов. Например, Риот.

Penguin (Пингвин) & Over Optimization

Действие:

Пингвин, пожалуй, самый знаменитый фильтр Гугл, от которого в свое время пострадало рекордное количество сайтов. Проще говоря — с хорошими позициями в поисковой выдаче они попрощались надолго.

Изначально Пингвин был задуман как фильтр, наказывающий за переоптимизированный текст.

Но в последующих обновлениях Пингвин вышел на тропу войны как с черным SEO (клоакинг, дубли страниц, скрытые ссылки и т.д), так и резкий прирост ссылочной массы.

Что касается Over Optimization — здесь, как понятно из названия, караются переоптимизированные страницы.

Противодействие:

  • Первое, и самое главное правило: тщательное внимание к качеству контента. БОЛЬШЕ НЕ ЗНАЧИТ ЛУЧШЕ! Тексты должны быть естественными (т.е. не перегружены ключевыми словами), информативными, а в идеале — грамматически правильными.
  • Использовать разбавленные анкоры, т.е. без прямого вхождения.
  • Не использовать методы черного продвижения.
  • Не использовать автоматическое продвижение.
  • Рекомендованная плотность ключевых слов на текст — 5-7%. Больше 10% — уже рискованно.

Panda (Панда)

Действие:

Этот фильтр тоже наказывает за некачественный контент, но в большей степени обращает внимание на рекламу не к месту.

А также: дублирование страниц, ворованный контент (ворованным считается неуникальный контент, размещенный на других ресурсах. Уникальность текста должна составлять не ниже 80%), некачественные ссылки (нетематические).

История гласит, что после его выхода пострадало примерно 12% всех сайтов поисковой выдачи. Поэтому шутки плохи.

Противодействие:

  • Само собой, оценка качества размещенного контента. Если его уникальность составляет менее 80% — срочная замена.
  • Удаление нетематической рекламы.

Page Layout

Этот алгоритм оценивает эффективность информации, которая размещена на главной странице вашего сайта.

А также количество рекламы, размещенной там же.

Алгоритм распознает структуру документа (страницы), и если верхняя часть сайта (без прокрутки) переполнена рекламой — сайт попадает под фильтр. Алгоритм появился еще в январе 2012-го года, и с тех пор регулярно обновляется.

ВАЖНО! В середине марта Гэри Илш подтвердил актуальность алгоритма. Вот его утвердительный ответ.

Хотите знать больше?

Как видите, основными камнями преткновения можно считать две проблемы: некачественный контент и неправильную ссылочную стратегию.

Про решение большинства этих проблем мы уже писали.

Например:

И, по старинке, немного органической рекламы:

Если вы хотите быть в курсе последних новостей, подписывайтесь на нас на Спарке, ВКонтакте, а также на Фейсбуке, а также на канал в Telegram (персонально я буду очень счастлива)

+6
В избр. Сохранено
Авторизуйтесь
Вход с паролем