редакции Выбор
Рушим скрепы: почему E-E-A-T плохо работают при продвижении медицинского сайта
Слышали про понятие комплексная терапия? Это когда лекарства работают только совместно. Можно выпить сколько угодно кальция, но он не усвоится без витамина D. Так же и с E-E-A-T — пока на сайте есть типовые технические ошибки, он будет плохо ранжироваться, даже если загрузить 20 сертификатов.
Прокачали E-E-A-T, но не получили «вау-эффекта»? Рассказываем почему
E-A-T расшифровывается как экспертность (Expertise), авторитетность (Authoritativeness) и достоверность (Trust). Это факторы, по которым Google оценивает ресурсы тематики Your Money — Your Life. То есть все, которые касаются жизни, здоровья и благополучия человека: сайты о медицине, деньгах, законах, e-commerce.
Впервые аббревиатуру использовали в 2014 году в инструкции Google по проверке сайтов. В ней подробно расписаны факторы, которые влияют на ранжирование.
В 2022 году к аббревиатуре добавили еще одну букву E — опыт (Experience).
Когда Google опубликовал эти критерии, вокруг них появился культ. Произошло это потому, что правила оптимизации ресурсов всегда были размытые: без четких критериев и чек-листов. И вдруг появились E-E-A-T, про которые в руководстве Google написан целый раздел.
Такой сгусток информации не мог остаться без внимания. И все побежали писать статьи про E-E-A-T и строить на них стратегию продвижения. Но это не дает эффекта — и сейчас объясню почему.
Работа факторов по большей части построена на оценке асессоров. В теории должно быть так: асессор Google заходит на сайт медицинской клиники и чекает, соответствует ли он критериям E-E-A-T:
- есть ли сертификаты и лицензии;
- подтверждены ли опыт и квалификация врачей;
- есть ли отзывы пациентов;
- не противоречит ли контент общепринятому мнению;
- ссылаются ли на него другие площадки.
Сайты, где соблюдаются все пункты, получают более высокую оценку и продвигаются в поиске. Логично? Логично. Но!
Асессоров в рунете и раньше было мало. Кто и как теперь проверяет сайты, после расторжения договора сотрудничества с резидентами из России, одному Брину известно.
При этом я не призываю полностью игнорировать E-E-A-T. Частично они вшиты в алгоритм. Но это даёт лишь общее понимание, что поисковый робот будет искать конкретные пунктики на страницах той же медицинской тематики, и огорчится, если не найдет.
К E-E-A-T надо относиться, как одной из десятков рекомендаций поисковых систем. Вот что в руководстве Google сказано о качестве сайта:
- делайте экспертный контент;
- работайте над репутацией ресурса;
- стройте качественный ссылочный профиль.
А вот несколько характеристик некачественной страницы:
- шокирующий заголовок;
- навязчивая реклама;
- отрицательная репутация;
- недостоверная информация.
Теперь, внимание, вопрос. Чем это отличается от стандартных рекомендаций любого поисковика по работе над качеством ресурса? Правильно, ничем.
Получается, E-E-A-T — это общие правила, но далеко не залог успеха.
А теперь покажу на примерах, что надо оптимизировать на сайтах, прежде чем приниматься за E-E-A-T.
Бот видит одно, пользователи — другое. Разбираем проблему
Мы всегда начинаем проекты с технических настроек. Чтобы сайт продвинулся в поиске, его должны хорошо видеть роботы. Это база, без которой все остальные улучшения бессмысленны.
Как это работает, покажем на примере нашего клиента — аптечной сети известного бренда. Когда компания пришла к нам на продвижение, у нее уже был хороший трафик — больше 2 тысяч посещений в день. Но хотелось еще круче.
Мы увидели, что большинство пользователей приходили по брендовым запросам. Если в поиске забивали название сети или просто искали аптеку, сайт выходил одним из первых. А если гуглили капли для глаз — в выдачу не попадал. Здесь и терялись потенциальные лиды.
При этом контент сайта уже был оптимизирован: размещены и экспертные статьи от врачей, и сертификаты. Но в Google — ничего, кроме брендовых запросов.
Сняли позиции и заметили, что по большинству запросов поисковые системы определяют как релевантную только главную страницу. В отчетах поисковиков увидели массу непроиндексированных страниц.
Большинство страниц были помечены как «неудобные для мобильных» и открывались как HTML-шаблон. То есть вот как сайт выглядел на самом деле.
А вот как его видел робот.
Бот считывал только болванку с хедером и футером, которая на 99% похожа на любую другую страницу. А раз так — страница отправлялась в топку.
Это головная боль всех сайтов с JavaScript. Роботы плохо умеют их сканировать и постоянно помечают устаревшими или не адаптированными для мобильных. Поисковики заверяют, что с 2015 года поддерживают индексацию SPA сайтов и страниц с частичным использованием JavaScript. Но в реальности таким сайтам просто не достается трафик. Эту проблему мы подробно разбирали в нашем блоге.
«Лечится» это настройкой SSR. Сняли обязанности рендера с ботов и отдали эту работу серверу. Это сильно снизило вероятность ошибки во время рендеринга, так как все элементы JavaScript стали загружаться в исходном HTML. Поисковый робот смог увидеть страницу целиком и ранжировать ее.
Сразу после настройки число проиндексированных страниц выросло в 4 раза.
Сайт стал показываться не только по брендовым запросам.
С отрисовкой страниц разобрались. Теперь нужно сделать так, чтобы они попали в индекс.
Поисковик не подозревает о существовании страниц. Выводим их из тени
Как люди ищут лекарства? Чаще всего целенаправленно. В поисковике забивают конкретное название, дозировку и форму выпуска. Поэтому для аптеки важно, чтобы в индексе был полный список товаров.
Такую проблему мы решили для еще одной аптеки. Компания обратилась к нам из-за низкого трафика. Причину мы диагностировали сразу — примерно 7000 товаров были не в индексе. Поисковая система просто не знала об их существовании.
Надо было сделать так, чтобы робот зашел и проиндексировал эти страницы.
А как он вообще понимает, где искать? Например, так: попадает на одну из страниц сайта и считывает все ссылки, которые там находятся. Бот добавляет их в очередь на сканирование и потом обрабатывает. Чем больше ссылок, тем заметнее страницы для поисковиков.
У нашего клиента в карточках уже были блоки «С этим товаром покупают» и «Вы смотрели» со ссылками на другие товары. Почему же этого не хватило? Причин две:
- блоки выводились динамически, то есть при помощи JavaScript;
- данные формировались на основе товаров, которые пользователь смотрел раньше. Но бот заходит с чистыми cookie, а значит в этот блок товары для него не подтягиваются.
Мы поменяли способ вывода данных и улучшили перелинковку. Добавили в карточки ссылки на такой же товар в другой форме, с другим объемом и вкусом. И прикрутили блок аналогов.
Блок «С этим товаром покупают» добавили в исходный HTML.
В результате через неделю количество ежедневно сканируемых страниц выросло в 2,5 раза.
А вместе с новыми проиндексированными страницами увеличился и трафик.
Результат неплохой, но важно не просто поднять трафик, но и удерживать его долгое время. Для этого надо следить, насколько стабильно работает сайт и какие ответы дает индексирующим ботам.
Сайт теряет позиции в выдаче. Решаем задачку со звездочкой
Продолжим на примере той же аптеки. Через некоторое время после настройки перелинковки мы заметили, что выросло число прямых заходов с высоким показателем отказов.
Видимых причин для этого не было. Сайт быстро грузился, корректно отображался на мобильных и не выдавал ошибки. Чтобы исключить поведенческую накрутку, поставили облачную защиту.
Но через три недели после установки сайт стал терять позиции. Сначала опустился в пределах топ-3 по высокочастотным запросам, через 7 дней — в топ-5, а еще через неделю совсем выпал с первой страницы. И так в обеих поисковых системах.
Никаких сигналов о проблемах от поисковиков не было. При проверке страниц роботы получали к ним доступ и отображали нормально. Статистика обходов в GSC и вебмастере тоже не изменилась. То есть внешне все было нормально.
Обратились в техподдержку «Яндекса», но тоже мимо. Нам ответили, что сайт работает нормально и ранжируется на свою релевантность.
Поняли, что перед нами задачка со звездочкой ;)
Помог анализ серверных логов. По ним увидели, что в какой-то момент боты перестали получать контент страниц при GET запросе, хотя сервер отвечал, что запрос выполнен успешно.
Покопались и выяснили, что проблема в редиректах. Они не отображались ни в одной статистике. Несмотря на white list для поисковых систем, при попытке посещения сайта через http ботов редиректило на хост проверки. Поисковику это не нравилось.
Решается проблема просто — надо скорректировать обработку обращений ботов. Как только сделали это, сайт восстановил позиции в поисковиках.
Только когда все это сделано, можно переходить к E-E-A-T. Напоследок еще один кейс, в котором мы прокачивали экспертность.
Трафик не приносит продажи. Превращаем посетителей сайта в лидов
Пройдем по пути пациента. Куда обратится человек, которому нужен врач? Правильно, к знакомым. Если посоветуют проверенного, пойдет к нему. Ценник не играет роли, главное — хороший специалист.
Если не найдет через знакомых, отправится в интернет. Будет читать статьи, изучать форумы, смотреть ролики на YouTube и в Дзене. Здесь и происходит лидген в клинику.
Поэтому важно обеспечить максимальное присутствие врачей под брендом медицинского центра на всех площадках. Информационные статьи, ролики, комментарии по ТВ, личные блоги врачей, офлайн реклама. Ничего не напоминает? Правильно — критерий экспертности в E-E-A-T.
Присутствие клиники в информационном поле формирует кредит доверия у потенциального пациента. Такие лиды уже максимально разогреты и несут деньги сами, им не нужно ничего продавать.
И здесь всплывает главный затык — на экспертный контент нужно много времени и ресурсов. Мало написать статьи, их надо грамотно оформить и разместить, чтобы превратить читателей в лидов.
Такой кейс мы решили для стоматологии. 66% трафика приходилось на информационные статьи типа «Какие протезы ставить». Люди получали полезную информацию, но не переходили на страницы услуг.
Что же было не так? Все просто — в тексте не было ни одной ссылки на услуги. Пользователи не знали, где искать «помощь», и возвращались в поисковик. Там они делали новый запрос, уже по конкретной услуге, и скорее всего попадали на сайты других клиник.
Получается, наш клиент прогревал потенциальных лидов и отпускал к конкурентам. Обидно? Обидно. Но мы знали, что делать.
Сначала дополнили список статей. По каждой теме создали семантические коконы, чтобы охватить все возможные запросы по конкретной теме.
После разместили в статьях конверсионные блоки — таблицы с ценами, ссылки на запись и скидки за подписку на рассылку, анкорные ссылки на услуги.
В результате увеличилось количество лидов, которые приходят с информационных статей.
Важный момент — чтобы поисковик лучше ранжировал сайт, ссылки в текст нужно вставлять грамотно. Вот несколько правил хорошего анкора:
- содержит ключевые слова;
- естественно вписан в предложение;
- из текста понятно, куда ведет ссылка.
А если хотите, чтобы мы помогли вывести ваш сайт в топ и превратить трафик в лидов, то вот вам правильная анкорная ссылка на наш Телеграм. Пишите, обсудим ваш проект и найдем точки роста.