Технический аудит начинает и выигрывает
Популярные технические ошибки, влияющие на ранжирование сайта - как их обнаружить и как от них избавиться
На старте работ Иващенко и Низамов всегда проводит полный технический аудит, чтобы сразу выявить слабые стороны, влияющие на продвижение сайта. Делается это абсолютно бесплатно еще до того, как мы формируем предложение по сотрудничеству.
Некорректно настроенные редиректы и основные зеркала
Дубли главной страницы с index.php, main.html и другими хвостами, с www и без, с протоколом http после перехода на https приводят к тому, что ко всем страницам сайта есть доступ по двум и более URL. Какую страницу выберет поисковик — неизвестно. Зато известно, что сайт может получить пессимизацию за большое количество дублей. Поэтому обязательно следует проверить, что настроены все необходимые редиректы, а в инструментах вебмастера поисковых систем указано верное основное зеркало.
!NB Зеркало — точная копия сайта с другим URL. Используется, например, чтобы сайт продолжал функционировать, когда основной домен заблокирован или неактуален.
К сожалению, главной страницей дело не ограничивается — сайт может дублироваться по внутренним страницам. Например, со слэшем на конце URL и без него. Администратор сайта может проявить творческий подход при создании страниц, порадовав вас URL с заглавными буквами и различным написанием символов. Один только пробел может обозначаться как %20, + и , а это уже два дубля.
Технические поддомены в индексе
Сначала разберемся, что такое поддомен. Для примера возьмем URL www.trololo.ru. Доменом верхнего уровня здесь будет являться .ru, его поддоменом первого уровня — trololo.ru, а сам www.trololo.ru — поддоменом второго уровня. Если вам принадлежит домен первого уровня, вы обладаете правами на все его поддомены всех уровней вплоть до максимально разрешенного 127-го.
Чаще всего используются поддомены первого и второго уровня, например trololo.ru или www.trololo.ru, но при разработке могут быть использованы другие уровни и формулировки — shop.trololo.ru, v1.www.trololo.ru и т. д. С точки зрения поисковой системы поддомены — отдельные сайты, для каждого из которых существует отдельный файл robots.txt.
!NB Если у вас есть собственный сайт, перейдите по адресу адрес_вашего_сайта/robots.txt. Вы увидите текущие рекомендации для обхода вашего сайта роботами поисковых систем. Главное, чтобы там не было написано Disallow: / — эта директива запрещает индексацию сайта полностью.
Поскольку поддомены — отдельные сайты, их страницы попадают в выдачу наравне со страницами основного домена. И тут может возникнуть проблема — идентичное содержание. Если вы готовили сайт на тестовом поддомене, потом перенесли его на основной, а тестовый так и оставили, в индекс попадут страницы поддомена, которые будут спорить со страницами основного сайта в выдаче и мешать продвижению.
Поддомены, не дублирующие содержание основного сайта, продвижению не помешают, но если вы не хотите засветить их в выдаче, лучше тоже закрыть. Как? Настроить директиву в файле robots.txt для всех лишних поддоменов. Файл вы найдете в корневой папке поддомена. Если файла нет, создайте его при помощи блокнота, просто написав:
User-agent:
*Disallow: /
Неконсолидированные страницы с пагинацией и фасетной навигацией
Консолидация — процесс объединения страниц с аналогичным содержанием. Например, страницы выдачи по фильтру (фасетная навигация) или листы списка (пагинация). В некоторых случаях консолидация вообще не нужна, например, если на страницах размещен уникальный контент, настроены уникальные заголовки и мета-теги. Но в большинстве случаев и заголовки, и описания в теге Description идентичны, а страницы различаются минимально — цифрами в артикулах или ценами. Существует несколько способов консолидировать такие страницы.
Первый, самый простой — закрыть их от индексации в файле robots.txt. Для этого найдите повторяющийся элемент в URL страниц. Например, для пагинации с URL вида www.trololo.ru/catalog/?page=2 повторяющимся элементом будет /?page=. Теперь прописываем директиву, запрещающую индексацию всех страниц, в которых содержится /?page=.
Disallow: */?page=
После такой настройки страницы с пагинацией больше не будут отображаться в выдаче.
Другой способ, позволяющий не просто закрыть мусорные страницы от индексации, но и дополнительно усилить основную, является настройка канонической страницы. Для этого можно прописать в коде всех страниц с пагинацией или фасетной навигацией следующее:
!NB При настройке канонической страницы обязательно нужно использовать абсолютную ссылку, начиная с протокола, и содержащую домен. Пример абсолютной ссылки: http://www.trololo.ru/catalog/tovar_1 Пример относительной ссылки: /catalog/tovar_1
Кроме того, консолидация может помочь в борьбе с неприятными особенностями CMS. Некоторые конструкторы при добавлении одного товара в разные категории создают два URL с разными путями к странице товара. Для решения проблемы достаточно выбрать одну страницу и указать ее для второй в качестве канонического URL.
Некорректная верстка сайта
Проблемы могут быть не только связаны с контентом, но и буквально зашиты в сайт. Называть их ошибками нельзя — это скорее нюансы стандартов разработки.
Кроссбраузерность
К счастью, большинство веб-студий сейчас работает по стандартам кроссбраузерности. Но, если сайт сделан в нулевых, вполне может оказаться, что он корректно отображается далеко не во всех браузерах. По нашему опыту чаще всего проблемы возникают в Safari.
Обращайте внимание на версию HTML, CSS, PHP и JavaScript, которые используется при верстке. Слишком старые версии не дадут современного функционала, а самые новые могут еще не поддерживаться браузерами. Выбирайте актуальный, общепринятый вариант.
Адаптивность
Значительная доля трафика всего интернета проходит через мобильные устройства. А это значит: маленький экран и медленный интернет. Когда мобильные устройства только входили в права поставщиков трафика, популярностью пользовалась мобильная версия — копия сайта с версткой, заточенной под маленькие экраны. При грамотной настройке мобильная версия может хорошо работать и сейчас, однако существует множество подводных камней — ошибки в настройке переадресации, сложности в обновлении контента, проблемы с индексацией и так далее.
Мы рекомендуем настраивать адаптивный шаблон. Тогда сайт сам определит размеры экрана, на который его выводят, и скорректирует верстку.
Google постепенно переходит на mobile-first индексацию. Это значит, что проверка релевантности и качества страниц будет производиться в первую очередь не по декстопной, а по мобильной версии. При этом сайты, не адаптированные под смартфоны и планшеты, будут понижаться в выдаче.
Проверить, корректно ли ваш сайт выводится на мобильных устройствах, можно при помощи специального сервиса от Google.
Оптимизированность и скорость загрузки сайта
Наверняка каждый хоть раз пытался открыть сайт с телефона, но, не дождавшись загрузки через медленный мобильный интернет, с раздражением сбрасывал или возвращался в выдачу. Для Яндекса эти действия — явный признак неудовлетворенности страницей. А значит, ее нужно опустить. Иногда аналогичная ситуация происходит и на десктопе — с чрезмерно нагруженными графикой сайтами.
Google учитывает скорость загрузки документов еще на этапе индексации, понижая позиции сайтов, находящихся в красной зоне по PageSpeed Insights(сервис от Google). Сервис оценивает сайт по двум взаимосвязанным критериям — скорости загрузки и степени оптимизированности. Чем выше степень оптимизированности, тем быстрее будет грузиться сайт с тем же содержимым. Но хорошо оптимизированный сайт, наполненный графическим контентом, будет грузиться медленнее, чем плохо оптимизированный одностраничник без изображений.
Красная зона (ниже 60 из 100) — всегда повод для пессимизации, но если раньше все сайты одинаково понижались в выдаче, то с лета 2018 любое небольшое улучшение даже в рамках красной зоны будет учтено при ранжировании. Не можете вывести сайт в зеленую зону? Сделайте хотя бы то, что можете, и Google это оценит.
Некорректно настроенные шаблоны для заполнения заголовков и мета-тегов
Большинство современных CMS (систем управления сайтом) позволяет настраивать шаблоны для заполнения H1, Title, Description и Keywords страниц. Эта возможность особенно актуальна для интернет-магазинов с тысячами товаров. Но, как и в любом деле, для правильной настройки требуются некоторые знания. Поделимся информацией, а вы проверьте своих мастеров.
H1, Title, Description и Keywords нужны роботам поисковых систем, чтобы правильно индексировать страницу: понять, о чем на ней идет речь, насколько она полезна для пользователя, чем отличается от других страниц на сайте. Если мы хотим (а мы хотим) дать роботу максимум информации и представить страницу в выгодном свете, лучше использовать во всех типах данных разное содержимое, уникальное для всего сайта.
Часто H1 по умолчанию дублируется в Title. Это не запрещено, однако лишает вас возможности дать роботу больше информации о странице. Например, добавить разные высокочастотные ключи. ;)
Если несколько страниц имеют одинаковые Title и Description, робот может посчитать их дублями и оставить в индексе только одну. А остальные выпадут из выдачи по запросам, по которым могли бы занимать хорошие позиции.
Кроме того, содержимое Title и Description влияет на количество переходов на сайт из выдачи, поскольку отображается в сниппете. Привлекательный сниппет повышает вероятность того, что пользователь перейдет именно на ваш сайт и после плавного спуска по воронке продаж совершит покупку.
!NB Сниппет — это блок информации о найденном документе, который отображается в результатах поиска. Он состоит из заголовка и описания документа.
Для повышения кликабельности сниппета можно настроить вывод дополнительной информации — быстрых ссылок, контактов, цен и т. д.
Всё это и многое другое мы каждый месяц проверяем для сайтов наших клиентов. Почему каждый месяц? Потому что в любой момент некорректное действие техподдержки или администратора сайта может нарушить настройку.
***
Знакомство мы всегда начинаем c SEO аудита сайта, для читателей Spark - это абсолютно бесплатно. Воспользуйтесь промокодом spark1809.
***