Кейс: посещаемость с 31к до 149к за 4 месяца
Вот так взлетела посещалка после небольшого количества изменений на сайте.
Теперь о пациенте. Новостной сайт местной теле-радио компании http://trk-bratsk.tv
Первым делом конечно же я начал убеждать всех что надо делать новый сайт, поскольку текущий чертовски нагружает сервер. Нагрузку создает плагин, на котором строится вывод новостей и ещё кучи CPT. Все завязано в большой клубок поверх другого плагина (Elementor). Поскольку предприятие является муниципальным, то сделать что-либо в это организации практически невозможно. Через несколько месяцев я понял с глубочайшим сожалением, что мне придется колупать старый сайт.
В моем распоряжении, по большому счету, только robots.txt и возмоджность установить какой-нибудь плагин. Собственно и все. Повлиять на что-то ещё невозможно, сборище теток предпенсионного возраста — это то ещё болото. Они публикуют новость в один абзац, а через пару-тройку часов публикуют по сути ту же новость, только с видосом. Спрашиваю их зачем они это делают, получаю ответ мол это увеличивает охват. С какого хрена они это взяли никто внятно ответить не смог. Просто так решили.
Я уж молчу про то, что для выпуска новостей каждый раз загружается одна и та же картинка. Там уже сотни копий с одинаковым изображением.
В общем экземпляр мне достался ещё тот. Сначала мне хотелось плакать. Я не мог пережить этого попрания здравого смысла и такого пренебрежения ресурсами.
Окончательно утратив надежды на запуск нового сайта, я решительно приступил к попытке оптимизации текущего сайта. Открыв robots.txt я упал в осадок. Там было всего две директивы, одна из которых была такой Disallow: /wp-admin. Снова посмотрите на картинку выше. Мне реально очень хочется спросить идиотов, которые закрывают админку от поисковиков, зачем? Зачем вы это, мативо, делаете? Возьмите ссылку на админку вордпреса и вбейте сюда. Вы увидите там «Код статуса HTTP 302 Found», есть редирект.
Только не подумайте что эта директива какая-то ошибка, нет. Её можно оставить, но robots.txt только с этой директивой равносильно отсутствию robots.txt вообще. Эта дирктива по сути бесполезна, а если других нет, считайте что нет никаких директив. Я уже писал довольно большой материал про robots.txt для wordpress, по этому не буду вдаваться в подробности. На момент начала работ Яндекс нашел на этом сайте свыше 20 тысяч страниц. Страницы влетали в индекс и вылетали из него пачками. Посмотрев отчет «Исключенные страницы» в ЯндексВебмастере, я прикинул какие страницы можно смело закрывать.
В конечном счете от поисковиков было закрыто свыше 16 тысяч страниц, которые сложно назвать полезными, скорее это просто мусор или как их сейчас можно называть, зомби-страницы. Вскоре начал подрастать ИКС, который к моменту начало работ упал до 590. Сейчас он уже 650. Да, хреновенький ИКС, согласен, но и сайт, простите, днище ещё то.
Следующим шагом было подключение AMP и Турбо-страниц. Тут нечего особо описывать, поставил два плагина, внес некоторые настройки и все готово. Затем заголовок главной страницы «Главная» поменял на «Главные новости Братска».
В отчете «Внешние ссылки» посмотрел ссылки, которые ссылаются на несуществующие. Среди таких ссылок были те, которые шли с весьма жирных ресурсов. Среди них sports.ru, newsru.com и т.д. Были найдены похожие страницы и настроен 301 редирект.
Дальше пошла уже самая жопа. Поиск дублей, тех дублей, которые плодились в погоне за мнимым охватом. Пришлось долго и упорно поработать ручками. А как вы хотели? Работа SEO-шника далеко не всегда заключается в нажимании волшебных кнопок. Иногда и в дерьме надо покопаться. А дерьма этого там навалом.
Но результат реально стоит того. Если перефразировать фразу из мультфильма, чистота сайта — залог его авторитета. Порядок превыше всего.