Claude Code: я сделал из него SEO-сотрудника, которому можно скинуть рутину
Это не чат-бот. Это рабочее пространство
Claude Code работает иначе, чем привычные AI-инструменты.
Вы создаёте папку проекта прямо на своём компьютере. Закидываете туда выгрузки из аналитики, CSV-файлы, технические задания, заметки. Подключаете API нужных сервисов. Добавляете файл Skills.md — это документ с описанием навыков агента и правил работы именно в этом проекте.
Всё вместе — рабочее пространство, в котором агент ориентируется сам.
Инструкция агенту выглядит примерно так:
- в папке /reports лежат ежемесячные выгрузки из Яндекс.Метрики и Search Console;
- подключены API Яндекс.Вебмастера и Ahrefs;
- в Skills.md описан формат отчёта и правила интерпретации данных.
Дальше агент строит план, разбивает задачу на шаги, сам идёт за данными, анализирует их, перепроверяет себя — и работает до результата. Без вашего участия на каждом шаге.
Разница с обычным чатом принципиальная: там вы каждый раз вручную собираете контекст, копируете данные, объясняете структуру. Здесь — один раз описали, что где лежит, и дальше агент сам разбирается.
Почему я несколько раз садился автоматизировать SEO-отчёты — и каждый раз бросал
Расскажу честно, как это выглядело на практике.
Первая попытка — n8n. Я потратил несколько дней на построение воркфлоу: ветвления под разные типы проектов, условия, обработка ошибок. В итоге получил систему, которая покрывала, может быть, 30% реальных сценариев. Остальные 70% всё равно делались вручную.
Вторая попытка — «универсальный шаблон». Один отчёт для всех клиентов, все под него подстраиваются. Команда посмотрела на шаблон, увидела, что он не отражает их реальные задачи, и просто перестала им пользоваться. Классика.
Проблема в природе SEO-отчётности: сценариев слишком много. Отчёт для интернет-магазина с 50 000 SKU устроен иначе, чем для локального бизнеса. Отчёт после миграции сайта требует других метрик, чем плановый ежемесячный. Отчёт для клиента с упавшим трафиком — это вообще отдельный жанр с гипотезами и срочными выводами.
Детерминированная автоматизация требует, чтобы вы заранее предусмотрели каждый возможный сценарий. SEO так не работает.
Ключевое: недетерминированность
В n8n или Python-скрипте вы описываете: «сначала A, потом проверь B, если B = true — делай C, иначе D». Это детерминированный сценарий. Он работает ровно в тех случаях, которые вы предусмотрели. Всё остальное — ошибка или пустой результат.
Claude Code получает цель и сам строит маршрут к ней.
Задача «подготовь отчёт по трафику за май, выдели аномалии и сформулируй гипотезы» решается агентом через собственный план: он сам решает, какие файлы открыть, какие API вызвать, как интерпретировать данные, что считать аномалией в контексте этого конкретного проекта.
Именно поэтому агентные инструменты сейчас получают такое внимание: они убирают самую трудоёмкую часть автоматизации — проектирование сценариев. Вы описываете рабочую среду один раз, а дальше агент адаптируется под задачу сам.
Как это выглядит в реальной работе с SEO-проектами
Под каждый проект — отдельная папка. Туда идёт всё: выгрузки, исторические данные, ТЗ, шаблоны документов, описание проекта. Подключаются API аналитических сервисов.
Skills.md — это, по сути, онбординг-документ для агента. Там описываете: какие метрики важны для этого проекта, в каком формате нужен результат, какие правила интерпретации данных использовать, что считать нормой, а что — аномалией.
Дальше работа строится так: выгрузили данные за месяц → поставили агенту задачу → получили готовый отчёт с аномалиями и гипотезами.
Когда что-то меняется в проекте — обновляете файлы в рабочем пространстве, добавляете новые правила в Skills.md. В следующий раз не объясняете контекст заново: всё актуальное уже лежит в папке.
Это принципиально меняет логику работы с AI-инструментами. Вместо «каждый раз собираю контекст с нуля» — «рабочее пространство накапливает знания о проекте».
Что уже строят на Claude Code — два репозитория, которые стоит изучить
agency-agents — набор специализированных агентов для полноценного AI-агентства. Агенты под маркетинг, дизайн, копирайтинг, аналитику. Каждый агент — отдельная роль с прописанными навыками и процессами. Интересно, что авторы воспроизводят структуру агентства через набор агентных ролей — та же логика, что и в реальном найме специалистов, только без зарплатной ведомости.
seomachine — рабочее пространство специально под генерацию SEO-контента. Готовая система файлов: структура папок, шаблоны, правила работы агента с контентом. Можно взять за основу и адаптировать под свои процессы — не строить с нуля.
Оба открытые. Хорошая точка входа, чтобы посмотреть, как устроены реальные рабочие пространства для агентов, прежде чем строить своё.
Практический момент, который меня самого поначалу бесил
Когда будете выбирать подписку — не скупитесь на тариф с нормальным суточным лимитом.
На минимальных лимит заканчивается очень быстро, особенно когда агент работает с большими файлами и делает несколько итераций анализа. Только входишь в поток, видишь, как оно всё работает — и всё, лимит кончился, жди до завтра. Это не тот опыт, который даёт честное представление об инструменте.
Сейчас я допиливаю несколько связок на базе Claude Code под реальные SEO-процессы — от автоматизации ежемесячных отчётов до сборки контентных планов. Дневник разработки, рабочие промпты и архитектуру агентов публикую в канале @seokotenkov. Если тема агентов в SEO вам интересна — залетайте, буду рад обсудить.