Как я сделал новостной сайт за один день с помощью ChatGPT
Давно хотел сделать свой новостной портал. Но то времени не хватало, то деньги уходили на другое, и идея постоянно откладывалась. Хотя в голове сидела упорно.
В какой-то момент решил: хватит тормозить. Купил домен за тысячу. Заодно оформил подписку на Тильду — вышло шесть тысяч на год. Вот это и стало стартовой точкой.
Пошёл по простому пути: использовал стандартные шаблоны. Главное было для меня — быстро выкатить рабочую версию (MVP), а не сидеть неделями за дизайном. За пару дней сайт собрал, заодно добавил первые новости, чтобы не пустовал.
После недели теста понял: что-то не то. Сайт живой, новости добавляются, но главная не смотрится. Решил менять подход.
Сам я кодить не умею. Тем не менее нужно было что-то делать. Покупать на маркетплейсе — не вариант, потому что я не хотел вкладывать больше денег. Потом вспомнил про ChatGPT — мол, помогает с версткой. Решил проверить.
И тут как говориться «началось...». Вышло, мягко говоря, не очень. Для тех, кто верит, что нейросети вот-вот заменят программистов — прямо мед в уши. Но это не так. Потому что я думал сейчас напишу пару запросов и чат выдаст мне готовый сайт.
На деле получилось так: то теги кривые, то блоки едут, либо картинки не подтягиваются. Вроде всё просто, а работает через раз.
Первый вариант страницы выглядел так (спойлер — отвратительно):
Начал править. Исправил заголовок — сломался блок. Подогнал картинки — уползла верстка. И так я просидел еще час, потому что каждый запрос занимал 5-10 минут.
Наконец-то чат дал что-то вразумительное, но все еще не то, что мне хотелось бы видеть.
Потом понял, где затык. Все новости у меня были сделаны через «потоки» в Тильде. С одной стороны, это удобно: можно публиковать тысячи материалов, а считается как одна страница. Потому что в Тильде даже на платном тарифе ты ограничен в количестве создаваемых страничек — 1000 это очень мало для новостника. Поэтому нужно было что-то придумать. И я придумал:
Решил подключить RSS прямо в код. Казалось, вот оно — новости сами тянутся, сайт обновляется. Но именно тут началась катавасия. Подключил ещё два потока, собрал, но выглядело это всё равно жалко, но уже лучше:
Впрочем, мне все еще не нравился дизайн. Тогда попросил у чата накидать макеты. Выбрал один, сделал страницу — вроде ничего:
Дальше пошли бесконечные правки: то убрать ссылки, то поправить картинку, то переписать код. Каждое исправление ломало что-то ещё. По кругу, раз за разом. Настоящий «день сурка».
На это угрохал часа три. В итоге половина страницы снова легла:
Тогда посмотрел на другие сайты. МК — простая структура, всё сразу видно. Forbes — стиль, акценты. Хотелось взять лучшее, но вышла гремучая смесь. Даже показывать не хочу.
Потом понял: копирование — тупиковая идея. Вернулся к чату и попросил варианты макетов «с нуля». Из предложенного выбрал один, и с ним уже стало проще.
Но появилась новая проблема — не грузятся картинки. Чат выдал три причины:
— относительные URL;
— блокировка http-ресурсов на https-странице;
— защита от хотлинка.
Решение предложил такое:
нормализовать URL → пробовать https → через прокси images.weserv.nl → fallback. Плюс расширенный парсер RSS.
Я вставил код, и снова полезли ошибки. И тут я вспомнил про DeepSeek. Но не верил я в эту идею, потому что бесплатный дипсик не может работать лучше чем оплаченый чатжпити. Но я решился проверить.
Сделал я запрос к дипсику, он думал минут 20, расписал все пошагово, как опытный программист, но результат меня убил — не закрыт тег:
В общем, на дипсик я забил, потому что не хотелось еще и с ним параллельно возиться. В это время чат мне выдал новый код, я вставил его в Тильду и вот что получилось:
Правда, раздел «сейчас читают» выглядел коряво, даты отображались странно. Да и обложки не подгружались. Я вернулся к чату и попросил поправить код.
Дальше начал улучшать код под лучшее ранжирование в поисковых сетях. Что было сделано:
— правильная разметка;
— объединённая аналитика;
— hreflang;
— OpenGraph + Twitter-карточки;
— JSON-LD для каждой страницы (Organization, WebSite, SiteNavigationElement, ItemList из RSS);
— исправления по семантике и мелочам.
Всё это в итоге можно глянуть по ссылке: https://financeanalitics.ru/
Так что зацените. Напомню: я в программировании ноль, а на всё ушло где-то 6–8 часов с перекурами. Считаю это хорошим результатом. Да, некоторые скажут, что через вордпресс и его шаблоны можно было бы поднять за пару десятков минут, но я напомню: я пошел по сложному пути.
В следующий раз расскажу, как делал внутренние страницы через код и как настроил кросспостинг в телегу, дзен и ещё несколько площадок.
Всем спасибо!