Рост трафика в 10 раз за месяц и первая прибыль: Как работает моя ферма контента на полном автопилоте

Рост трафика в 10 раз за месяц и первая прибыль: Как работает моя ферма контента на полном автопилоте

История о том, как превратить Python-скрипт в полноценное медиа. Разбор архитектуры (RAG, pgvector, Django), логика AI-агентов, цифры расходов на API и доходы с рекламы.

Введение: Зачем писать самому, если есть Python?

В 2026 году создавать контент-проект вручную - это дорого и долго. Я решил пойти другим путем: создать систему, которая делает всё сама. Не просто «генератор текста», а полноценную редакцию из AI-агентов.

Мой проект ai-manual.ru был запущен как эксперимент в конце декабря. Цель: Создать базу знаний по нейросетям, которая наполняется, оптимизируется и дистрибуцируется автоматически.

Результат спустя 1.5 месяца:

  • Рост посещаемости с 350 до 3688 визитов в неделю (x10).
  • Проект выходит на операционную самоокупаемость.
  • Telegram-канал ведется ботом, который анализирует успешность своих же постов.

Ниже я расскажу, как это устроено "под капотом".

Архитектура: Как работает завод контента

Многие думают, что автосайт - это скрипт, который парсит новости и кидает их в GPT. В реальности такая схема дает мусор и дубли. Чтобы получить качество, которое нравится Яндексу и людям, мне пришлось построить RAG-конвейер (Retrieval Augmented Generation).

Стек проекта: Python + Django + PostgreSQL (pgvector).Мозги: DeepSeek-v3.2 (через API-прослойку).

Вот этапы работы моего конвейера:

1. Сбор и Умный Скоринг (The Brain)

Всё начинается не с генерации, а с жесткого отбора. Скрипт мониторит RSS-ленты авторитетных источников. Но просто переписывать всё подряд нельзя. Сырые новости пачками улетают в DeepSeek, где агент-оценщик ставит баллы (0-100) по критериям полезности, популярности, и ещё парочку.

В работу уходит только то, что набрало >75 баллов.

2. Векторная магия и Дедупликация

Самая большая боль автосайтов - дублирование контента. Я решил это через pgvector. Каждая идея для статьи превращается в вектор (embedding). Перед утверждением темы система считает косинусное расстояние до всех существующих статей.Если сходство векторов > 0.7 - тема бракуется. Мы не пишем об одном и том же дважды.

3. Генерация с RAG (Контекст решает всё)

Агент-писатель не галлюцинирует текст из пустоты. Он использует RAG:

  1. Поиск контекста: Скрипт ищет в базе 3-5 наших старых статей, тематически близких к новой (опять же через векторы), и скармливает их нейросети. Это позволяет делать отсылки к предыдущим материалам.
  2. Внутренняя перелинковка: AI получает список реальных URL с сайта и органично вписывает ссылки в текст.
  3. Умная монетизация: Если статья про софт, система ищет в базе релевантную партнерскую программу (тоже вектором!) и нативно вставляет ссылку с rel="nofollow sponsored".

Промпт-инжиниринг:Нейросеть верстает текст сразу в HTML с классами Tailwind CSS. Код оборачивается в красивые блоки pre, важные заметки - в цветные алерты. Никаких скучных "полотен" текста.

4. SMM-агент: Бот, который учится

Телеграм-канал тоже ведется на автопилоте, но хитро. Скрипт анализирует баланс последних постов (Анонс / Мнение / Инсайт). Если было много анонсов, он сгенерирует аналитику.

Киллер-фича: Перед написанием поста бот ищет в базе мои самые успешные посты за месяц (по ER и реакциям) и показывает их нейросети как примеры (Few-Shot Learning). Так бот учится писать так, как нравится аудитории, а не сухим языком пресс-релизов.

Результаты: Трафик и SEO

Динамика превзошла мои ожидания. Поисковики (особенно Яндекс) отлично "съели" контент благодаря чистой семантике и хорошим поведенческим факторам (люди читают, потому что статьи полезные, а не мусорные).

Органический рост трафика. Ни рубля не вложено в рекламу
Органический рост трафика. Ни рубля не вложено в рекламу

Статистика по неделям (из Метрики):

  • Январь 5–11: 354 посетителя. Старт индексации.
  • Январь 19–25: 1657 посетителей. Первый скачок, пошли НЧ-запросы.
  • Февраль 9–15: 3688 посетителей. Рост в 10 раз за полтора месяца.

В Вебмастере графики показов и кликов тоже стремятся вверх, CTR держится на уровне 6-8%, что для инфосайта — отличный показатель.

Деньги: Экономика проекта

Самое интересное - монетизация. Я подключил РСЯ (Рекламную Сеть Яндекса).Сначала это были копейки, но с ростом трафика и оптимизацией блоков (AI-агент сам тестирует разные форматы размещения) доход пошел вверх.

Сводка доходов по неделям:

  • 12.01 - 18.01: 145,63 ₽
  • 19.01 - 25.01: 328,04 ₽
  • 26.01 - 01.02: 357,49 ₽
  • 02.02 - 08.02: 466,33 ₽
  • 09.02 - 15.02: 477,99 ₽ (неполная статистика, будет на рублей 20-30 больше )

Всего заработано: 1 775,54 ₽.

День безубыточности: 11 февраля стал знаковым днем.

  • Доход за сутки: 108,50 ₽
  • Расходы (API генерация + сервер + домен): ~77,81 ₽
  • Чистая прибыль: 30,69 ₽ 🟢

Да, сумма смешная. Но важен факт: полностью автономная система, требующая 0 часов моего времени в день, начала окупать свои сервера. Блок "Рекомендации" в конце статей показал взрывной рост CPMV до 162 рублей — видимо, дочитываемость статей высокая.

Инструменты и расходы

Я стараюсь оптимизировать косты:

  1. API: Использую прослойку AiTunnel для доступа к моделям без зарубежных карт.
  2. Модели: DeepSeek-v3 оказался идеальным балансом цены и качества логики. Он пишет код лучше, чем GPT-4o mini, а стоит копейки.

Что дальше?

Сейчас я работаю над улучшением качества. В планах внедрить агент Fact-Checker, который будет гуглить каждый факт перед публикацией, чтобы исключить галлюцинации.

Я веду открытый дневник разработки, где каждый день публикую отчеты по доходам (даже если там падение).

Заходите следить за экспериментом: сможем ли мы пробить планку в 100к рублей на полном автопилоте?

5
Начать дискуссию