Рост трафика в 10 раз за месяц и первая прибыль: Как работает моя ферма контента на полном автопилоте
История о том, как превратить Python-скрипт в полноценное медиа. Разбор архитектуры (RAG, pgvector, Django), логика AI-агентов, цифры расходов на API и доходы с рекламы.
Введение: Зачем писать самому, если есть Python?
В 2026 году создавать контент-проект вручную - это дорого и долго. Я решил пойти другим путем: создать систему, которая делает всё сама. Не просто «генератор текста», а полноценную редакцию из AI-агентов.
Мой проект ai-manual.ru был запущен как эксперимент в конце декабря. Цель: Создать базу знаний по нейросетям, которая наполняется, оптимизируется и дистрибуцируется автоматически.
Результат спустя 1.5 месяца:
- Рост посещаемости с 350 до 3688 визитов в неделю (x10).
- Проект выходит на операционную самоокупаемость.
- Telegram-канал ведется ботом, который анализирует успешность своих же постов.
Ниже я расскажу, как это устроено "под капотом".
Архитектура: Как работает завод контента
Многие думают, что автосайт - это скрипт, который парсит новости и кидает их в GPT. В реальности такая схема дает мусор и дубли. Чтобы получить качество, которое нравится Яндексу и людям, мне пришлось построить RAG-конвейер (Retrieval Augmented Generation).
Стек проекта: Python + Django + PostgreSQL (pgvector).Мозги: DeepSeek-v3.2 (через API-прослойку).
Вот этапы работы моего конвейера:
1. Сбор и Умный Скоринг (The Brain)
Всё начинается не с генерации, а с жесткого отбора. Скрипт мониторит RSS-ленты авторитетных источников. Но просто переписывать всё подряд нельзя. Сырые новости пачками улетают в DeepSeek, где агент-оценщик ставит баллы (0-100) по критериям полезности, популярности, и ещё парочку.
В работу уходит только то, что набрало >75 баллов.
2. Векторная магия и Дедупликация
Самая большая боль автосайтов - дублирование контента. Я решил это через pgvector. Каждая идея для статьи превращается в вектор (embedding). Перед утверждением темы система считает косинусное расстояние до всех существующих статей.Если сходство векторов > 0.7 - тема бракуется. Мы не пишем об одном и том же дважды.
3. Генерация с RAG (Контекст решает всё)
Агент-писатель не галлюцинирует текст из пустоты. Он использует RAG:
- Поиск контекста: Скрипт ищет в базе 3-5 наших старых статей, тематически близких к новой (опять же через векторы), и скармливает их нейросети. Это позволяет делать отсылки к предыдущим материалам.
- Внутренняя перелинковка: AI получает список реальных URL с сайта и органично вписывает ссылки в текст.
- Умная монетизация: Если статья про софт, система ищет в базе релевантную партнерскую программу (тоже вектором!) и нативно вставляет ссылку с rel="nofollow sponsored".
Промпт-инжиниринг:Нейросеть верстает текст сразу в HTML с классами Tailwind CSS. Код оборачивается в красивые блоки pre, важные заметки - в цветные алерты. Никаких скучных "полотен" текста.
4. SMM-агент: Бот, который учится
Телеграм-канал тоже ведется на автопилоте, но хитро. Скрипт анализирует баланс последних постов (Анонс / Мнение / Инсайт). Если было много анонсов, он сгенерирует аналитику.
Киллер-фича: Перед написанием поста бот ищет в базе мои самые успешные посты за месяц (по ER и реакциям) и показывает их нейросети как примеры (Few-Shot Learning). Так бот учится писать так, как нравится аудитории, а не сухим языком пресс-релизов.
Результаты: Трафик и SEO
Динамика превзошла мои ожидания. Поисковики (особенно Яндекс) отлично "съели" контент благодаря чистой семантике и хорошим поведенческим факторам (люди читают, потому что статьи полезные, а не мусорные).
Статистика по неделям (из Метрики):
- Январь 5–11: 354 посетителя. Старт индексации.
- Январь 19–25: 1657 посетителей. Первый скачок, пошли НЧ-запросы.
- Февраль 9–15: 3688 посетителей. Рост в 10 раз за полтора месяца.
В Вебмастере графики показов и кликов тоже стремятся вверх, CTR держится на уровне 6-8%, что для инфосайта — отличный показатель.
Деньги: Экономика проекта
Самое интересное - монетизация. Я подключил РСЯ (Рекламную Сеть Яндекса).Сначала это были копейки, но с ростом трафика и оптимизацией блоков (AI-агент сам тестирует разные форматы размещения) доход пошел вверх.
Сводка доходов по неделям:
- 12.01 - 18.01: 145,63 ₽
- 19.01 - 25.01: 328,04 ₽
- 26.01 - 01.02: 357,49 ₽
- 02.02 - 08.02: 466,33 ₽
- 09.02 - 15.02: 477,99 ₽ (неполная статистика, будет на рублей 20-30 больше )
Всего заработано: 1 775,54 ₽.
День безубыточности: 11 февраля стал знаковым днем.
- Доход за сутки: 108,50 ₽
- Расходы (API генерация + сервер + домен): ~77,81 ₽
- Чистая прибыль: 30,69 ₽ 🟢
Да, сумма смешная. Но важен факт: полностью автономная система, требующая 0 часов моего времени в день, начала окупать свои сервера. Блок "Рекомендации" в конце статей показал взрывной рост CPMV до 162 рублей — видимо, дочитываемость статей высокая.
Инструменты и расходы
Я стараюсь оптимизировать косты:
- API: Использую прослойку AiTunnel для доступа к моделям без зарубежных карт.
- Модели: DeepSeek-v3 оказался идеальным балансом цены и качества логики. Он пишет код лучше, чем GPT-4o mini, а стоит копейки.
Что дальше?
Сейчас я работаю над улучшением качества. В планах внедрить агент Fact-Checker, который будет гуглить каждый факт перед публикацией, чтобы исключить галлюцинации.
Я веду открытый дневник разработки, где каждый день публикую отчеты по доходам (даже если там падение).
Заходите следить за экспериментом: сможем ли мы пробить планку в 100к рублей на полном автопилоте?