Александр Нетребский

@anetrebskii
с 25.03.2026

Fractional CTO. 15+ лет в разработке. Строю AI-агентов в продакшене. Пишу о том, что работает - и что нет.

2 подписчика
1 подписка

На прошлой неделе закрыл задачу: интеграция Langfuse в свой опен-сорсный агентный фреймворк Tuplet. Через два дня после деплоя понял, что без встроенного трейсера работать невозможно.

[Разбор] У Langfuse 10-20 минут лага в UI. Почему я оставил свой трейсер в продакшене

Claude Code отрапортовал: работа закончена. 4 задачи из 5 отмечены как выполненные. Пятая, "Commit and open PR", осталась открытой. Агент перешёл к следующему запросу, будто незакрытого пункта и не существует.

Это был Claude Opus 4.7 с максимальным уровнем рассуждений (extra-high thinking). Самая мощная модель, которая у меня есть, на самой в…

$0.08 за миллион токенов. Столько стоит Gemma 4. Claude Opus 4.7 - $5. Та же задача, разница в 62 раза.

Очевидный вопрос: может ли модель за такие деньги реально работать как агент? Месяц тестов в продакшене дал ответ. Но не такой, как я ожидал.

Ваш AI-агент здоровается - и это стоит 8 247 токенов. Не за ответ. За приветствие.

В продакшен-проектах по AI я вижу одну и ту же картину: команда делает POC, он работает, запускает в масштаб - и счёт облака становится сюрпризом. Строчка расходов не сходится: модель делает меньше, чем ожидали, а стоит дороже, чем закладывали.

Ваш AI-агент тратит деньги. Вы можете объяснить - на что именно? Не общий счет за месяц. А разбивку: какой LLM-вызов сколько стоил, какой tool call запустил цикл навигации по файлам, почему одна задача обошлась в $4, а похожая - в $0.50.

Большинство команд не могут. Они видят инвойс, а не трейс. Это как вести бизнес без бухгалтерии - деньги у…

AI-агенты для кода дорогие не потому, что они много думают. Они дорогие, потому что 80% времени они ищут файлы вместо того, чтобы писать код. Я замерил реальные расходы до и после подключения индекса - и нашел 7 open-source инструментов, которые решают эту проблему.

[Разбор] Как я сократил расходы на Claude Code с $1.20 до $0.50 за задачу - 7 open-source инструментов для индексации кодовой базы

Anthropic признали: пользователи Claude Code Max сжигают $200 в месяц за час вместо пяти. Комьюнити ответило волной инструментов - от шуточных до серьёзных. Разбираю каждый с цифрами.

Как сократить расход токенов в Claude Code: от мемов до инженерии

Мой AI-ассистент тратил 2 минуты на каждый поиск по кодовой базе. При 40 поисках в день это 80 минут потерянного времени разработчика - каждый день. Я написал open-source инструмент, который сократил это до 20 секунд. Без подписок, без облака, без утечки вашего кода третьим сторонам.

AI-ассистент тратит 30% времени впустую. Как я это исправил за 5 минут

Компании массово внедряют AI-инструменты в разработку. Отчеты показывают рост продуктивности. А клиенты получают новые фичи с той же скоростью, что и раньше. Разбираю, почему так происходит и что с этим делать.

AI сделал команду быстрее. Но продукт выходит так же медленно
Ловушка отложенного релиза: почему ваш квартальный цикл только растет

До релиза оставалось две недели. Один разработчик закончил фичу раньше срока - "давайте добавим". Второй начал новую задачу на main - теперь первая фича не может уехать без второй. Третий взял следующую задачу. Три фичи блокируют друг друга. Кто-то предлагает сдвинуть релиз. Двухнедельный цикл превращается в двухмесячный. Знакомо?

Каждый день в ленте - очередная история про компанию, которую полностью написал AI. Инженер с телефона командует нейросетью, та выдает рабочий продукт. Я использую AI для всех задач по коду и решил проверить: а что, если убрать инженерный контроль?

Я дал AI написать уникальное приложение без инженерного контроля. Исчерпаны лимиты и катастрофа
AI не чинит баги - он их прячет. Что CTO видит после внедрения Claude Code и Cursor

AI-агенты пишут код быстрее разработчиков. Но что именно они пишут - это другой вопрос. Мы несколько недель наблюдали, как Claude Code и Cursor работают на реальных проектах, и увидели паттерн, о котором редко говорят: AI не чинит баги - он их прячет.