[Разбор] Как я сократил расходы на Claude Code с $1.20 до $0.50 за задачу - 7 open-source инструментов для индексации кодовой базы
AI-агенты для кода дорогие не потому, что они много думают. Они дорогие, потому что 80% времени они ищут файлы вместо того, чтобы писать код. Я замерил реальные расходы до и после подключения индекса - и нашел 7 open-source инструментов, которые решают эту проблему.
Проблема: агент без памяти
Claude Code, Cursor, Codex - все они стартуют каждую сессию с нуля. Никакой карты проекта. Никакой памяти о вчерашней работе. Агент получает задачу "пофикси баг в авторизации" и начинает: grep по всей кодовой базе, чтение файлов один за другим, попытки понять архитектуру. Каждый прочитанный файл - это токены. Каждый неудачный grep - токены.
На подписке Max за $200/месяц это означает, что лимит выгорает быстрее. На API - что каждая задача стоит больше, чем должна.
Мои замеры
Я тестировал на своих проектах. Условия: одна и та же задача, одна модель, один промпт.
Без индекса:
- Имплементация фичи: $1.20, 7 минут
- Объяснение функциональности: $0.25
С индексом:
- Та же имплементация: $0.50, 5 минут (экономия 58%)
- То же объяснение: $0.12 (экономия 52%)
Единственная переменная - наличие предварительно построенного индекса кодовой базы. Агент получал готовую семантическую карту проекта вместо голой файловой системы.
Как это работает технически
Все инструменты ниже работают через MCP (Model Context Protocol) - открытый стандарт от Anthropic для подключения внешних источников контекста к AI-агентам. Схема простая: инструмент индексирует кодовую базу (через AST-парсинг, векторные эмбеддинги или граф знаний), поднимает MCP-сервер, и агент обращается к этому серверу вместо того, чтобы грепать файлы вслепую.
1. Serena - 17.1k звезд
MCP-тулкит, который интегрируется с language servers (LSP). Дает агенту понимание кода на уровне символов: функции, классы, импорты, зависимости между модулями. По сути, бесплатная альтернатива встроенной индексации в Cursor и Windsurf.
Работает с Claude Code, Codex, Cursor, JetBrains.
2. claude-context (Zilliz) - 5.5k звезд
Создан командой Zilliz - авторами Milvus, одной из самых популярных векторных баз данных. Сделан специально для Claude Code.
Гибридный поиск: BM25 (точные совпадения по ключевым словам) + плотные векторы (семантическое понимание). Бенчмарк: 40% сокращение токенов при эквивалентном качестве поиска. Грубо говоря, та же задача за 60% стоимости.
3. code-review-graph - в трендах GitHub
Строит граф знаний кодовой базы через Tree-sitter + SQLite. Парсит каждую функцию, класс, зависимость и хранит в структурированном графе. Агент получает эту карту через MCP.
Цифры из их бенчмарков:
- Большой монорепо (Next.js, 27K файлов): 739K токенов → 15K. Сокращение в 49 раз
- Код-ревью: в среднем в 6.8 раз меньше токенов
- При этом качество ревью выросло на 1.6 балла - меньше шума, больше фокуса на том, что важно
4. codebase-memory-mcp - 1.3k звезд
Один статический бинарник, ноль зависимостей. Установил и работаешь. Индексирует в персистентный граф знаний, поддерживает 66 языков, запросы за доли миллисекунды.
Бенчмарк: 5 структурных запросов стоят 3,400 токенов через MCP vs 412,000 через обычный поиск по файлам. 99.2% сокращение. На одной тяжелой сессии инструмент окупает себя за минуты.
5. CocoIndex Code - AST-подход
Использует Tree-sitter для парсинга AST на 28+ языках. Легковесный CLI + MCP-сервер. Эмбеддинги считаются локально, никаких API-ключей, данные не покидают машину. 70% экономия токенов.
Пост автора на dev.to набрал 54K просмотров - значит, тема задела нерв.
6. Octocode - Rust и граф знаний
Написан на Rust, работает полностью локально. Комбинирует семантический поиск, граф знаний и AI-память. MCP-сервер предоставляет инструменты semantic_search, view_signatures и graphrag. Точность Hit@10: 0.992. Лицензия Apache 2.0.
7. llmdex - гибридный поиск без облака
Гибридный BM25 + векторный поиск с легковесным фоновым сервером. Без API-ключей, без облака. Интегрируется с Claude Code одной командой. Те цифры в начале статьи ($1.20 → $0.50 за задачу, $0.25 → $0.12 за объяснение) - это мои замеры с этим инструментом.
Выводы
Паттерн простой: агент без индекса тратит большую часть бюджета на навигацию. Хороший индекс превращает эту навигацию в один запрос.
Что меня удивило - не нужно выбирать один инструмент. Каждый из них использует свой подход (AST, граф знаний, векторный поиск, LSP), и они дополняют друг друга. Serena дает структурное понимание кода, а llmdex или claude-context добавляют семантический поиск.
Если вы используете Claude Code на API и платите за токены - любой из этих инструментов окупится за первую сессию. Если на подписке Max - индекс означает, что вы работаете дольше до лимита.
Уже пробовали что-то из этого? Какие цифры получаете на своих проектах? Интересно сравнить результаты.