[Разбор] Как я сократил расходы на Claude Code с $1.20 до $0.50 за задачу - 7 open-source инструментов для индексации кодовой базы

AI-агенты для кода дорогие не потому, что они много думают. Они дорогие, потому что 80% времени они ищут файлы вместо того, чтобы писать код. Я замерил реальные расходы до и после подключения индекса - и нашел 7 open-source инструментов, которые решают эту проблему.

[Разбор] Как я сократил расходы на Claude Code с $1.20 до $0.50 за задачу - 7 open-source инструментов для индексации кодовой базы

Проблема: агент без памяти

Claude Code, Cursor, Codex - все они стартуют каждую сессию с нуля. Никакой карты проекта. Никакой памяти о вчерашней работе. Агент получает задачу "пофикси баг в авторизации" и начинает: grep по всей кодовой базе, чтение файлов один за другим, попытки понять архитектуру. Каждый прочитанный файл - это токены. Каждый неудачный grep - токены.

На подписке Max за $200/месяц это означает, что лимит выгорает быстрее. На API - что каждая задача стоит больше, чем должна.

Мои замеры

Я тестировал на своих проектах. Условия: одна и та же задача, одна модель, один промпт.

Без индекса:

  • Имплементация фичи: $1.20, 7 минут
  • Объяснение функциональности: $0.25

С индексом:

  • Та же имплементация: $0.50, 5 минут (экономия 58%)
  • То же объяснение: $0.12 (экономия 52%)

Единственная переменная - наличие предварительно построенного индекса кодовой базы. Агент получал готовую семантическую карту проекта вместо голой файловой системы.

Как это работает технически

Все инструменты ниже работают через MCP (Model Context Protocol) - открытый стандарт от Anthropic для подключения внешних источников контекста к AI-агентам. Схема простая: инструмент индексирует кодовую базу (через AST-парсинг, векторные эмбеддинги или граф знаний), поднимает MCP-сервер, и агент обращается к этому серверу вместо того, чтобы грепать файлы вслепую.

1. Serena - 17.1k звезд

MCP-тулкит, который интегрируется с language servers (LSP). Дает агенту понимание кода на уровне символов: функции, классы, импорты, зависимости между модулями. По сути, бесплатная альтернатива встроенной индексации в Cursor и Windsurf.

Работает с Claude Code, Codex, Cursor, JetBrains.

2. claude-context (Zilliz) - 5.5k звезд

Создан командой Zilliz - авторами Milvus, одной из самых популярных векторных баз данных. Сделан специально для Claude Code.

Гибридный поиск: BM25 (точные совпадения по ключевым словам) + плотные векторы (семантическое понимание). Бенчмарк: 40% сокращение токенов при эквивалентном качестве поиска. Грубо говоря, та же задача за 60% стоимости.

3. code-review-graph - в трендах GitHub

Строит граф знаний кодовой базы через Tree-sitter + SQLite. Парсит каждую функцию, класс, зависимость и хранит в структурированном графе. Агент получает эту карту через MCP.

Цифры из их бенчмарков:

  • Большой монорепо (Next.js, 27K файлов): 739K токенов → 15K. Сокращение в 49 раз
  • Код-ревью: в среднем в 6.8 раз меньше токенов
  • При этом качество ревью выросло на 1.6 балла - меньше шума, больше фокуса на том, что важно

4. codebase-memory-mcp - 1.3k звезд

Один статический бинарник, ноль зависимостей. Установил и работаешь. Индексирует в персистентный граф знаний, поддерживает 66 языков, запросы за доли миллисекунды.

Бенчмарк: 5 структурных запросов стоят 3,400 токенов через MCP vs 412,000 через обычный поиск по файлам. 99.2% сокращение. На одной тяжелой сессии инструмент окупает себя за минуты.

5. CocoIndex Code - AST-подход

Использует Tree-sitter для парсинга AST на 28+ языках. Легковесный CLI + MCP-сервер. Эмбеддинги считаются локально, никаких API-ключей, данные не покидают машину. 70% экономия токенов.

Пост автора на dev.to набрал 54K просмотров - значит, тема задела нерв.

6. Octocode - Rust и граф знаний

Написан на Rust, работает полностью локально. Комбинирует семантический поиск, граф знаний и AI-память. MCP-сервер предоставляет инструменты semantic_search, view_signatures и graphrag. Точность Hit@10: 0.992. Лицензия Apache 2.0.

7. llmdex - гибридный поиск без облака

Гибридный BM25 + векторный поиск с легковесным фоновым сервером. Без API-ключей, без облака. Интегрируется с Claude Code одной командой. Те цифры в начале статьи ($1.20 → $0.50 за задачу, $0.25 → $0.12 за объяснение) - это мои замеры с этим инструментом.

Выводы

Паттерн простой: агент без индекса тратит большую часть бюджета на навигацию. Хороший индекс превращает эту навигацию в один запрос.

Что меня удивило - не нужно выбирать один инструмент. Каждый из них использует свой подход (AST, граф знаний, векторный поиск, LSP), и они дополняют друг друга. Serena дает структурное понимание кода, а llmdex или claude-context добавляют семантический поиск.

Если вы используете Claude Code на API и платите за токены - любой из этих инструментов окупится за первую сессию. Если на подписке Max - индекс означает, что вы работаете дольше до лимита.

Уже пробовали что-то из этого? Какие цифры получаете на своих проектах? Интересно сравнить результаты.

Начать дискуссию