Claude отупел? 8 хаков, после которых нейросеть снова работает как генийЕсли последние недели вы пользовались Cla
ude и заметили, что ответы стали тупее, ошибок больше, а выводы откровенно странные, вам не показалось. Тысячи людей в сети жалуются на то же самое, и сама Anthropic уже подтвердила: модель действительно "подрезали".
Хорошая новость в том, что Claude можно вернуть в форму. Способ работы с ним за последние месяцы заметно изменился, и пары простых настроек хватает, чтобы выжимать из нейросети максимум. Ниже разбор восьми приёмов на основе материала Miles Deutscher, адаптированный для разработчиков и инженеров, которые хотят перестать терять токены и время.
1. Выбирайте правильный инструмент Claude
Claude давно не единый чат, а целая экосистема из четырёх продуктов, и пытаться решать задачу не в том интерфейсе означает заранее портить результат. Chat идеален для повседневных вопросов и быстрых ответов, Cowork даёт доступ к локальным файлам и подходит для базовых автоматизаций, Code создан для билдов, скриптов и реальной разработки, а Projects пронизывает всё это слоем памяти с инструкциями и контекстом. Прежде чем открывать новый чат, спросите себя, чем вы вообще занимаетесь, и подберите подходящий инструмент.
2. Не путайте модели
Claude по умолчанию часто запускает новый чат на Sonnet, и это отличный выбор для рутины, но явно не для сложных рассуждений или архитектуры. Для простых задач берите Haiku, для повседневных рабочих вопросов Sonnet, а когда нужно глубокое рассуждение, рефакторинг большого кода или анализ больших решений, переключайтесь на Opus. В Claude Code дополнительно ставьте высокий уровень reasoning, иначе вы теряете большую часть реальных возможностей модели.
3. Настраивайте системные промпты
Системный промпт это инструкция, которую модель загружает до вашего вопроса, и именно она задаёт тон всех ответов. В разделе Projects вы можете задать Project Instructions, которые будут выполняться для любого чата внутри. Полезные правила для таких инструкций: если не уверен в ответе, прямо пиши "не знаю"; думай глубоко перед любым выводом; важные вещи фиксируй в памяти проекта. Это приём, который работает в любой команде и экономит часы на повторяющихся вводных.
4. Стройте промпты правильно
Правило вычислительной техники garbage in это ровно garbage out работает и для LLM. Большинство людей пишет промпт в стиле поиска в Google, потом винит модель в плохом ответе. Сначала дайте Claude контекст: кто вы, над чем работаете, какая цель, какие ограничения. Затем явно опишите формат ответа: роль, аудитория, структура, стиль. Хороший хак: попросить Claude задать вам 10–50 уточняющих вопросов перед исполнением, и только потом давать основное задание.
5. Используйте XML теги
Этот приём взят прямо из официальной документации Anthropic, но большинство его игнорирует. Внутренне Claude лучше всего воспринимает структурированный вход, и если вы сразу оформляете промпт через теги role, context, instructions, format и example, модель перестаёт терять смысл и отвечает быстрее. Если лень сочинять теги вручную, просто скажите Claude сформировать XML структуру под вашу задачу, а затем просто заполните её содержанием.
6. Включайте встроенные инструменты
Даже самый хороший промпт не спасёт, если вы просите модель искать информацию без включённого поиска. Включайте режим Research и Web Search, когда нужны свежие факты, это резко снижает число галлюцинаций. Дополнительно стоит посмотреть в сторону Connectors и Skills для повторяющихся рабочих процессов, а также не забывать про загрузку файлов в контекст.
7. Следите за свежестью контекста
Одна из главных причин, почему Claude кажется тупым, это context rot. Человек ведёт один бесконечный чат под всё подряд, модель перестаёт влезать в окно контекста, начинает вырывать фрагменты и додумывать остальное. Три правила против этого: регулярно вычищайте файлы в проекте, вручную проверяйте память и удаляйте устаревшее, и никогда не пытайтесь реанимировать разъехавшийся чат, вместо этого открывайте новый. Когда Claude начинает автокомпактить историю, это уже сигнал перезапустить сессию.
8. Проверяйте факты и комбинируйте модели
Claude галлюцинирует чаще, чем кажется, особенно когда опирается на свои же предыдущие ответы. После важного вывода открывайте отдельный чат в режиме инкогнито и давайте команду вроде "проверь всё, что ты мне сказал, через Web Search". Ещё лучше работает связка моделей: ответ от Claude скармить в GPT-5.5 для критического разбора, и наоборот. Прямой cross check между разными LLM быстро выявляет выдумки и неточности.
Claude не стал хуже сам по себе, просто правила игры изменились. Кто освоит эти восемь приёмов, получит рабочего помощника, который действительно экономит часы на коде, исследованиях и аналитике. Остальные продолжат жаловаться, что нейронка стала тупее.