Anthropic признал, что два месяца поставлял дефектный Claude Code. И это даже не главная проблема
24 апреля 2026 Anthropic опубликовал инженерный постмортем. Кратко: с начала марта по середину апреля пользователи Claude Code, Claude Agent SDK и Claude Cowork получали ухудшенный продукт за те же деньги. Не из-за одного бага. Из-за трёх параллельных, каждый из которых жил неделями.
API-доступ это не затронуло — поломка была только в продуктовом слое. Но если у вас на Pro или Max-подписке (от $20 до $200 в месяц) работают команда, агенты, скрипты автоматизации — вы это почувствовали как «модель тупит» и «лимиты сгорают быстрее обычного».
С 23 апреля Anthropic ресетнул лимиты всем подписчикам. Это правильный жест. Но за этим жестом — структурная история, которую стоит увидеть в полный рост.
Три бага по календарю
Баг №1. Молчаливое снижение «силы размышления»
Дата: 4 марта 2026. Что произошло. Anthropic переключил дефолтный параметр reasoning_effort для Opus 4.6 и Sonnet 4.6 в Claude Code с high на medium. Объяснение в постмортеме — задержки в high режиме иногда были настолько длинными, что интерфейс Claude Code казался зависшим.
Что это означало для пользователя. Та же модель, на той же подписке, но решает задачи на меньшей глубине размышления. Сложные задачи — где high-режим даёт ощутимый прирост качества — стали проседать.
Когда исправили. 7 апреля, после месяца сообщений от пользователей. Сейчас Opus 4.7 по умолчанию работает в xhigh (новый максимум), остальные модели — в high. Anthropic в постмортеме называет своё мартовское решение «неправильным выбором».
Баг №2. Кеш, который стирал память на каждом ходу
Дата: 26 марта 2026. Что произошло. В попытке оптимизировать стоимость возобновления долгих сессий Anthropic выкатил изменение: если сессия простаивала больше часа, старые «размышления» (thinking blocks) удалялись из истории один раз. Дальше работа продолжалась штатно.
В реализации был баг: вместо «один раз» система удаляла размышления на каждом следующем ходу до конца сессии. Модель начинала вести себя как с амнезией — забывала, зачем она открывала файл, отчего использовала именно этот инструмент, какой шаг исполняла.
Параллельно ломалось кеширование запросов. У пользователей лимиты Pro и Max сгорали быстрее обычного — потому что каждый запрос промахивался мимо кеша и шёл как новый.
Когда исправили. 10 апреля, в версии v2.1.101. От первого симптома до публичного фикса прошло более двух недель. Anthropic объясняет затяжку: баг проявлялся в edge-кейсе (старые сессии), внутренние тесты его не воспроизводили, два независимых внутренних эксперимента маскировали проблему.
Баг №3. Зажим длины аутпута
Дата: 16 апреля 2026. Что произошло. К релизу Opus 4.7 Anthropic добавил в системный промпт Claude Code инструкцию: между tool calls — не больше 25 слов, в финальном ответе — не больше 100 слов. Это была попытка борьбы с «многословностью» новой модели.
В дальнейших ablation-тестах (после получения жалоб) выяснилось: эта одна строка системного промпта уронила качество кодовых evaluations на 3% и для Opus 4.6, и для 4.7.
Когда исправили. 20 апреля, в составе релиза v2.1.116. Промпт-инструкция откатана.
Что это значит на практике
Anthropic ни разу не объявлял о росте цен в марте или апреле. Подписки Pro и Max стоят те же 20, 100, 200 долларов. Цены за миллион токенов в API — те же.
Но за это время:
- Качество дефолта снизилось на сложных задачах (баг 1, месяц с лишним).
- Расход токенов вырос через cache miss (баг 2, две недели).
- Длина и качество аутпута сократились через verbosity-clamp (баг 3, четыре дня, но −3% по evals).
Каждый из этих сдвигов — тихая девальвация того, что вы получаете за свои деньги. Цена в долларах не двигалась. Но цена задачи росла. Если у вас десять разработчиков на Claude Code Max, вы заплатили за восемь — а получили работу примерно семи.
И это часть системного процесса. Anthropic — первый вендор, который выложил детальный постмортем с ресетом лимитов. Это правильный поступок. Но процесс, который привёл к ситуации, не уникален. Подписочная экономика frontier-моделей сейчас не сходится. Вендорам нужно балансировать книги, а явно поднимать цены — нельзя без репутационных потерь. Поэтому цены растут другими способами.
Пять каналов скрытой инфляции AI-подписок (за последние две недели)
1. Миграция per-seat → usage / outcome. Активный пользователь вместо $20 в месяц теперь стоит $80-120 при переходе на usage-based прайсинг. Salesforce Agentforce и ServiceNow ввели «success fee» поверх — это второй слой. Источник: Goldman Sachs research, апрель 2026.
2. Инфляция токенизатора. Тот же системный промпт на Claude Opus 4.7 потребляет в 1.46× больше токенов, чем на Opus 4.6. На обычном тексте — 1.0-1.35×. На системных промптах — 1.46×. Цена за миллион токенов не менялась — но миллион теперь содержит на 30% меньше реальной информации. Источник: замеры Саймона Уиллисона, 23 апреля 2026.
3. Зажим аутпута. Verbosity-clamp в системном промпте Claude Code (≤25 слов между tool calls, ≤100 в финале) уронил качество кодовых evals на 3% и для Opus 4.6, и для 4.7. Жил 4 дня, но эффект множился на каждом запросе пользователей. Источник: Anthropic postmortem — третий из трёх багов выше.
4. Удушение Pro-агентов. 22 апреля Anthropic начал A/B-тест: исключить Claude Code из Pro-подписки у 2% юзеров. Объяснение — «подписки изначально не были рассчитаны на агентные многочасовые задачи». OpenAI в тот же день публично заявил: доступ к Codex остаётся у Free и Plus. Источник: @ai_newz Telegram, 22 апреля 2026.
5. Контролируемая деградация дефолтов. 4 марта Anthropic переключил дефолтное значение reasoning effort в Claude Code с high на medium — без объявления. Те же модели Opus 4.6 и Sonnet 4.6, но решают на меньшей глубине размышления. Откатили только 7 апреля. Источник: Anthropic postmortem — первый из трёх багов.
Что у других
Параллельный контекст помогает понять масштаб.
OpenAI
22 апреля Anthropic тестировал отключение Claude Code от Pro-подписки у 2% юзеров. OpenAI в тот же день публично заявил: доступ к Codex остаётся у Free и Plus подписок. Никаких A/B-исключений. Это сигнал: на их балансе compute пока сходится.
24 апреля OpenAI выпустил GPT-5.5. Дороже Anthropic ($5/$30 за миллион токенов в стандарте, $30/$180 в Pro). На Terminal-Bench 2.0 показывает 82.7% против 69.4% у Opus 4.7. Дорого, но честно — увеличение цены объявлено заранее.
DeepSeek
24 апреля DeepSeek опубликовал V4 в двух версиях:
- V4-Flash: $0.14 / $0.28 за миллион токенов (вход / выход), 1M контекст. В 5-7 раз дешевле подписочного эквивалента Anthropic на сопоставимых задачах.
- V4-Pro: $1.74 / $3.48 за миллион токенов, 1.6T параметров (49B активных).
Обе модели — Apache 2.0, веса на Hugging Face. API совместим и с OpenAI ChatCompletions, и с Anthropic-форматом. Прямая интеграция с Claude Code, OpenClaw, OpenCode заявлена в техрепорте.
Если у вас задачи, где Claude Pro/Max сейчас не вытягивает — миграция на V4-Flash через OpenClaw может сэкономить 80-90% бюджета на AI.
Локальные модели
20 апреля Alibaba выложила Qwen 3.6 35B-A3B и 27B (квантованную). Apache 2.0. На M3 MacBook Pro 27B-версия работает локально, без API-затрат и без подписочных лимитов. По кодовым бенчмаркам — близко к Opus, по слабым местам отстаёт. Для типовых задач команды — рабочий вариант.
Что делать сейчас
Если вы платите за Claude Pro или Max:
- Проверьте — лимиты вам ресетнули с 23 апреля. Если не видите — обновите клиент.
- Зафиксируйте baseline. Возьмите три типовые задачи: текстовую (саммари 5K слов до 500), агентную (поиск в трёх источниках + сборка таблицы), мультимодальную (распарсить скриншот в текст). Замерьте время, токены, субъективное качество.
- Раз в неделю прогоняйте те же три задачи. 15 минут. Это ваша личная радарная система против тихой деградации.
Если рассматриваете миграцию:
- DeepSeek V4 Flash — для большинства SMB-задач. Сэкономит 80-90% бюджета. Подключается через OpenClaw / OpenCode.
- GPT-5.5 — для сложных кодовых задач, если бюджет позволяет. Без скрытой деградации, всё прозрачно.
- Qwen 3.6 27B локально — для команды до 5 человек, у которых задачи укладываются в M3 Pro.
Если строите AI-инфраструктуру в команде:
- Не привязывайтесь жёстко к одному вендору. План B на Anthropic-стек — DeepSeek API через тот же интерфейс. Это занимает день настройки.
- Регресс-тест должен быть автоматизирован. Раз в неделю запускается, фиксирует метрики, шлёт алёрт при отклонении более 20%.
- Учите команду читать постмортемы вендоров. Anthropic подал прецедент — дальше это будет норма.
Главное
Anthropic совершил беспрецедентный жест: публично признал два месяца поставки дефектного продукта и вернул лимиты подписчикам. Это правильно.
Но за этим жестом — структурный сдвиг. Compute-shortage у frontier-вендоров не уйдёт в 2026. Цены будут расти. Объявленный рост — отдельная история, на неё рынок реагирует. Скрытый рост через дефолты, токенизаторы, объёмы аутпута — то, что происходит прямо сейчас.
Ваша задача как покупателя — иметь радар. Три задачи, раз в неделю, 15 минут. Альтернативы под рукой: DeepSeek V4 Flash, GPT-5.5, локальный Qwen. Это не паранойя. Это нормальная гигиена работы с подписочным AI в 2026.
Больше разборов AI для бизнеса - в Telegram: Telegram
Tier 1 (первичные):
- Anthropic Engineering — April 23 postmortem — все детали трёх багов, цитата verbosity-промпта, цифра −3% по внутренним evals.
- DeepSeek V4 Tech Report (HuggingFace) — официальные цены и архитектура.
- OpenAI: Introducing GPT-5.5 — Terminal-Bench 2.0 цифры, цены, Codex policy.
Tier 2: 4. simonwillison.net — Opus 4.7 tokenizer measurements — замеры инфляции токенизатора +1.46×. 5. VentureBeat — DeepSeek V4 1/6 cost vs Opus 4.7 — независимое сравнение цен. 6. The Decoder — Anthropic confirms Claude Code problems — независимый разбор постмортема. 7. Bloomberg — DeepSeek V4 unveiling — контекст.