Скрытая инфляция AI-подписок: 5 каналов, по которым ваш счёт растёт без объявлений
Что произошло за 14 дней
Опубличный прайс Anthropic в апреле не менялся. Подписки Pro и Max стоят те же $20 / $100 / $200. ChatGPT Plus стоит те же $20. Но за это время цена задачи у обоих вендоров выросла, без единого пресс-релиза.
Если у вас на Claude Code или Codex привязана работа, вы это уже почувствовали как «лимиты сгорают быстрее» или «модель тупит». Если у вас работает команда из 10 человек, почувствовали умножением на 10.
Это не разовый сбой и не один баг. Это пять параллельных каналов, по которым подписочная экономика frontier-моделей перестаёт сходиться. Вендоры не могут поднять цены явно, рынок смотрит. Поэтому они поднимают их тихо. Каждый канал по отдельности, мелочь. Все пять вместе, рост стоимости задачи на десятки процентов.
Разберу с источниками.
Канал 1. Per-seat → usage → outcome
Goldman Sachs в апрельском исследовании [State of AI Compute 2026] описывает массовую миграцию AI-вендоров с per-seat прайсинга на usage-based и outcome-based. OpenAI, Anthropic, Salesforce Agentforce, ServiceNow, все либо мигрировали, либо тестируют.
Что меняется для покупателя. При per-seat вы платили фиксированно за пользователя. Активность не учитывалась. При usage-based вы платите за каждый вызов API, токен, минуту вычислений. Активный сотрудник вместо $20 в месяц теперь стоит $80-120, в зависимости от стека.
Это первый и самый явный канал. Его обсуждали все.
📎 Источник: Goldman Sachs Q1 2026 enterprise software report (Tier 1, через эфир TheInformation 20.04). Подтверждение: одновременный анонс success-fee Salesforce Agentforce 2.1 + ServiceNow agent-pricing 21.04.
Канал 2. Инфляция токенизатора
Саймон Уиллисон 23 апреля опубликовал замеры: одинаковый системный промпт на Claude Opus 4.7 потребляет в 1.46 раза больше токенов, чем тот же промпт на Opus 4.6. На обычном тексте, 1.0-1.35×. На системных промптах, 1.46×.
Прайс при этом не менялся. $15 / $75 за миллион токенов на Opus 4.7, те же, что и на 4.6. Но миллион токенов теперь содержит на 30% меньше реальной информации. То есть скрытый рост стоимости задачи: +30-46%.
Уиллисон, recognized expert, его методология открыта, замеры воспроизводимы. Сообщество подтвердило цифры на других кодовых базах.
📎 Источник: simonwillison.net, 23 April 2026 (Tier 2, recognized expert с воспроизводимой методологией).
Канал 3. Зажим аутпута
24 апреля Anthropic выпустил постмортем за апрель. В нём официально подтверждено: 16 апреля компания добавила в системный промпт Claude Code инструкцию «не больше 25 слов между tool calls, не больше 100 слов в финальном ответе».
Внутренние evals Anthropic показали: эта одна инструкция уронила качество кода на 3% и на Opus 4.6, и на 4.7. Откатили 20 апреля.
Что это значит. На фиксированной цене за токен (по подписке, на фиксированных лимитах) вы получали ответ короче и хуже. Каждый запрос требовал больше итераций для того же результата. Скрытая стоимость задачи выросла, потому что вам нужно было задать на 1-2 follow-up больше.
📎 Источник: Anthropic Engineering, April 23 postmortem (Tier 1, прямое признание вендора).
Канал 4. Удушение Pro-агентов
22 апреля Anthropic начал A/B-тест: исключить Claude Code из Pro-подписки у 2% юзеров. Объяснение, «подписки изначально не были рассчитаны на запуск многочасовых агентных задач». OpenAI на это публично заявил: доступ к Codex остаётся у Free и Plus подписок.
Что это значит. Самая дорогая по compute часть Claude, агентные сессии с долгим ризонингом, постепенно выводится из подписочного покрытия. Тестирование на 2%, это не «вдруг придумали». Это первый шаг последовательного отключения. Если у вас в работе автоматизации на Claude Code, ваш сценарий миграции, на usage-based ценник, который дороже подписки в разы.
📎 Источники: @ai_newz Telegram 22.04 (Tier 2), официальный твит @ClaudeDevs подтверждает 2% тест. OpenAI ответ, twitter.com/OpenAI 22.04.
Канал 5. Контролируемая деградация дефолтов
Тот же постмортем 24 апреля. 4 марта Anthropic переключил дефолтное значение reasoning effort в Claude Code с high на medium. Без объявления, без in-product дисклеймера на старте. Цель, убрать длительные паузы в UI.
Что это значит. Те же модели Opus 4.6 и Sonnet 4.6, другая дефолтная настройка. На сложных задачах модель «тупит» именно потому, что её попросили думать меньше. Если вы заметили снижение качества с начала марта и решили, что модель «деградировала», это была не модель, это был дефолтный пресет.
Anthropic честно признал это «неправильным выбором» (their words) и откатил 7 апреля. Но месяц с лишним пользователи получали худший продукт за те же деньги.
📎 Источник: Anthropic Engineering postmortem (Tier 1).
Что объединяет все пять каналов
Цена в долларах за подписку или за миллион токенов, публичная переменная. Вендоры её не трогают, потому что любое повышение тут же попадает в статьи и обсуждение.
Качество дефолта, плотность токенизатора, длина аутпута, состав покрытия подписки, всё это полупубличные переменные. Их меняют тихо. Часть, по техническим причинам, часть, по экономическим. Эффект для покупателя одинаковый: за те же деньги вы получаете меньше.
Anthropic, не уникальный пример. Это первый вендор, который сделал прозрачный постмортем с ресетом лимитов. Это и есть ценная новость. Дальше каждый кейс silent regression будет читаться через эту рамку: «либо вы делаете публичный постмортем, либо вы прячете».
Что делать прямо сейчас
1. Возьмите три контрольные задачи. Одну текстовую (саммари статьи 5K слов до 500), одну агентную (например, найти что-то в трёх источниках и собрать в таблицу), одну multimodal (распарсить скриншот документа в текст).
2. Замерьте на каждой: время выполнения, количество токенов входа и выхода, субъективное качество (1-5), количество follow-up для финального результата.
3. Сохраните baseline. Один прогон сегодня. Цифры, в Google Sheet или Notion.
4. Раз в неделю, повторяйте те же три задачи. Сравнивайте с baseline. Это занимает 15 минут.
5. Триггер на действие: падение по любой метрике на 20% подряд две недели = время для разговора с вендором или миграции. Падение на 40% за неделю = уже мигрируйте, не ждите постмортема.
Альтернативы по состоянию на 25 апреля 2026:
- DeepSeek V4 Flash, $0.14 / $0.28 за миллион токенов, 1M контекст. В 5-7 раз дешевле Anthropic Pro по аналогичным задачам.
- Qwen 3.6 27B / 35B-A3B, open weights, MacBook Pro M3 тянет квантованный 27B. Apache 2.0.
- GPT-5.5, дороже Anthropic ($5/$30 за стандарт, $30/$180 за Pro), но прирост на сложных кодовых задачах ощутимый. И никто пока не делал тихих ретроактивных дефолт-понижений.
Что было главным
Anthropic не злодей. Anthropic, лидер рынка, который первым опубликовал честный постмортем и вернул лимиты. Это правильный жест.
Но за этим жестом видна структурная история. Подписочная экономика frontier-моделей не сходится. Compute-shortage в 2026 не уйдёт. Все пять каналов скрытой инфляции, следствие того, что вендорам нужно балансировать книги без открытого роста цен.
Ваша работа как покупателя, иметь радар. Три задачи, раз в неделю, 15 минут. Это не паранойя. Это нормальный режим работы с подписочным AI в 2026.
Больше разборов AI для бизнеса - в Telegram: Telegram
Источники (полный список)
Tier 1 :
- Anthropic Engineering, April 23 postmortem, все детали трёх багов, цитата verbosity-промпта, цифра −3% по evals.
- Goldman Sachs Insights, enterprise software pricing, миграция per-seat → usage.
- @ClaudeDevs (X), официальный канал Anthropic для технических объявлений, апрельские треды.