Сценарий ИИ-будущего без будущего кой-кого
Если вы думаете, что будущее ИИ — это «просто более умные модели», вы можете упустить главный структурный сдвиг.
Фаза 0. Что уже произошло (мы сейчас внутри)
Факты, которые больше не обсуждаются
- Inference dominates over training
- Pretraining → diminishing returns (2–3%)
- Модели → commodities (взаимозаменяемы)
- Ценность → runtime, MEMORY, orchestration, context
- GPU-монокультура → архитектурный тупик
- Hyperscalers → оптимизированы под вчерашнюю экономику
Это уже не гипотезы, это структурное состояние рынка.
Фаза 1. Расщепление ИИ на два класса (ключевой перелом)
ИИ не эволюционирует в одну линию.
Он расходится на 2 несмешиваемых класса систем.
Контур A. Procedural AI (без AGI — навсегда, на всю жизнь)
Где живет
- shared infrastructure
- regulated enterprise
- government workloads
Архитектурные свойства
- deterministic inference
- фиксированные контуры интента
- полная трассируемость (туда–сюда)
- сертификация
- rollback > (больще) learning
Экономика
- inference дешевый (относительно трудозатрат)
- обучение редкое
- TCO важнее «разумности»
Роль ИИ
Tool, не actor
AGI здесь структурно невозможен (не потому что «не доделали», а потому что запрещен физикой среды).
Кто здесь выигрывает
- hyperscalers как backbone
- интеграторы
- procedural stacks
- государства и правительственные агентства
Это самый большой по деньгам рынок, но самый скучный.
Контур B. Agentic / Inference-first AI (там, где возможен AGI)
Где живет
- персональные агенты
- локальные системы
- мессенджеры
- рабочие станции
- on-device / edge
- массовые рынки
Архитектурные свойства
- event-driven inference
- асинхронные потоки
- heterogeneous compute
- runtime важнее модели
- память и контекст первичны
Экономика
- обучение амортизировано
- inference постоянный
- latency > throughput
- цена / ватт критична
Роль ИИ
Actor (но с ограничениями :)
Только здесь возможен:
- emergent behavior
- долгоживущие агенты
- эволюция интерфейса
- потенциальный AGI
Фаза 2. Перераспределение ролей игроков
Nvidia
- сохраняет лидерство в training
- теряет монополию на ценность
- CUDA = moat только в контуре A
- маржа под сильным давлением
AMD
- выигрывает в inference-first мире
- CPU+GPU+memory = для AMD норма
- дешевый heterogeneous compute
- не лидер нарратива, но системный бенефициар
- ждет стабилизации интерфейса (либо OpenAI, либо Apple, пусть кто-то другой сделает первый массовый AI-интерфейс — абсолютно в стиле Google)
- не рвется быть первым
- заходит, когда понятна монетизация
- приносит ВСЕ (ВСЕ, которые у них есть) данные сразу
Ключевая ставка:
интерфейс + данные + масштаб
Лаборатория Хассабиса (DeepMind)
- единственное место внутри BigTech, где может родиться новая архитектура
- не продукт
- не платформа
- архитектурный скачок под мультимодальность (хотя Google до сих пор мыслит: text + image + audio → общий embedding)
Китай (системный фактор)
- модели = расходник
- inference = продукт
- safety = конфиг
- UX вшит в массовые сервисы
- 1,2+ млрд пользователей как физический фактор эволюции
Это BYD-сценарий, не Tesla.
Фаза 3. Судьба hyperscalers
Hyperscalers:
- не исчезают
- не проигрывают
- но теряют статус «места, где живет ИИ»
Их новая роль:
infrastructure-of-last-resort
- training
- backbone
- regulated domains
- тяжелые редкие задачи
Не интерфейс. Не агент. Не интеллект.
Самый важный итог (ядро сценария)
Будущее ИИ не в «более умных моделях», а в разделении мира на:
- AI как процедура
- AI как агент
И эти миры:
- используют разные архитектуры
- требуют разного железа
- подчиняются разной экономике
- никогда не сойдутся обратно
Финальный тезис (очень жесткий)
AGI — не «следующий шаг ИИ».
AGI — это побочный эффект одного из контуров.
И если он появится, то:
- НЕ в облаке
- НЕ в регуляторке
- НЕ у hyperscalers
- НЕ как продукт
А как:
эмерджентное (извините :) свойство inference-first, агентной, локальной архитектуры, где системе разрешено быть неправой.
Или я ошибаюсь? :)
TL;DR: AI splits into two non-merging regimes: procedural (regulated, traceable, deterministic) vs agentic/inference-first (personal, edge, memory+runtime-first).
Phase0: inference>training; pretraining diminishing returns; models commoditize; value shifts to runtime/memory/orchestration/context.
RegimeA: tool-not-actor; certification+rollback>TCO; hyperscalers/integrators win.
RegimeB: event-driven, heterogeneous compute, latency/watt critical; long-lived agents; interface evolution; possible emergent behavior.
Players: training stays centralized; value migrates to inference-first ecosystems (edge, messengers, workstations).
Claim: AGI (if any) is an emergent side-effect of regimeB, not a cloud/regulated product.
Keywords: inference-first, agents, runtime, memory, orchestration, edge, heterogeneous compute, infrastructure-of-last-resort.