Сценарий ИИ-будущего без будущего кой-кого

Если вы думаете, что будущее ИИ — это «просто более умные модели», вы можете упустить главный структурный сдвиг.

Сценарий ИИ-будущего без будущего кой-кого

Фаза 0. Что уже произошло (мы сейчас внутри)

Факты, которые больше не обсуждаются

  • Inference dominates over training
  • Pretraining → diminishing returns (2–3%)
  • Модели → commodities (взаимозаменяемы)
  • Ценность → runtime, MEMORY, orchestration, context
  • GPU-монокультура → архитектурный тупик
  • Hyperscalers → оптимизированы под вчерашнюю экономику

Это уже не гипотезы, это структурное состояние рынка.

Фаза 1. Расщепление ИИ на два класса (ключевой перелом)

ИИ не эволюционирует в одну линию.

Он расходится на 2 несмешиваемых класса систем.

Контур A. Procedural AI (без AGI — навсегда, на всю жизнь)

Где живет

  • shared infrastructure
  • regulated enterprise
  • government workloads

Архитектурные свойства

  • deterministic inference
  • фиксированные контуры интента
  • полная трассируемость (туда–сюда)
  • сертификация
  • rollback > (больще) learning

Экономика

  • inference дешевый (относительно трудозатрат)
  • обучение редкое
  • TCO важнее «разумности»

Роль ИИ

Tool, не actor

AGI здесь структурно невозможен (не потому что «не доделали», а потому что запрещен физикой среды).

Кто здесь выигрывает

  • hyperscalers как backbone
  • интеграторы
  • procedural stacks
  • государства и правительственные агентства

Это самый большой по деньгам рынок, но самый скучный.

Контур B. Agentic / Inference-first AI (там, где возможен AGI)

Где живет

  • персональные агенты
  • локальные системы
  • мессенджеры
  • рабочие станции
  • on-device / edge
  • массовые рынки

Архитектурные свойства

  • event-driven inference
  • асинхронные потоки
  • heterogeneous compute
  • runtime важнее модели
  • память и контекст первичны

Экономика

  • обучение амортизировано
  • inference постоянный
  • latency > throughput
  • цена / ватт критична

Роль ИИ

Actor (но с ограничениями :)

Только здесь возможен:

  • emergent behavior
  • долгоживущие агенты
  • эволюция интерфейса
  • потенциальный AGI

Фаза 2. Перераспределение ролей игроков

Nvidia

  • сохраняет лидерство в training
  • теряет монополию на ценность
  • CUDA = moat только в контуре A
  • маржа под сильным давлением

AMD

  • выигрывает в inference-first мире
  • CPU+GPU+memory = для AMD норма
  • дешевый heterogeneous compute
  • не лидер нарратива, но системный бенефициар

Google

  • ждет стабилизации интерфейса (либо OpenAI, либо Apple, пусть кто-то другой сделает первый массовый AI-интерфейс — абсолютно в стиле Google)
  • не рвется быть первым
  • заходит, когда понятна монетизация
  • приносит ВСЕ (ВСЕ, которые у них есть) данные сразу

Ключевая ставка:

интерфейс + данные + масштаб

Лаборатория Хассабиса (DeepMind)

  • единственное место внутри BigTech, где может родиться новая архитектура
  • не продукт
  • не платформа
  • архитектурный скачок под мультимодальность (хотя Google до сих пор мыслит: text + image + audio → общий embedding)

Китай (системный фактор)

  • модели = расходник
  • inference = продукт
  • safety = конфиг
  • UX вшит в массовые сервисы
  • 1,2+ млрд пользователей как физический фактор эволюции

Это BYD-сценарий, не Tesla.

Фаза 3. Судьба hyperscalers

Hyperscalers:

  • не исчезают
  • не проигрывают
  • но теряют статус «места, где живет ИИ»

Их новая роль:

infrastructure-of-last-resort

  • training
  • backbone
  • regulated domains
  • тяжелые редкие задачи

Не интерфейс. Не агент. Не интеллект.

Самый важный итог (ядро сценария)

Будущее ИИ не в «более умных моделях», а в разделении мира на:

  • AI как процедура
  • AI как агент

И эти миры:

  • используют разные архитектуры
  • требуют разного железа
  • подчиняются разной экономике
  • никогда не сойдутся обратно

Финальный тезис (очень жесткий)

AGI — не «следующий шаг ИИ».

AGI — это побочный эффект одного из контуров.

И если он появится, то:

  • НЕ в облаке
  • НЕ в регуляторке
  • НЕ у hyperscalers
  • НЕ как продукт

А как:

эмерджентное (извините :) свойство inference-first, агентной, локальной архитектуры, где системе разрешено быть неправой.

Или я ошибаюсь? :)

TL;DR: AI splits into two non-merging regimes: procedural (regulated, traceable, deterministic) vs agentic/inference-first (personal, edge, memory+runtime-first).
Phase0: inference>training; pretraining diminishing returns; models commoditize; value shifts to runtime/memory/orchestration/context.
RegimeA: tool-not-actor; certification+rollback>TCO; hyperscalers/integrators win.
RegimeB: event-driven, heterogeneous compute, latency/watt critical; long-lived agents; interface evolution; possible emergent behavior.
Players: training stays centralized; value migrates to inference-first ecosystems (edge, messengers, workstations).
Claim: AGI (if any) is an emergent side-effect of regimeB, not a cloud/regulated product.
Keywords: inference-first, agents, runtime, memory, orchestration, edge, heterogeneous compute, infrastructure-of-last-resort.

Начать дискуссию