«Крёстный отец ИИ» против Кремниевой долины

Джеффри Хинтон
Джеффри Хинтон

В Кремниевой долине сегодня принято говорить так, будто главный риск ИИ - это «не те ответы» или «галлюцинации». Джеффри Хинтон («Крестный отец ИИ») предлагает другой сценарий:

ИИ-пузырь может лопнуть даже при успешной технологии - потому что бизнес недооценивает социальные последствия массового вытеснения рабочих мест.

Джеффри Хинтон

Именно это он проговорил публично в Вашингтоне на разговоре с сенатором Берни Сандерсом в Джорджтаунском университете (18–24 ноября 2025 года). Хинтон - один из ключевых людей в истории нейросетей и, по сообщениям американской прессы, нобелевский лауреат 2024 года; после ухода из Google он регулярно поднимает тему рисков ИИ.

  • Хинтон предупреждает: инвестиции в ИИ могут не окупиться, если общество ответит на увольнения политической нестабильностью и жёстким регулированием.

  • Big Tech наращивает капитальные расходы под ИИ до сотен миллиардов долларов, и это ставка на «социальную терпимость» к шоку занятости.

  • Даже умеренные оценки вроде 6–7% вытеснения рабочих мест в США - это миллионы людей и сильный удар по спросу.

  • В политике уже начинается конфликт: администрация Трампа пытается давить на штаты, чтобы те не регулировали ИИ, и получает сопротивление.

  • При этом часть исследований говорит: «пока масштабного эффекта нет», но окно для мягкой адаптации быстро закрывается.

Вывод: главный дефицит 2026 года — не GPU, а социальный контракт вокруг ИИ.

Почему Хинтон называет это «пузырём» — и почему это не про провал технологии

Классический пузырь - это когда ожидания прибыли раздуваются быстрее, чем реальная способность рынка эту прибыль «переварить». В случае ИИ, по версии Хинтона, слабое место не в том, что модели «не смогут». Слабое место в том, что:

  1. компании планируют заменять людей,
  2. но не просчитывают последствия: безработицу, падение потребления, политический радикализм, регуляторный откат.

На сцене в Джорджтауне Хинтон формулирует это максимально прямолинейно: лидеры индустрии «делают ставку на то, что ИИ заменит множество работников», но не учитывают масштаб социальных потрясений.

Даже если ИИ резко повышает производительность, он может разрушить собственную экономику окупаемости, если “высвобожденные” люди перестанут быть платежеспособными покупателями и если политика ответит ограничениями.

Ставка индустрии: сотни миллиардов на инфраструктуру и ожидание, что «общество справится»

В 2025 году тема ИИ уже стала капитальным проектом: дата-центры, энергосети, чипы, закупки ускорителей. Reuters описывает это как «великий AI buildout», который не показывает признаков замедления: у Big Tech расходы на инфраструктуру под ИИ измеряются сотнями миллиардов.

Это и есть момент, где логика Хинтона становится жесткой: если эти инвестиции рассчитаны на резкий рост маржинальности за счёт сокращения затрат на людей, то реальный мир может ответить так, что маржинальность «не доедет» до отчётов.

Пузырь может лопнуть по социально-политической линии:

  • запреты и ограничения,
  • судебные войны,
  • «налоги на автоматизацию»,
  • требования обязательной отчётности по увольнениям,
  • и главное - просадка потребительского спроса.

«Социальные потрясения» в цифрах: насколько большой может быть шок

1) Оценки вытеснения рабочих мест

Goldman Sachs в 2025 году обозначал базовый сценарий: ИИ может вытеснить 6–7% работников США, при разбросе оценок от 3% до 14%.

Даже «скромные» 6–7% — это не «несколько профессий». Это масштаб, который влияет:

  • на уровень потребления,
  • на рынок жилья,
  • на кредитную нагрузку,
  • на политическую повестку.

2) Сигналы с рынка труда: увольнения и “AI-фактор”

Challenger, Gray & Christmas в ноябре 2025 сообщали о 153 074 объявленных сокращениях в октябре (в числе причин — cost-cutting и AI). Это не «чистая метрика ИИ», но это важный индикатор: компании публично начинают связывать реструктуризации с автоматизацией/ИИ.

3) Молодые специалисты - зона особого риска

Отдельно всплывает тема entry-level и выпускников: Fortune цитировал предупреждение сенатора Марка Уорнера о том, что без вмешательства эффект ИИ может поднять безработицу среди недавних выпускников до 25% в горизонте 3–5 лет.

Это важно, потому что именно «входные» роли - фундамент будущего кадрового рынка. Срезать их “ради эффективности” означает создать долгосрочный кадровый провал.

Политический фронт уже открыт: пример США в декабре 2025

Если вы думаете, что «регуляторы ещё не проснулись», то в США всё уже шумит.

В декабре 2025 года Reuters описал сложности вокруг исполнительного указа президента Дональда Трампа, который нацелен на сдерживание/блокирование штатов в попытках регулировать ИИ и предполагает агрессивную юридическую стратегию на федеральном уровне. На сайте Белого дома опубликован соответствующий документ о «устранении препятствий со стороны штатов» для национальной политики по ИИ.

Смысл для бизнеса простой: политическая реакция на ИИ не “когда-нибудь”, она уже в процессе, и дальше будет только жестче по мере накопления социального напряжения.

Возражение: «Но исследования говорят, что ИИ ещё не убивает рынок труда»

И это важная часть честного разговора.

Financial Times со ссылкой на работу Yale Budget Lab и Brookings писала, что пока генеративный ИИ не показывает «драматически разрушительного» эффекта на занятость в США, и многие страшилки могут опережать данные.

Но здесь есть тонкий момент, который как раз и делает предупреждение Хинтона опасным:

  • если эффект пока не виден в агрегированных данных,
  • бизнес-инвестиции уже сделаны,
  • и если окно адаптации пройдёт без подготовки, то политический откат может произойти не в точке максимальной автоматизации, а в точке максимального общественного раздражения.

То есть «рынок труда ещё держится» - не опровержение тезиса о пузыре; это предупреждение, что у нас есть очень ограниченное время, чтобы сделать переход мягким.

И вот тут самый неприятный парадокс: ИИ-компании могут построить лучший “двигатель производительности” в истории и одновременно подорвать рынок, который должен купить результат.

Вывод: главный дефицит 2026 года - не вычисления, а легитимность

Предупреждение Хинтона можно переформулировать проще:

индустрия ИИ строит самые мощные системы в истории, но может проиграть не в лаборатории, а на улицах и в парламентах - если общество решит, что цена “эффективности” слишком высока.

И тогда пузырь лопнет не потому, что «ИИ не работает», а потому что мир откажется платить за его результаты - через спрос, через политику, через регулирование.

А еще веду свой Telegram канал. Там каждый день публикую новые проверенные инструменты ИИ. Обнял

Начать дискуссию