После хайпа: ИИ-плато, а не скорая сингулярность

После хайпа: ИИ-плато, а не скорая сингулярность

В начале 2026 года мир искусственного интеллекта переживает странную двойственность: с одной стороны — громкие заявления о том, что искусственный общий интеллект (AGI) вот-вот наступит, а с другой — более приземленная реальность технологии, которая пока не решает многих совершенно базовых инженерных задач. И вот здесь возникает центральный вопрос: если технический прогресс действительно идет в нужном направлении и в прогнозируемом темпе, то почему ключевые свойства универсального работника — надежность, воспроизводимость, предсказуемость — так плохо видны в реальных внедрениях современных LLM?

Главным событием начала года стал AI Impact Summit 2026 в Нью-Дели, где генеральный директор OpenAI Сэм Альтман публично рассуждал о том, что «AGI очень близко» и что первые формы сверхинтеллекта могут появиться в ближайшие несколько лет, вплоть до 2028 года, когда вычислительная мощность дата-центров может превысить суммарный человеческий интеллект планеты.

Подобные заявления легко попадают в заголовки, но за этими словами скрывается опасный разрыв между показным медиа-оптимизмом и инженерной реальностью: прогресс демонстрационных моделей на специально подобранных графиках не обязательно означает, что мы приближаемся к AGI по всем ключевым параметрам, которые потребовала бы настоящая «универсальная интеллектуальная система». Эта статья — не попытка опровергнуть достижения ИИ, они очевидны, но усилие ясно разделить: где действительно есть прогресс, а где — лишь маркетинговое усиление интерпретаций.

Центральный вопрос: что именно обещают — и что на самом деле нужно, чтобы это стало правдой

Публичные прогнозы про «AGI скоро» обычно звучат так, будто речь идет о банальной скорости улучшения моделей: больше знаний, лучше ответы, больше «агентности» (что бы ни вкладывалось сейчас в это расплывчатое понятие). Но заранее прогретая аудитория редко слышит вторую половину уравнения: AGI — это не про «иногда случается прорыв», а про «стабильно и регулярно», причем в реальном, грязном мире, где нет идеальных тестов, нет однозначного критерия успеха и где ошибки стоят денег, репутации или угроз безопасности (большой привет регулярным скандалам вокруг использования OpenClaw).

На саммитах в 2026 году те же лидеры индустрии говорили о близости мощных систем, одновременно подчеркивая необходимость осторожности и регулирования — то есть признавая, что мы имеем дело с технологией, где ставки высоки, а поведение систем по-прежнему не укладывается в комфортные рамки. Это автоматически подводит нас к инженерной развилке, которая будет лейтмотивом дальше: возможно, мы пускай и растем в возможностях, но гораздо медленнее — в контролируемости. И если так, то «AGI уже завтра» превращается не в прогноз, а в лозунг: красивый, полезный для конкретных игроков рынка, но инженерно недостижимый.

Почему это важно прямо сейчас: деньги, профессии и стратегические ставки

Дискуссия об AGI в 2026 году — это уже не академический спор о терминах. Это вопрос распределения триллионов долларов инвестиций, многолетних планов корпораций и карьерных решений миллионов людей. Крупнейшие технологические компании продолжают наращивать мощности дата-центров, закупать ускорители и заключать долгосрочные энергетические контракты — все это оправдывается ожиданием дальнейшего скачка возможностей ИИ. Но если прирост окажется в разы, а не на порядки, то меняется вся экономика: сроки окупаемости, масштаб достижимой автоматизации, объем вытесняемых профессий и даже устойчивость самих бизнес-моделей.

Для инженеров, предпринимателей и инвесторов вопрос звучит особенно прагматично: строить ли продукты под текущие ограничения или ждать их скорого снятия? Если верить в скорый качественный прорыв — разумно откладывать сложные архитектурные решения, рассчитывая, что год спустя все решится как-нибудь само, с выходом новой модели. Если же мы находимся в верхней части s-образной кривой, где рост замедляется, то подобные революционные ожидания становятся стратегической ошибкой. Именно поэтому столь важно отличать реальный технологический тренд от его медийной интерпретации: цена неверного прогноза сегодня выше, чем когда-либо.

Чтобы понять, почему риторика «суперинтеллект уже близко» звучит так настойчиво, следует пристально взглянуть не только на технологию, но и на экономику. 2026 год станет рекордным по инвестициям в ИИ-инфраструктуру: крупнейшие технологические компании планируют совокупные капитальные расходы порядка 700 млрд долларов только за этот год, причем значительная часть этих средств уйдет на дата-центры, графические ускорители и энергетику. В целом плановые мировые расходы на ИИ-проекты и сервисы оцениваются уже в триллионы долларов, а глобальная гонка за вычислительные мощности сравнивается аналитиками с крупнейшими инфраструктурными проектами прошлого, задевая в итоге даже нас, бытовых потребителей, безудержной гонкой цен на накопители и память.

В такой ситуации заявления о близости «большого скачка» выполняют вполне рациональную функцию: они поддерживают инвестиционный цикл. Когда отрасль вкладывает сотни миллиардов в новые центры обработки данных и специализированные чипы, рынку нужно объяснение, почему эти вложения окупятся. Поэтому нарратив о скором качественном прорыве становится не просто частным прогнозом, но непосредственной частью экономической логики: он удерживает доверие инвесторов, оправдывает масштабные расходы и создает ощущение, что гонка только начинается. Но именно здесь и возникает напряжение между риторикой и инженерной реальностью: чем больше денег и инфраструктуры уже вложено, тем сильнее стимул поддерживать ощущение продолжающегося экспоненциального роста — даже если сам рост начинает выглядеть все более неравномерным, труднодоказуемым и дорогим.

Экспонента как главный нарратив: почему она так убедительна

При 50% надежности к 2028 году агенты смогут автономно работать 2 суток
При 50% надежности к 2028 году агенты смогут автономно работать 2 суток

Ключевой образ последних лет — это экспоненциальная кривая: график, на котором возможности ИИ будто бы ускоряются сами по себе. Этот «взлет ракетой» появляется в презентациях компаний, аналитических отчетах и медиа-материалах, создавая ощущение, что мы находимся в процессе длящейся революции. Такие графики особенно убедительны, потому что они опираются на реальные улучшения: модели действительно стали лучше писать код, отвечать на вопросы и решать формализованные задачи. Но из этих улучшений часто делается более широкий вывод — будто интеллектуальность подобных систем как таковая растет по той же траектории.

Проблема в том, что маркетинг почти всегда выбирает удобную метрику. Она может показывать рост возможностей в одном узком измерении — например, в скорости выполнения конкретных типов задач или в количестве успешных демонстраций. При этом другие, не менее важные показатели — надежность, воспроизводимость, стоимость — остаются вне кадра. В результате создается ощущение непрерывного ускорения, даже если в реальных внедрениях рост уже выглядит более медленным и затратным. Экспонента становится не столько ложью, сколько плодом умолчания, частичной правдой, которая осознанно усиливает ожидания и сглаживает ограничения.

Среди множества метрик, которыми измеряют прогресс ИИ, есть одна, которая особенно часто используется как аргумент в пользу скорого качественного скачка. Речь идет о показателе длины задачи, которую модель способна выполнить автономно — без вмешательства человека — с определенной вероятностью успеха. Если смотреть на этот показатель в динамике последних лет, картина действительно впечатляет: модели стали справляться с задачами, которые раньше требовали минут человеческого времени, затем — часов, и, по оценкам ряда исследовательских групп, горизонт автономной работы продолжает расти. Визуально это выглядит как аккуратная экспонента, устремленная вверх.

Именно эта метрика создает ощущение растущей способности системы действовать самостоятельно на все более длинных отрезках работы. Но в таком виде график показывает только половину истории. Он измеряет, сколько времени модель может продержаться на задаче, но не отвечает на другой, гораздо более приземленный вопрос: насколько стабильно и предсказуемо она это делает в реальных условиях? Разница между «иногда справляется» и «надежно справляется» в инженерии огромна — и именно на этом различии в основном дальше и будет строиться дискуссия.

Вторая половина графика: где заканчивается эмоция и начинается инженерия

...а при 80% надежности — уже только 5 часов
...а при 80% надежности — уже только 5 часов

Если внимательно посмотреть на те же исследования автономной работы моделей, становится заметно, что впечатляющий рост обычно относится к сценарию «иногда удается». То есть модель может выполнить длинную задачу целиком — но не гарантированно, а с вероятностью, которая остается далекой от производственных стандартов. В реальной экономике важно не то, что система способна завершить проект один раз из двух, а то, что она делает почти всегда и предсказуемо. Именно здесь картина резко меняется: при требовании высокой надежности длина задач, которые система может довести до конца без ошибок, растет гораздо медленнее, а иногда почти не растет вовсе.

Это различие между «потенциалом» и «гарантированной эксплуатацией» и создает разрыв между красивой «демкой» и реальным внедрением. В демонстрации достаточно показать один удачный прогон, тогда как в реальном бизнесе любая длинная цепочка действий должна выдерживать десятки и сотни шагов без критического накопления ошибок. И чем длиннее такая цепочка, тем важнее становится вопрос: насколько каждая отдельная операция внутри нее надежна? Именно здесь инженерная перспектива начинает расходиться с оптимистичными интерпретациями графиков.

В любой сложной системе — от воронок продаж до производственных линий — итоговый КПД определяется не только качеством каждого элемента, но и длиной цепочки, в которую эти элементы выстроены. Если каждый шаг иногда ошибается, то при достаточно длинной последовательности вероятность пройти ее без единого сбоя падает очень быстро. Это не философское рассуждение о «недостатке интеллекта», а обычная статистика: даже редкая ошибка, повторенная десятки раз, становится почти неизбежной. Именно поэтому инженеры во всех областях стремятся либо резко повышать надежность каждого шага, либо сокращать длину автономных процессов.

Часто можно услышать контраргумент: если длинная цепочка действий ненадежна, ее можно просто разбить на более мелкие шаги и проверять каждый отдельно. На первый взгляд это выглядит разумно — именно так строятся многие современные системы вокруг ИИ. Но само по себе дробление не меняет базовой арифметики. Если каждый шаг остается несовершенным, то итоговая ошибка всей последовательности все равно будет зависеть от произведения этих несовершенств. Более мелкая нарезка упрощает анализ, но не отменяет того факта, что вероятность общего сбоя растет с длиной процесса.

Реальность как главное мерило любых фантазий

Настоящий выигрыш от любой автоматизации появляется только тогда, когда после каждого шага существует гарантированный способ определить, правильный он или нет, и при необходимости откатиться назад. А вот здесь и начинается главная сложность: в большинстве реальных задач такой «кнопки проверки и безболезненного отката» просто не существует даже в теории. Можно проверить, прошел ли код тесты, но невозможно автоматически проверить и, самое главное, задним числом откатить стратегию компании, коммуникацию с клиентом или корректность интерпретации бизнес-требований. Поэтому идея, что достаточно «грамотно разрезать задачу», часто оказывается слишком оптимистичной — она предполагает наличие точного критерия безошибочности и рабочего механизма коррекции ошибки, которого в реальном мире обычно попросту не существует.

Большая часть экономически значимой работы устроена так, что у нее нет простого критерия истины. В лабораторной задаче можно проверить результат на опыте, аналитической формулой или эталонным ответом. В реальном проекте все куда сложнее: требования меняются, данные неполны, последствия проявляются спустя время, а успех часто определяется совокупностью факторов. Именно поэтому многие задачи, которые люди решают ежедневно — от проектирования систем до управления продуктами — плохо поддаются автоматической проверке. И если нет надежного способа определить, что шаг выполнен корректно, любая ошибка может тихо распространиться дальше по цепочке.

Это обстоятельство радикально усложняет идею полной автономности гипотетического AGI. Там, где нет четкого критерия, невозможно просто «попробовать еще раз», пока не получится. Ошибка может выглядеть правдоподобно, а ее последствия — проявиться только через десятки шагов. В таких условиях даже очень сильная управленческая система оказывается ограничена: она может помогать, ускорять, предлагать решения, но не гарантировать корректный результат на длинной дистанции. И именно этот дефицит надежной проверки — а не недостаток вычислительной мощности — становится одним из ключевых тормозов на пути к универсальным автономным системам.

Прошу заметить, когда система ведет себя нестабильно, а критерии правильности размыты, неизбежно появляется ощущение, что все держится на личном опыте и интуиции отдельных специалистов. Вокруг современных ИИ-инструментов уже сформировалась знакомая картина: у одних людей «все работает», у других — нет, хотя формально они делают одно и то же (или по крайней мере так говорят). Это порождает феномен своеобразных «гуру», которые будто бы умеют управлять моделями лучше остальных. На деле речь чаще идет не о магии (и пускай даже не о банальном вранье), а о накопленном опыте обращения с хрупкой системой, где множество скрытых факторов влияет на результат: формулировки задач, последовательность шагов, ограничения среды, точное владение инструментарием или узкие знания в конкретной предметной области.

Такая фаза типична именно для технологий, которые быстро выросли в возможностях, но еще не достигли полной инженерной зрелости. Пока поведение системы зависит от множества контекстных мелочей, воспроизводимость остается низкой, а предсказуемость — ограниченной. Это не значит, что прогресса нет; скорее, это признак переходного состояния, когда инструменты уже мощные, но еще не полностью покрыты наработанными практиками. Однако именно в такой фазе особенно легко переоценить стабильность и недооценить сложность масштабирования — и именно поэтому любой разговор о скором «универсальном интеллекте» требует крайней осторожности.

Экспонента возможностей и экспонента расходов

Другой важный фактор, который зачастую нарочно опускают в публичной риторике, — это цена прогресса. Улучшения моделей последних лет во многом сопровождались не только алгоритмическими находками, но и стремительным ростом вычислительных затрат, разогретым инвестициями. Новые поколения систем требуют все более крупных кластеров ускорителей, больше энергии, больше инфраструктуры. На уровне демонстраций это может выглядеть как чистый рост возможностей, но если нормализовать результаты на объем затраченных ресурсов, картина становится куда менее впечатляющей: значительная часть роста возможностей оказывается просто отражением еще большего роста накладных расходов.

Это не означает, что прогресс иллюзорен. Скорее, это напоминает о том, что технологические кривые редко растут сами по себе — за ними стоят экономические вложения, которые не могут увеличиваться бесконечно без последствий. Когда каждый следующий шаг требует кратно больше вычислений и энергии, темп улучшений начинает зависеть не только от идей, но и от банальной доступности ресурсов. И если эффективность — то есть полезный результат на единицу вычислений — растет медленнее, чем сами затраты, то рано или поздно экспонента возможностей превращается в ту самую s-образную кривую: быстрый рост сменяется фазой насыщения и стагнации.

Для широкой аудитории технологический прогресс часто выглядит как линейка все более сильных систем: новая модель мощнее предыдущей, значит движение продолжается. Но инженеры обычно смотрят на другой показатель — сколько полезной работы удаётся получить на единицу ресурсов. Если система стала вдвое «умнее», но требует в четыре раза больше вычислений и энергии, то ее реальная эффективность на самом деле снизилась. В краткосрочной перспективе это может быть незаметно: крупные компании готовы покрывать рост затрат, заливая их деньгами инвесторов, чтобы продолжать оставаться на передовой. Однако в долгосрочной экономике именно эффективность определяет, что станет массовым стандартом, а что останется лишь очередной дорогой демонстрацией возможностей в популярном жанре we are so cooked.

Когда эффективность растет медленнее затрат, индустрия неминуемо начинает терять темп. Вместо резких скачков появляются осторожные обновления, вместо революций — оптимизация и сокращение издержек. Именно это мы сейчас и наблюдаем. Это нормальный этап зрелой фазы любой технологии: после периода быстрых открытий наступает период, в котором каждая новая единица прогресса требует все больше усилий. И именно на этом этапе особенно важно отделять реальные инженерные ограничения от впечатляющих, но узко выбранных показателей роста.

Смещение метрик: когда измеряют то, что проще измерить

Когда технологии быстро развиваются, возникает соблазн измерять прогресс там, где это легче всего сделать. Для современных ИИ-систем такими областями стали задачи с четкими критериями успеха: программирование с тестами, формальная логика, математические упражнения. В этих доменах можно объективно сравнить результаты разных поколений моделей, построить графики и показать уверенный рост. Но именно потому, что такие задачи хорошо формализованы, они и составляют лишь малую часть реального спектра человеческой деятельности.

Большая доля работы в экономике и науке не имеет столь ясных метрик. Там результат зависит от контекста, компромиссов и долгосрочных последствий. И если измерять прогресс только на формализуемых задачах, легко создать впечатление универсального ускорения. На практике же оказывается, что успехи в узких, хорошо проверяемых областях не всегда напрямую переносятся на сложные, открытые проблемы. График, который уверенно растет в одном измерении, может скрывать стагнацию или гораздо более медленный рост в другом.

Программирование стало одним из самых заметных полигонов для демонстрации возможностей современных моделей. Улучшения в автогенерации кода, прохождении тестов и решении алгоритмических задач действительно заметны и легко измеримы. Но важно помнить: программирование — это тот самый, особый тип деятельности, где задачи можно формализовать, а результат проверить автоматически. Там есть написанные заранее тесты (привет очередному компилятору C), продвинутая автопроверка синтаксиса и строгие критерии корректности результата. В таких условиях даже вероятностная система может выглядеть почти безошибочной — при условии, что ошибки быстро обнаруживаются и исправляются (на самом деле нет).

Нужны данные, больше данных, гораздо больше данных

Текущая ситуация на рынке сбора human-generated data
Текущая ситуация на рынке сбора human-generated data

Другой важный ограничитель на пути к возможному сверхинтеллекту — это банальный набор обучающих датасетов. По мере того как качественные человеческие данные становятся дефицитом, все чаще обсуждается идея обучать системы на контенте, который они сами же и генерируют. Это выглядит логичным: если модель умеет создавать тексты, код и решения, почему бы не использовать этот поток как дополнительный источник обучения? В отдельных областях, где результат легко проверить — например, в математике, компьютерных играх с их конечностью возможных исходов или программировании с готовыми тестами — такой подход действительно может ускорять прогресс, хотя и за счет безумного удорожания затраченных в процессе ресурсов.

Но в более открытых задачах ситуация сложнее: если система ошибается, ее ошибка может быть принята за новый сигнал и закреплена в обучении. Со временем это может привести к эффекту, когда ошибки начинают усиливать друг друга, а разнообразие решений — снижаться. Именно поэтому индустрия продолжает активно искать новые реальные данные, даже если они менее аккуратны и структурированы. Это косвенный признак того, что полностью полагаться на синтетические источники пока нельзя: они помогают, но не заменяют живой поток человеческого опыта. В результате прогресс все чаще зависит от способности находить новые, более сложные и редкие примеры — а это естественным образом замедляет темп роста и усиливает признаки насыщения.

Один из малозаметных, но показательных трендов последних лет — активный поиск все более нишевых и труднодоступных источников знаний, включая так называемый «нижний интернет». Если раньше (хотя тоже не без скандалов) достаточно было крупных открытых корпусов и публичных репозиториев, то теперь ценность приобретают редкие форумы, специализированные обсуждения, узкие сообщества, маргинальные медиасреды. Это если не признак кризиса, то уж точно симптом того, что «легкие данные» уже исчерпаны. Сам факт подобной охоты за «длинным хвостом» показывает: новые качественные сигналы становятся все труднее добывать. Это важный момент для понимания динамики прогресса.

Контекст как показатель потолка

Надежность извлечения данных из окна контекста у фронтирных моделей
Надежность извлечения данных из окна контекста у фронтирных моделей

Другой наглядный параметр, по которому также можно наблюдать текущую динамику, — это объем информации, который экономически осмысленная модель способна удерживать и обрабатывать одновременно. Какое-то время размер доступного контекстного окна рос быстро и стал символом прогресса: чем больше текста система может «держать в голове», тем сложнее задачи она потенциально решает. Но именно здесь особенно хорошо видно, как технический рост сталкивается с экономикой и практической пользой. После определенного порога увеличение контекста начинает приносить все меньше ощутимых преимуществ, тогда как вычислительные издержки растут квадратично масштабам улучшений.

В результате формируется своеобразный «рабочий диапазон»: объемы контекста, которые действительно используются массово и экономически оправданы, быстро стабилизируются. Более крупные значения остаются возможными как демонстрация возможностей или для специализированных сценариев, но не становятся повседневным стандартом. Это типичный признак стагнации технологии: максимальные показатели продолжают немного расти, но массовая практика фиксируется на уровне, где баланс между пользой и стоимостью оказывается оптимальным.

Интуитивно кажется, что если система может удерживать все больше информации одновременно, она постепенно приблизится к универсальной памяти и сможет работать как полноценный автономный агент. Но на практике длинный контекст — это дорогой и неэффективный способ хранения знаний. Чем больше данных система обрабатывает за один раз, тем выше нагрузка на вычисления и тем сильнее риск, что важные детали «размажутся» среди второстепенных. Поэтому инженеры все чаще приходят к выводу: эффективнее не бесконечно увеличивать контекст, а сочетать умеренный объем с внешними механизмами памяти и поиска. И да, мелкой итеративностью шагов.

Это похоже на архитектуру компьютеров: оперативная память ограничена, но система компенсирует это кэшами, базами данных и файловыми хранилищами. В ИИ-системах происходит нечто подобное. Вместо того, чтобы пытаться держать весь мир в одном контексте, они начинают полагаться на внешние источники, структурированные данные и повторные обращения. Такой подход позволяет обойти часть технических ограничений, но одновременно показывает: простое увеличение параметров или объема входных данных не обязательно ведет к качественному скачку интеллекта. Скорее, речь идет о более сложной инженерной архитектуре вокруг модели, чем о прямом росте ее внутренних возможностей, который становится неоправданно дорог.

И это нас подводит к экономической стороне дела. В публичных обсуждениях часто звучит тезис, что использование ИИ стремительно дешевеет. И действительно, базовые модели становятся доступнее, появляются более легкие версии, оптимизации снижают стоимость простых запросов. Но на переднем крае все выглядит иначе. Самые мощные системы требуют все больше вычислений на один осмысленный ответ: длинные цепочки рассуждений, обращение к внешним инструментам, обработка больших контекстов. В результате стоимость каждого такого интеллектуального шага — того, который действительно заменяет человеческую работу, — только растет от модели к модели.

Это создает двойственную картину. С одной стороны, массовое использование ИИ расширяется (и даже не всегда за счет безудержного дотирования со стороны щедрых инвесторов). С другой — сложные автономные сценарии до сих пор остаются предельно дорогими и требовательными к инфраструктуре. В такой ситуации рынок начинает разделяться: дешевые модели решают простые задачи, а передовые системы остаются ресурсно-интенсивными. И если стоимость сложного рассуждения не падает, то ожидание быстрого перехода к полностью автономным системам становится менее реалистичным: экономический фактор начинает играть не меньшую роль, чем технический.

Синхронные релизы и исчезновение технологических разрывов

Еще один любопытный признак насыщения текущей архитектуры LLM — синхронность релизов у лидеров как признак острой конкуренции на переднем крае. Если бы прогресс действительно шел по неудержимой экспоненте, логично было бы ожидать, что одна компания периодически вырывается вперед на порядок (как это бывало два или три года назад), создавая заметный технологический разрыв, который становится сложно впоследствии преодолеть. На практике же новые модели крупнейших игроков все чаще появляются чуть ли не в один день, а различия между ними измеряются процентами и нюансами. Это больше похоже на отрасль с общим технологическим фронтиром, чем на гонку, где один участник вот-вот убежит далеко вперед.

Еще одна свежая новость: Anthropic обвиняет китайские DeepSeek, Moonshot AI и MiniMax в краже своих технологий. Эти стартапы запустили процесс дистилляции Claude — так называют обучение менее мощной модели на ответах более сильной. Конец цитаты.

Если впереди настоящая, а не маркетинговая экспонента, то сегодняшняя модель через год станет устаревшей, значит зачем переживать за ее дистилляцию? Таким образом можно лишь сократить гэп с лидером, но не вырваться вперед в момент большого рывка. Это еще один признак в копилку грядущего технологического плато.

Такое выравнивание может означать, что ключевые методы масштабирования и архитектурные подходы уже хорошо известны, а дальнейшие улучшения становятся инкрементальными. Компании работают с похожими ограничениями по данным, вычислениям и инженерной сложности, поэтому темп их продвижения неминуемо оказывается сопоставимым.

Аналогия с квантовыми компьютерами

Иногда полезно взглянуть на ситуацию через аналогии из других технологических областей. Например, в квантовых вычислениях уже много лет регулярно объявляют о преодолении новых количественных порогов — больше кубитов, более сложные схемы, новые прототипы. Формально это огромный прогресс. Но переход от демонстраций к массовой практической полезности оказался куда сложнее: системы остаются дорогими, нестабильными и требующими сложной коррекции ошибок. Само по себе увеличение масштаба тут вовсе не гарантирует, что технология станет повседневной.

С искусственным интеллектом может происходить нечто похожее. Достижение очередного количественного рубежа — будь то размер модели, объем контекста или длина автономной задачи — производит сильное впечатление. Но на этом пути важны не только цифры, но и стабильность, воспроизводимость и стоимость. И если эти параметры улучшаются медленнее, чем растут показатели в презентациях, то реальный темп внедрения оказывается гораздо более умеренным, чем кажется по заголовкам.

Почему «новая архитектура» не возникает по расписанию

В ответ на подобные возражения обычно следует контраргумент: «появится новая архитектура — и все снова ускорится». История технологий действительно знает такие моменты: глубокое обучение в свое время вытеснило прежние методы, а трансформеры резко расширили возможности обработки текста, заложив основу современной волны LLM. Но важно помнить, что подобные сдвиги редко возникают «к круглой дате» или по мере накопления инвестиций. Они появляются как результат сочетания теоретических идей, экспериментальной проверки и конкретных инженерных решений — и их нельзя гарантировать только масштабом бюджета.

Сегодня в область ИИ вовлечены тысячи исследователей и огромные ресурсы. Это снижает вероятность того, что очевидное решение попросту валяется под ногами и его банально никто не замечает. Новые идеи продолжают появляться, но дают покуда лишь постепенные улучшения, а не смену парадигмы. Поэтому рассчитывать на то, что в ближайший год-два появится архитектурный прорыв, который автоматически снимет текущие ограничения, — это ставка в технологическом казино. Более вероятным сценарием остается постепенная эволюция существующего подхода, а не внезапная революция.

Если попытаться честно назвать то, что в последние годы действительно изменило практическую картину, то это не очередной бенчмарк, а появление режима рассуждения: когда модель не просто отвечает, а тратит заметно больше вычислений на один ответ, чтобы меньше ошибаться. Интуитивно это похоже на переход от «быстрого ответа на глаз» к тактике «подумать дважды и перепроверить». Снаружи это выглядит как будто модель стала умнее, но на инженерном уровне мы попросту начали покупать снижение ошибок ценой времени и стоимости запроса — и именно это впервые сделало возможными хоть какие-то агенты, которые не разваливаются на первом же сложном повороте.

И вот здесь важная деталь, которую также редко проговаривают в AGI-нарративах: даже когда reasoning-модели улучшают среднюю надежность, они могут не улучшать предсказуемость и устойчивость там, где это критично для длинных автономных цепочек. Свежие академические работы по надежности агентных систем отмечают, что «reasoning-класс» моделей повышает качество в среднем, но не дает пропорционального роста предсказуемости на комплексных задачах — то есть мы получаем больше ярких успехов, но не гарантируем общую стабильность.

Индустрия: вливания денег и «эффект зрелости»

Консенсусный прогноз вложений и экономической отдачи индустрии LLM
Консенсусный прогноз вложений и экономической отдачи индустрии LLM

Итак, к началу 2026-го индустрия ИИ выглядит не как старт апокалиптической экспоненты, а как близкая к насыщению капиталоемкая отрасль с гигантскими ставками. Крупнейшие компании мира собираются потратить на инфраструктуру ИИ сотни миллиардов долларов в год. При этом ограничения начинают смещаться от алгоритмов в область макроэкономики: энергетика, дата-центры и стоимость вычислений становятся ключевыми узкими местами. Это важный контекст: если бы прогресс был по-настоящему экспоненциальным и архитектурно «открытым», такие суммы обычно сопровождались бы разлетом возможностей и лидеров. Вместо этого мы наблюдаем индустрию, где огромные деньги вкладываются скорее в масштабирование и инфраструктуру, чем в радикально новые принципы работы моделей.

Если смотреть на отрасль хладнокровным взглядом, один из самых сильных сигналов сегодняшнего состояния — это несоответствие между масштабом инвестиций и масштабом видимых технологических скачков. Прогнозы говорят о триллионах долларов глобальных вложений в вычислительные мощности до конца десятилетия и о необходимости десятков гигаватт новой энергии только для поддержки текущего темпа масштабирования. При этом операционные расходы компаний уже растут быстрее выручки. Это и есть главная проблема.

Когда технологическая кривая только разгоняется, небольшие вложения дают огромные скачки возможностей. Когда же индустрия требует сотен миллиардов ежегодно просто для поддержания темпа — это почти всегда означает переход к стагнации. Аналитики все чаще описывают 2026 год как момент, когда ИИ переходит от эпохи обещаний к эпохе проверки эффективности.

Следующий логический шаг — понять, что всё это означает для людей и профессий: если экспонента не бесконечна, как будет выглядеть рынок труда и роль разработчиков в ближайшие годы.

Рынок труда — эволюция вместо исчезновения

Заметный рост числа инженерных позиций во второй половине 2025 года
Заметный рост числа инженерных позиций во второй половине 2025 года

В 2026 году хайповые манифесты о «конце профессии программиста» звучат громче, чем реальные данные. Да, инструменты на базе ИИ заметно ускоряют написание кода, генерацию тестов и прототипирование. Но параллельно растет спрос на архитектуру, интеграцию, проверку и сопровождение систем. Аналитические обзоры рынка труда фиксируют не обвал, а перераспределение ролей: снижается доля рутинной разработки, растет значение системного мышления и способности работать с инструментами ИИ.

Это типичный паттерн технологических переходов. Новые инструменты повышают производительность, но одновременно усложняют систему в целом. Когда один инженер может сделать больше, возрастает нагруженность инфраструктуры, интеграций и ответственности. В итоге профессия не исчезает, а трансформируется: меньше ручной рутины — больше проектирования и контроля. И если текущая динамика действительно ближе к сигмоиде, чем к бесконечной экспоненте, то наиболее вероятный сценарий — не массовое вытеснение специалистов, а постепенная перестройка навыков и требований.

Это возвращает нас к исходному вопросу: верить ли в скорый AGI, который всех уволит? Ответ, похоже, лежит не в отрицании прогресса, а в понимании его реальных границ. Красивые графики могут быть правдивыми в узких измерениях, но инженерная и экономическая реальность задает гораздо более сложную траекторию.

Заканчивается не прогресс — заканчивается сказка о бесплатной экспоненте

Консенсусный прогноз преодоления ключевых порогов AGI по параметрам
Консенсусный прогноз преодоления ключевых порогов AGI по параметрам

Итак, пускай прогресс продолжается, системы становятся полезнее, производительность растет. Однако слепая вера в то, что текущий темп и характер роста автоматически приведут к универсальному автономному интеллекту в ближайшие годы это не более чем попытка некоторыми спикерами выдать желаемое за действительное. История технологий показывает, что фаза бурного ускорения почти всегда сменяется фазой насыщения, оптимизации и жесткой экономики.

И если смотреть на ситуацию именно так — без страха и без эйфории, — то заявления о «скорой сингулярности» перестают быть пророчеством. Они становятся стратегической ставкой одних макроэкономических игроков против других. А инженерная работа — как и прежде — остается делом постепенного улучшения, контроля и ответственности.

Если отбросить маркетинговый шум, картина на горизонте 3–5 лет выглядит куда спокойнее, чем в публичных заявлениях. Даже оптимистичные руководители лабораторий сегодня чаще говорят о горизонте 5–10 лет до чего-то похожего на AGI, а не о ближайших кварталах. Исследовательские обзоры 2026 года сходятся в том, что главные нерешенные проблемы — устойчивое планирование, надежность длинных цепочек действий и долговременное обучение — остаются фундаментальными и покуда не имеют очевидного практического решения.

Этот факт важнее любых прогнозов. С высокой вероятностью мы увидим дальнейшее улучшение инструментов: модели станут быстрее, удобнее, точнее в узких задачах, лучше интегрированными в рабочие процессы. Производительность разработчиков и аналитиков продолжит расти, но умеренно — в разы, а не на порядки. Системы будут все чаще брать на себя рутину, прототипирование и анализ, но ключевые решения, архитектура и ответственность останутся у людей. Иными словами, ближайшие годы или даже десятилетия — это по-прежнему время ассистентов и полуавтономных систем, а не полностью самостоятельных цифровых сотрудников.

Чего, скорее всего, не произойдет в этот период — так это резкого обнуления профессий и появления надежных универсальных агентов, способных месяцами работать без участия человека. Даже самые оптимистичные отчеты и прогнозы 2026 года не предполагают массового появления полностью автономных интеллектуальных систем в столь короткий срок. Рынок станет жестче для начинающих специалистов, но спрос на опытных инженеров и архитекторов сохранится и даже усилится.

Стратегически это означает простую вещь. Если планировать карьеру или архитектуру систем на ближайшие годы, разумно исходить из умеренного роста и ограничений текущей парадигмы, а не из сценария «еще один скачок — и мы пропали». Технология уже перешла из фазы лабораторного чуда в фазу инфраструктуры. В этой фазе она продолжает улучшаться, но делает это все более медленно, дорого и трудозатратно. Поэтому главный вывод для инженера и для читателя в целом звучит трезво: рассчитывать стоит на эволюцию, усиление инструментов и постепенное изменение профессий. Не стоит рассчитывать на внезапное исчезновение ограничений, мгновенный AGI или обвал рынка труда.

Возможно, когда-нибудь появится новая архитектура, которая снова сдвинет кривую вверх. Но на горизонте ближайших 3–5 лет гораздо вероятнее другое: спокойная, дорогая и довольно предсказуемая инженерная работа по доведению уже существующих систем до надежного и экономически оправданного состояния. И это, пожалуй, самый реалистичный сценарий из всех.

PS: Котировки Nvidia снизились почти на 6%, несмотря на успешный квартальный отчет и оптимистичный прогноз. Инвесторам нужны более веские доказательства, что бум расходов на ИИ сохранится, пишет Bloomberg. Падение акций Nvidia потянуло за собой S&P 500, ключевой индекс рынка акций США, сообщил Forbes 27 февраля 2026 года, на следующий день после публикации этой статьи.

2
1
Начать дискуссию