Стоит ли беспокоиться о конце света от искусственного интеллекта? Обзор статьи в Nature

Пока одни рисуют картины «ИИ-апокалипсиса», другие учёные пожимают плечами и называют эти страхи преувеличением. В новой статье Nature разбирают обе позиции и показывают, почему вероятнее нас ждёт не конец света, а длинный и неприятный период адаптации к искусственному интеллекту.

Иллюстрация к статье в журнале. Автор Ван Сайян
Иллюстрация к статье в журнале. Автор Ван Сайян

В известном научном журнале Nature вышла статья под названием «AI doom warnings are getting louder. Are they realistic?». Автор статьи — Элизабет Гибни (Elizabeth Gibney). В ней разбирается, насколько серьёзно стоит воспринимать разговоры о том, что искусственный интеллект уничтожит человечество. Автор опирается на мнения экспертов, результаты опросов и разные сценарии рисков. Это актуальная тема на фоне быстрого развития технологий — паниковать или сосредоточиться на реальных проблемах?

Главные опасения тех, кто видит угрозу

Статья приводит доводы сторонников мрачных прогнозов:

На дворе 2035 год, и система искусственного интеллекта обладает высшей властью, управляя всем — от правительств мира до национальных электросетей. Система, получившая название «Консенсус-1», была создана более ранними версиями самой себя и разработала цели самосохранения, которые отменяют встроенные средства защиты. Однажды, в поисках дополнительного места для солнечных батарей и робототехнических заводов, ИИ незаметно выпускает биологическое оружие, уничтожающее всё человечество, за исключением нескольких особей, которых он держит в качестве домашних питомцев.

Фрагмент сценария «ИИ‑2027», написанного Даниэлем Кокотайло совместно с ИИ
  • Бывший сотрудник компании OpenAI Дэниел Кокотайло описывает сценарий «искусственный интеллект-2027»: сверхумная машина берёт контроль и уничтожает людей.
  • Основатель организации ControlAI Андреа Миотти предупреждает, что сверхумные машины выйдут из-под контроля, потому что их цели не совпадут с человеческими.
  • Специалист по искусственному интеллекту Джиллиан Хэдфилд признаётся: «Я никогда не была пессимистом, но в последние месяцы сильно занервничала».

Такие взгляды подтверждают опросы: в одном из них 53 процента экспертов оценили шанс большой катастрофы в 10 процентов.

В статье приводят гистограмму на основе опросов исследователей ИИ в 2022–2024 годах. С каждым годом растёт доля тех, кто оценивает риск вымирания человечества от ИИ как не менее 10%. Есть и более радикальная группа, которая говорит о вероятности в 25% и выше, но она заметно меньше.

Оценка учёными вероятности вымирания человечества от ИИ: опросы 2022–2024 годов показывают рост доли тех, кто говорит о риске 10% и выше.
Оценка учёными вероятности вымирания человечества от ИИ: опросы 2022–2024 годов показывают рост доли тех, кто говорит о риске 10% и выше.

Ответы скептиков

Не все учёные согласны с апокалиптическими сценариями. Нейробиолог Гэри Маркус из Нью‑Йоркского университета говорит, что доводы о вымирании неубедительны и не подкреплены фактами. Только 3 процента специалистов в другом опросе называют вымирание главной угрозой — большинство больше беспокоится из‑за краткосрочных проблем, вроде фальшивых новостей, слежки и упадка образования. Кейси Мок из Университета Дьюка подчёркивает: успехи искусственного интеллекта в лабораториях не гарантируют его доминирования в реальной жизни.

Авторы статьи отмечают, что паника отвлекает от текущих задач и даже выгодна крупным технологическим компаниям, которые избегают строгих правил.

Реальные риски против фантазий

Большинство экспертов сходятся в том, что искусственный интеллект уже заметно меняет общество — и нередко не в лучшую сторону, хотя разговоры о «конце света» выглядят явным преувеличением. Вместо одномоментного апокалипсиса они ожидают накопление более приземлённых, но болезненных эффектов. Например, системы на основе ИИ могут усиливать предвзятость в данных, закреплять дискриминацию в принятии решений, ускорять сокращение рабочих мест и разгонять волну дезинформации, когда ложные новости распространяются быстрее, чем человек успевает их проверять.

Что действительно тревожит специалистов по ИИ: на первых местах — злоупотребления, фейки и тотальное наблюдение, а сценарии «конца света» набирают минимальное число голосов.
Что действительно тревожит специалистов по ИИ: на первых местах — злоупотребления, фейки и тотальное наблюдение, а сценарии «конца света» набирают минимальное число голосов.

При этом говорить о самом ИИ как о «зле» было бы слишком просто: он становится инструментом, который лишь обостряет уже существующие перекосы экономики и политики. Именно поэтому Энтони Агирре из Института будущего жизни призывает не впадать ни в восторг, ни в панику, а искать разумный баланс между пользой и ограничениями. По его логике, ключевая задача сейчас — не спорить о фантастических сценариях гибели человечества, а выстраивать правила игры: кто отвечает за последствия внедрения ИИ, какие сферы требуют жёсткого контроля, а где технологии действительно могут приносить обществу максимум пользы.

Что делать дальше для безопасности?

Журнал Nature предлагает несколько конкретных шагов:

  • Ускорить финансирование исследований по контролю и безопасной настройке ИИ — сейчас на это приходится лишь малая часть ресурсов по сравнению с разработкой всё более мощных моделей.
  • Создавать законы и правила на основе фактов: анализировать реальные инциденты и риски, а не принимать решения только из-за громких заголовков и страхов.
  • Сместить фокус с голливудских историй про «восстание машин» на практическую пользу ИИ — от диагностики заболеваний и подбора лекарств до прогнозов климата и ускорения научных исследований.

По сути, Nature предлагает не ждать мифического «дня X», когда ИИ вдруг решит нас уничтожить, а заниматься скучной, но нужной работой уже сейчас. Чем раньше появятся внятные правила, ответственные игроки и независимые исследователи безопасности, тем меньше шансов, что технологии будут развиваться только по логике «быстрее, выше, монетизация любой ценой».

Полный текст статьи доступен по ссылке.

1
Начать дискуссию