«Мы, вероятно, уничтожим мир, но пока инвестируйте в нас»: как маркетинг страха обернулся против ИИ-индустрии
The New Yorker выпустил новую статью в продолжение громкого расследования о Сэме Альтмане: ИИ-миллиардеры годами пугали мир апокалипсисом ради денег, а теперь на их собственные дома нападают. После первой публикации в дом основателя OpenAI прилетели коктейль Молотова и пули. Накануне в США обстреляли дом чиновника, поддержавшего строительство ЦОД, с запиской «нет дата-центрам». Издание объясняет: это не случайность, а закономерность.
Лидеры ИИ-индустрии годами пугали мир «концом света» и «тотальной заменой людей», чтобы привлечь инвестиции. Их риторика ударила по ним же: фанатики начали нападать на их дома, а общество погрузилось в когнитивный диссонанс — 84% пользуются ИИ, но 52% он «нервирует».
Анти-ИИ-манифесты, протесты против ЦОД и нападения — первые признаки того, что общество переходит из фазы восхищения в фазу отторжения.
The New Yorker формулирует происходящее в нескольких жестких тезисах. Вот главные.
ИИ-лидеры сами создали кризис доверия, а теперь требуют «снизить накал»
Альтман и другие топ-менеджеры годами продавали ИИ через апокалиптический сценарий: «ИИ приведет к концу света», «ИИ отнимет у вас работу». Это отлично работало на внимание, капитал и политический вес. Теперь, когда Альтман призывает снизить накал, вопрос один: кто, если не сами лидеры индустрии, все это время разжигал пожар?
ИИ-гиганты построили удобный для себя нарратив: технология настолько опасна, что довериться можно только им
ИИ настолько потенциально опасен, что людям остаётся слепо верить его создателям. На этом фоне все чаще звучит вопрос, не превращаются ли руководители ИИ-компаний в де-факто архитекторов нового общественного порядка. OpenAI тем временем выпускает план, в котором беспокоится, как бы выгоды от ИИ не сконцентрировались в руках нескольких фирм вроде OpenAI. Как будто именно это уже не происходит — и не по дизайну самой индустрии.
Поджигатели, продающие огнетушители
Anthropic позиционирует себя в отрасли как «хороших парней». Их новая модель Mythos, по их же словам, слишком опасна для публичного релиза. Но ранний доступ к ней получают Amazon, Cisco, JP Morgan и правительство США —чтобы заранее подготовиться к киберугрозам, которые создает сама же модель.
Британский институт безопасности ИИ подтвердил: Mythos способен автономно проводить многоэтапные атаки, на которые у специалистов ушли бы дни. Глава инвестстратегии JP Morgan сформулировал это точнее всех: Anthropic временами напоминает поджигателя, продающего огнетушители.
ИИ-отрасль не регулируется, а ее лидеры потеряли монополию на доверие
ИИ не подпадает ни под одно регулирование, которое применяется к другим опасным технологиям: оружию, фармацевтике, химикатам. Технология развивается быстрее законов — в том числе потому, что сами ИИ-компании публично говорят о необходимости регулирования, но тихо работают против него (поддерживают законы, освобождающие ИИ от ответственности).
На этом фоне вера в благоразумие техноэлит выглядит все менее убедительно: Безос уничтожил Washington Post, Маск— нейтральность Twitter, Цукерберг — психику подростков.
Двойная ловушка ИИ: в любом сценарии общество проигрывает
Если ИИ так опасен, как говорят его создатели, значит именно они ведут нас к катастрофе. Если же технология окажется гораздо слабее, чем нам обещали, значит мир просто накачивали страхом и ажиотажем ради денег, рейтинга и власти. Ни один из вариантов не выглядит привлекательным.
Итог
Страх оказался удобным способом ускорить развитие технологии. Но вместе с этим он сформировал среду, в которой те же самые нарративы начинают работать против компаний. Граница между предупреждением и стратегией размылась. Аудитория перестала различать, где реальный риск, а где управляемая риторика. В такой логике доверие не накапливается. Оно постепенно размывается вместе с самими сообщениями.
Пишу о технологических нарративах, ИИ и их влиянии на бизнес и рынок в Telegram