Лицемеры или герои? Как самый «безопасный» ИИ планировал бомбежки, а потом кинул Пентагон на миллиарды
Вчера нейросеть пишет тебе код и помогает с маркетингом, а сегодня генерирует списки целей для ракетных ударов. Именно это произошло с Claude от Anthropic. Самая громкая ИИ-драма года разворачивается прямо сейчас, и в ней прекрасно все: от двойных стандартов корпораций до бессилия генералов.
Давайте начистоту. Anthropic годами продавали нам образ «самого этичного и безопасного» ИИ. Но когда запахло по-настоящему большими правительственными контрактами, их хваленый Claude внезапно оказался плотно встроен в закрытые системы Palantir и активно помогал американским военным.
Что конкретно делала миролюбивая нейросеть?
Сразу спойлер: красную кнопку ИИ не нажимал. Но он делал кое-что поважнее:
- Анализировал гигантские массивы разведданных в реальном времени.
- Выдавал списки приоритетных целей с готовыми координатами (да, Claude использовали и во время февральских ударов по Ирану, и при январской операции в Венесуэле).
- Симулировал сценарии реальных боевых действий.
По сути, армия получила карманного гения-стратега, который переваривает терабайты данных за секунды и не ошибается в расчетах.
Где сломалась этика?
Сказка закончилась, когда Пентагон пришел с логичным требованием: «Снимите базовые ограничения». Военным нужен был ИИ для массовой слежки и создания полностью автономного оружия - того самого, что принимает решения на поражение без приказа человека. И вот тут Anthropic включили принципиальность и наотрез отказались.
Дальше начался абсолютный сюр. Дональд Трамп выпускает указ: немедленно прекратить работу с технологиями Anthropic, признав их «угрозой». Но парадокс в том, что военные продолжили использовать Claude даже после запрета. Почему? Просто коммерческий ИИ уже настолько глубоко врос в армейские системы планирования, что выдернуть его оттуда за один день физически невозможно. Пентагону пришлось дать себе отсрочку на несколько месяцев.
Кто заберет куш?
Пока Anthropic играют в мораль и теряют контракты, свято место быстро заполняется. OpenAI и xAI оказались куда более «гибкими» ребятами, когда речь зашла о миллиардах долларов из бюджета Минобороны. Этика этикой, а прибыль по расписанию.
А теперь главный вопрос:
Что мы вообще сейчас наблюдаем? Anthropic - это последние защитники человечества от условного «Скайнета», или просто наивные идеалисты, которые своими руками отдали самый жирный рынок конкурентам? И должен ли вообще ИИ иметь право на пацифизм, когда речь идет о национальных интересах?
Спускайтесь в комментарии - давайте обсудим. Кто в этой истории главный лицемер: правительство США, принципиальные создатели Claude или прагматичные OpenAI?