Пентагон использовал искусственный интеллект в операции в Венесуэле

Коммерческий ИИ всё чаще обсуждают в контексте офиса и кода. Но на этот раз речь — о военной операции. По данным СМИ, Пентагон использовал Claude от Anthropic в операции по захвату в Венесуэле. И кажется, уже разгорается скандал по этому поводу.

🟢 Еще больше полезной информации о продуктах и технологиях — в моем канале

Что именно произошло?

По данным The Wall Street Journal, американские военные использовали ИИ Claude от Anthropic во время операции 3 января против венесуэльского диктатора Мадуро. Это один из самых заметных случаев применения коммерческой ИИ-модели в крупной военной операции.

Доступ к инструменту осуществлялся через контракт с Palantir — оборонно-технологической компанией, тесно сотрудничающей с разведывательными структурами США.

Palantir — это американская компания, которая делает софт для анализа и интеграции больших данных, в первую очередь для госструктур, армии и спецслужб, а также корпораций.

Конкретные способы применения Claude в операции остаются засекреченными. Не уточняется, использовался ли ИИ для анализа разведданных, обработки информации, планирования или иных задач.

Важно: речь не идёт о подтверждении автономного применения оружия ИИ. Известно лишь, что модель была задействована в рамках операции.

Сам факт использования коммерческой LLM в военном контексте стал знаковым — ранее такие системы публично ассоциировались преимущественно с бизнес-задачами.

Политическая дилемма Anthropic

У Anthropic действуют жёсткие правила использования Claude. Они прямо запрещают применение модели для:

  • наведения оружия,
  • разработки вооружений,
  • слежки, нарушающей стандарты прав человека,
  • автономных боевых систем.

Компания сообщала представителям Пентагона, что не хочет, чтобы её технология использовалась для автономного наведения оружия или внутренней слежки за американскими гражданами.

На этом фоне возник конфликт вокруг контракта на $200 млн. По данным Reuters, переговоры зашли в тупик: представители администрации недовольны тем, что Anthropic пытается диктовать условия использования своей технологии.

Позиция Anthropic

Представитель компании заявил, что Anthropic «привержена защите лидерства Америки в области ИИ» и поддержке правительства США в противодействии иностранным угрозам.

По его словам, Claude уже активно используется для задач национальной безопасности, а переговоры с Пентагоном остаются «конструктивными».

Таким образом, компания одновременно сотрудничает с государством, но пытается ограничить способы военного применения своей технологии.

Почему это важно?

Этот случай поднимает несколько принципиальных вопросов:

  1. Может ли разработчик коммерческого ИИ реально контролировать, как используется его модель в военной сфере?
  2. Где проходит грань между аналитической поддержкой и участием в насильственных действиях?
  3. Что происходит, когда оборонный заказчик и частная ИИ-компания по-разному трактуют допустимые сценарии использования?

Пентагон всё активнее внедряет ИИ в процессы разведки, анализа и планирования. Но в случае с Claude возникает новая реальность: это не государственная разработка, а продукт частной компании с публично заявленными этическими ограничениями.

Именно поэтому история важна не только как новость о военной операции, а как сигнал о следующем этапе развития ИИ-индустрии: коммерческие модели всё глубже входят в сферу национальной безопасности — и одновременно оказываются в политическом и этическом конфликте с собственными правилами использования.

Пожалуйста, поддержите меня, поставьте лайк! 🙏

4
1 комментарий