ИИ и Война: Почему создателей Claude (Anthropic) выгнали из Пентагона

ИИ и Война: Почему создателей Claude (Anthropic) выгнали из Пентагона

Вчера правительство США официально разорвало все контакты с Anthropic (создателями одной из лучших нейросетей в мире — Claude). Стартап, который позиционирует себя как самый "безопасный и этичный", назвали угрозой национальной безопасности.

Anthropic изначально строился на принципе: ИИ не должен использоваться для причинения вреда. Их алгоритмы отказываются помогать в разработке оружия или анализе целей для ударов. Пентагону это не понравилось. Позиция государства проста: "Наши военные не должны быть заложниками идеологических прихотей айтишников".

Этот прецедент разделил ИИ-рынок на два лагеря:

1. Прагматики (OpenAI, Palantir): Согласны сотрудничать с военными, получают миллиардные контракты и доступ к бесконечным бюджетам.

2. Идеалисты (Anthropic): Отказываются от госзаказов ради "безопасности", теряя деньги и влияние на государственном уровне.

Мы видим, как ИИ из статуса "умного помощника для копирайтеров" переходит в статус стратегического оружия. Технологии перестали быть нейтральными. Теперь ваш выбор нейросети (ChatGPT или Claude) — это выбор того, чью корпоративную философию вы поддерживаете.

Гонка вооружений в сфере ИИ перешла в острую фазу. И в этой гонке победят не те, кто делает ИИ "безопасным", а те, кто делает его наиболее эффективным для заказчика с самыми глубокими карманами.

⚡ Главный канал про технологии и будущее: https://t.me/zoya_now

Начать дискуссию