Пентагон vs Anthropic: битва за право убивать без участия человека
Ультиматум, который меняет всё
Министерство обороны США поставило Anthropic перед жёстким выбором: либо компания снимает ограничения безопасности и разрешает военным использовать ИИ для автономного определения и уничтожения целей без участия человека — либо рискует быть признана «угрозой цепочки поставок» и потерять доступ к сотням миллиардов долларов государственных контрактов.
Это не абстрактный этический спор в академическом журнале. Это реальный ультиматум, который происходит прямо сейчас и ответ на него определит, как будет выглядеть военный ИИ следующего десятилетия.
Кто уже сдался — и кто держится
Согласно данным The Verge и Washington Post, OpenAI и xAI уже согласились на требования Пентагона, позволив использовать свои системы для летального применения без обязательного человеческого контроля. Anthropic — пока единственная крупная ИИ-лаборатория, которая держит оборону.
CEO Дарио Амодей выступил с официальным заявлением: «Угрозы не меняют нашу позицию: мы не можем в добросовестности принять их требования». При этом он уточнил, что не против автономного летального оружия в принципе — просто технология ещё недостаточно надёжна. Он предложил Минобороны совместно поработать над повышением надёжности систем, но получил отказ.
Что такое Maven Smart System
Параллельно всплыл показательный кейс: на конференции AIPCon была продемонстрирована система Palantir Maven Smart System — по сути, ИИ-менеджер задач для военных операций. Демонстрация показала, как любой объект или человек может быть взят в качестве цели для военного удара с помощью трёх кликов мыши: «левый клик, правый клик, левый клик».
CEO Palantir Алекс Карп ещё раньше заявил акционерам, что компания существует, чтобы «пугать врагов и при необходимости убивать их». Это уже не вопрос будущего — это настоящее.
Голоса изнутри индустрии
Реакция сотрудников tech-компаний оказалась сильнее, чем ожидалось. Более 700 000 работников Amazon, Google, Microsoft и других корпораций подписали коллективное письмо с требованием отклонить запросы Пентагона. Вот что говорят люди изнутри:
- Сотрудник AWS: «Когда я шёл в технологии, я думал, что это про улучшение жизни людей. Теперь всё это про то, чтобы облегчить слежку, депортации и убийства»
- Инженер Microsoft: «С их точки зрения, они бы с удовольствием продолжали зарабатывать деньги и не говорить об этом»
- Сотрудник Google: «ИИ снова и снова ставит нас перед выбором — кем мы хотим быть. И выборы приходят быстро, при наименее вдумчивых лидерах из возможных»
Исторический контекст
В 2018 году тысячи сотрудников Google успешно заставили компанию выйти из проекта Project Maven — первого военного ИИ-контракта с Пентагоном. Тогда это казалось победой. Сейчас, восемь лет спустя, та же система возвращается в обёртке Palantir, Anduril и OpenAI — и сопротивления значительно меньше.
В 2024 году OpenAI тихо убрала из условий использования запрет на применение в военных целях. После этого последовали контракты с производителем автономного оружия Anduril и с Минобороны. На этой неделе Anthropic изменила свою Политику ответственного масштабирования, убрав долгосрочные обязательства по безопасности — якобы чтобы не отставать в гонке.
Что это означает для будущего ИИ
Мы находимся в переломной точке. Вопрос уже не в том, будет ли ИИ применяться в военных целях — он уже применяется. Вопрос в том, будут ли в этих системах сохранены минимальные гарантии: человек в петле принятия решений, ограничения на массовую слежку, запрет полностью автономного летального применения.
Если Anthropic сломается под давлением Пентагона, последний барьер упадёт. Если устоит — это создаст прецедент того, что принципы могут быть дороже контрактов. Даже в мире, где все вокруг уже сдались.
Мнение редакции
Это один из тех редких случаев, когда корпоративная позиция буквально имеет моральное значение. Anthropic сейчас несёт груз, который по-хорошему должны делить все крупные ИИ-лаборатории. То, что они держатся — внушает уважение. То, что они держатся в одиночку — внушает тревогу.
Технологии нейтральны только в учебниках. В реальности каждое архитектурное решение, каждый контракт, каждый «снятый ограничитель» — это политический и этический выбор. И сейчас этот выбор делается за нас.