Пентагон против Anthropic: ультиматум об автономном оружии и бунт техработников
«Разреши убивать или потеряешь всё»
Март 2026 года войдёт в историю ИИ как момент, когда абстрактные споры об автономном оружии стали реальным корпоративным ультиматумом. Министерство обороны США предъявило Anthropic жёсткое требование: открыть Claude для полностью автономного выбора военных целей — без участия человека в принятии решения об ударе — или быть признанной «угрозой цепочке поставок». Цена вопроса — сотни миллиардов долларов государственных контрактов.
Кто уже согласился, а кто держится
По данным источников Washington Post, OpenAI и xAI уже приняли условия Пентагона. OpenAI при этом, по имеющимся сведениям, пытается закрепить в соглашении хотя бы те же красные линии, на которых настаивает Anthropic. Сама Anthropic пока стоит на своём: CEO Дарио Амодеи выпустил публичное заявление, в котором написал, что «угрозы не меняют нашу позицию — мы не можем по совести согласиться с этим требованием».
Примечательно, что Амодеи не против автономного летального оружия в принципе. Он считает, что технология пока недостаточно надёжна, и даже предложил Пентагону совместные R&D-разработки для повышения надёжности таких систем. Военное ведомство предложение отвергло.
Что такое автономное целеполагание и почему это пугает
Суть требования Пентагона — разрешить ИИ самостоятельно принимать решение об уничтожении цели без обязательного подтверждения человека. На конференции AIPCon представитель Министерства обороны продемонстрировал систему Palantir Maven Smart System: «левый клик, правый клик, левый клик» — и цель выбрана для удара. Palantir CEO Алекс Карп публично заявил акционерам, что компания создана в том числе для того, чтобы «пугать врагов и при необходимости убивать их».
Именно это направление — системы, где ИИ становится не инструментом поддержки решения, а самим решением — и вызывает наибольшую тревогу среди специалистов по безопасности ИИ. Разрыв между «ИИ помогает человеку выбрать цель» и «ИИ сам выбирает и атакует» огромен с этической точки зрения.
Бунт изнутри: что говорят сотрудники
В разговорах с журналистами нынешние и бывшие сотрудники OpenAI, xAI, Amazon, Microsoft и Google описывают нарастающее чувство предательства. Более 700 000 техработников подписали открытое письмо с требованием к компаниям отвергнуть условия Пентагона.
- Сотрудник AWS: «Когда я шёл в tech, я думал, что это про улучшение жизни людей. Теперь выясняется, что это про слежку, депортации и убийства».
- Инженер Microsoft: «С их точки зрения, они хотели бы продолжать зарабатывать деньги и не говорить об этом».
- Бывший сотрудник xAI: «Все сейчас работают на убийственных роботов. Это стало модным — ты патриот, если делаешь это».
При этом многие признают, что шансы на реальное изменение позиции компаний невелики. В 2018 году сотрудники Google успешно продавили отказ от контракта Project Maven — но сейчас политический климат совершенно иной.
Историческая развилка
За последние годы крупные tech-компании последовательно снимали собственные ограничения: OpenAI убрала запрет на «военное применение» из условий использования, Google и Microsoft согласились работать с ICE вопреки протестам сотрудников, а Anthropic на прошлой неделе изменила свою Responsible Scaling Policy, убрав давнее обязательство по безопасности ради конкурентоспособности.
Этот контекст делает позицию Anthropic особенно заметной — и особенно уязвимой. Компания сопротивляется тренду, который захватывает всю отрасль.
Мнение редактора
Я слежу за этой историей с тревогой и одновременно с каким-то неловким уважением к Anthropic. Не потому что они идеальны — Амодеи сам признаёт, что автономное летальное оружие «в принципе» возможно, просто «не сейчас». Это не жёсткая этическая позиция, это позиция инженера, которому нужно больше данных.
Но в мире, где OpenAI и xAI уже подписались под условиями Пентагона, даже временное «нет» — это что-то. Вопрос в том, как долго Anthropic сможет держаться под давлением финансовых угроз и обвинений в «антипатриотизме». И что произойдёт с отраслью, если она всё же сломается.