Американский стартап Anthropic, разработчик ИИ-системы Claude, оказался в центре жесткого конфликта с Пентагоном из-за желания военных США использовать искусственный интеллект для боевых задач. Поводом к обострению стал обсуждавшийся на закрытой встрече гипотетический сценарий ядерного удара по США и роль ИИ в отражении такой атаки.
Как пишет The Washington Post, на одном из совещаний глава военного техблока США задал предельно конкретный вопрос: если по США запущена межконтинентальная баллистическая ракета, можно ли использовать Claude для помощи в ее перехвате. Для Пентагона это пример ситуации, где скорость анализа и реакции критична, а решение принимается за считанные минуты. Ответ генерального директора Anthropic Дарио Амодеи, по версии оборонного ведомства, показался военным уклончивым и недостаточно однозначным в пользу боевого применения ИИ.
Представители компании такую трактовку отрицают и заявляют, что согласны на использование Claude в системах противоракетной обороны, но не в качестве «автономного оружия». Однако официальные лица назвали этот инцидент, а также другой случай использования Claude при захвате венесуэльского лидера Николаса Мадуро, очагами обострения противостояния между компанией и Пентагоном в последние дни.
Ситуация резко обострилась после личной встречи главы компании Дарио Амодеи с министром обороны США Питом Хегсетом. Пентагон выдвинул компании ультиматум: снять свои возражения против использования Claude в задачах, связанных с автономными системами вооружений и широкомасштабным наблюдением за гражданами США. В противном случае военное ведомство грозит задействовать чрезвычайные полномочия для принудительного доступа к технологиям Anthropic и одновременно лишить компанию перспектив дальнейших контрактов с оборонным блоком.
Официальные представители Пентагона публично заявляют, что не намерены запускать тотальную слежку внутри страны или передавать ядерную кнопку ИИ, но настаивают на праве использовать искусственный интеллект «для всех законных целей».
Руководство Anthropic, в свою очередь, утверждает, что нынешний уровень надежности ИИ-систем не позволяет безопасно делегировать им функции смертельного оружия, а существующая правовая база по внутренней разведдеятельности не учитывает масштабных возможностей ИИ в сфере слежки и анализа данных. Амодеи подчеркивает, что у компании есть «красные линии»: Anthropic не готова участвовать в проектах по созданию летального автономного вооружения и систем массового наблюдения за населением, даже если речь идет о выгодных государственных контрактах.Такая позиция усиливает напряженность в отношениях разработчика ИИ с администрацией Дональда Трампа.
Anthropic изначально считалась одним из ключевых партнеров Пентагона в области ИИ: компания первой получила доступ к работе на засекреченных военных сетях, а позже заключила многомиллионные контракты на поставку своих систем для нужд обороны и гражданских ведомств. Claude уже используется для анализа разведданных, планирования операций и задач в сфере кибервойны. Однако по мере того как конкуренты – в том числе крупные технологические корпорации и другие ИИ-игроки – активнее заходят в оборонные проекты и соглашаются на более широкие формулировки условий («для всех законных целей»), монопольное преимущество Anthropic размывается.
На этом фоне конфликт с Пентагоном выглядит одновременно и принципиальной этической позицией, и политическим столкновением. Часть экспертов полагает, что в администрации Трампа уже сформировалось недоверие к Anthropic, и нынешний спор может стать поводом для попытки «выдавить» компанию с военного направления. При этом в военной среде признают: заменить Claude в уже развернутых системах будет дорого и сложно.
Дополнительную тревогу у технологического бизнеса вызывает обсуждаемая возможность принудительного изъятия технологий компании через специальные правовые механизмы. Юристы предупреждают: если власти пойдут на подобный шаг, это станет «ядерной опцией» уже в правовом смысле – и подаст крупным ИИ-игрокам сигнал, что сотрудничество с Пентагоном может обернуться потерей контроля над собственными разработками.
Таким образом, спор вокруг гипотетического ядерного удара и роли ИИ в военных решениях превратился в более широкий конфликт о том, кто определяет границы допустимого применения искусственного интеллекта – государство или разработчики технологий, и насколько бизнес готов отстаивать свои «красные линии», рискуя потерять доступ к крупнейшему клиенту в лице оборонного ведомства США, отмечает издание.
Ранее российский ИИ для тракторов попал в девять мировых рейтингов.