К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.

Пентагон признал разработчика ИИ-моделей Claude угрозой для цепочки поставок США


Пентагон включил компанию Anthropic — разработчика ИИ-моделей Claude — в список компаний, представляющих риск для цепочки поставок США. Об этом сообщил сам ИИ-стартап, пообещав оспорить это решение в суде. Трамп еще в конце февраля приказал всем федеральным ведомствам США прекратить использовать разработки Anthropic, заявив, что компания совершила «катастрофическую ошибку», пытаясь заставить Пентагон подчиниться своим условиям. При этом ИИ-инструменты Claude сейчас активно используются американскими военными в операциях против Ирана, рассказал источник Bloomberg

Пентагон включил американскую компанию Anthropic — разработчика моделей искусственного интеллекта Claude — в список компаний, представляющих риск для цепочки поставок США. Об этом сообщил сам ИИ-стартап, пообещав оспорить это решение в суде.

«Вчера (4 марта) компания Anthropic получила от Министерства войны письмо, подтверждающее, что мы признаны риском для цепочки поставок, представляющим угрозу национальной безопасности США», — сказано в пресс-релизе на сайте Anthropic. «Мы считаем эту меру юридически необоснованной и не видим иного выбора, кроме как оспорить ее в суде», — добавили в компании.

В самом Пентагоне эту информацию подтвердили. «Министерство войны официально проинформировало руководство Anthropic о том, что компания и ее продукция признаны риском для цепочки поставок, и это вступает в силу немедленно», — сообщил представитель ведомства агентству Bloomberg. При этом неназванный источник Bloomberg рассказал, что ИИ-инструменты Claude по-прежнему активно используются американскими военными в операциях против Ирана.

 

Как передает CNBC, Anthropic стала первой американской компанией, признанной риском для цепочки поставок. Такой статус означает, что оборонным поставщикам и подрядчикам придется подтверждать, что они не используют модели Anthropic при работе с Пентагоном. До сих пор риском для цепочек поставок признавались в основном организации, работающие в странах-противниках США (к примеру, китайская Huawei), отмечает телеканал.

Источники Financial Times 5 марта говорили, что Anthropic возобновила переговоры с Пентагоном в попытке согласовать сделку, регулирующую доступ военного ведомства к ее ИИ-моделям. На прошлой неделе переговоры сорвались, однако теперь гендиректор Anthropic Дарио Амодеи предпринимает «последнюю попытку» договориться, сообщило издание. Оно напомнило, что Anthropic впервые заключила соглашение с Пентагоном на сумму $200 млн в июле 2025 года.  

 

Конфликт между компанией и правительством обострился после того, как Пентагон потребовал от ИИ-компаний разрешить использование своих технологий в любых «законных» целях. Однако Anthropic отказалась снять защитные механизмы, препятствующие использованию ее технологий для применения автономного летального оружия и слежки за населением США, передавало агентство Reuters. Обсуждения сорвались на следующий день после того, как сторонам не удалось согласовать формулировки, отмечала FT.

Дональд Трамп еще 27 февраля заявил, что приказал всем американским федеральным ведомствам, в том числе Пентагону, прекратить использовать разработки Anthropic. «Для таких ведомств, как Министерство войны, которые используют продукты Anthropic на различных уровнях, будет предусмотрен шестимесячный период поэтапного отказа», — написал Трамп в своей соцсети Truth Social. По его словам, ИИ-стартап совершил «катастрофическую ошибку», пытаясь заставить Пентагон подчиниться своим условиям предоставления услуг, а не американской конституции.

Глава Пентагона Пит Хегсет тогда же обвинил Anthropic в «высокомерии и предательстве», заявив, что оборонное ведомство откажется от продукции компании самое позднее через шесть месяцев, перейдя к «более качественному и патриотичному сервису». Представитель Пентагона Шон Парнелл отмечал, что ведомство не заинтересовано ни в использовании ИИ для массовой слежки за американцами, ни в разработке благодаря ИИ автономного оружия, способного работать без участия человека. «О чем мы просим: позвольте Пентагону использовать модель Anthropic для всех законных целей», — заявил Парнелл в конце февраля, добавив, что в противном случае ведомство прекратит партнерство с Anthropic (цитата по Reuters).

 

Гендиректор Anthropic подчеркивал, что компания против использования Пентагоном ее ИИ-моделей для массовой слежки или обеспечения работы полностью автономного оружия по той причине, что «передовые системы ИИ просто недостаточно надежны». Anthropic не обвиняет Пентагон в планах использовать ИИ в подобных целях, а лишь выражает оценку безопасности продукта, говорил близкий к компании источник Reuters.

Пентагон ранее уже заключил соглашение с OpenAI, разработчиком ChatGPT. Ведомство согласилось с принципами запрета на массовую слежку внутри США и ответственности человека за применение силы, включая автономные системы вооружений, заявил глава OpenAI Сэм Альтман.