FT узнала о «последней попытке» Anthropic согласовать сделку с Пентагоном
Американская компания Anthropic — разработчик чат-бота Claude — возобновила переговоры с Пентагоном в попытке согласовать сделку, регулирующую доступ военного ведомства к ее ИИ-моделям, пишет FT со ссылкой на источники. На прошлой неделе переговоры сорвались после того, как стороны не смогли согласовать формулировки, необходимые, по мнению Anthropic, чтоб предотвратить использование ИИ для слежки за населением США и обеспечения работы полностью автономного оружия. В Пентагоне на этом фоне назвали гендиректора Anthropic Дарио Амодеи «лжецом с комплексом бога»
Американская компания Anthropic — разработчик чат-бота Claude — возобновила переговоры с Пентагоном в попытке согласовать сделку, регулирующую доступ военного ведомства к ее ИИ-моделям, пишет Financial Times со ссылкой на источники. На прошлой неделе переговоры сорвались, однако теперь гендиректор Anthropic Дарио Амодеи предпринимает «последнюю попытку» договориться с ведомством.
Как отмечает газета, Амодеи ведет переговоры с заместителем министра обороны США по исследованиям и разработкам Эмилем Майклом, который в конце февраля назвал его «лжецом с комплексом бога». Заключение нового контракта позволит американским военным продолжить использование технологий Anthropic и значительно снизит риск признания компании «риском для цепочки поставок».
Как напоминает FT, Anthropic впервые заключила соглашение с Пентагоном на сумму $200 млн в июле 2025 года. Разработанная компанией ИИ-модель стала первой, применяемой в секретных целях и используемой органами национальной безопасности. Конфликт между Anthropic и правительством обострился после того, как Пентагон потребовал от ИИ-компаний разрешить использование своих технологий в любых «законных» целях.
Anthropic отказалась снять защитные механизмы, препятствующие использованию ее технологий для применения автономного летального оружия и слежки за населением США, передавало агентство Reuters. Обсуждения сорвались на следующий день после того, как сторонам не удалось согласовать формулировки, говорится в материале FT.
«Ближе к концу переговоров [ведомство] предложило принять наши текущие условия, если мы удалим конкретную фразу об «анализе массивных объемов полученных данных», которая была единственной строкой в контракте, точно соответствующей сценарию, вызывавшему у нас наибольшее беспокойство. Мы сочли это очень подозрительным», — написал Амодеи 27 февраля в служебной записке сотрудникам, выдержку из которой цитирует газета.
Представитель Пентагона Шон Парнелл в конце февраля заявил, что ведомство не заинтересовано ни в использовании ИИ для массовой слежки за американцами, ни в разработке благодаря ИИ автономного оружия, способного работать без участия человека. «О чем мы просим: позвольте Пентагону использовать модель Anthropic для всех законных целей», — заявил тогда Парнелл, добавив, что в противном случае ведомство прекратит партнерство с Anthropic и признает стартап «риском для цепочки поставок».
Амодеи подчеркивал, что компания против использования Пентагоном ее ИИ-моделей для массовой слежки или обеспечения работы полностью автономного оружия по той причине, что «передовые системы ИИ просто недостаточно надежны». Anthropic не обвиняет Пентагон в планах использовать ИИ в подобных целях, а лишь выражает оценку безопасности продукта, говорил близкий к компании источник Reuters.
Пентагон ранее уже заключил соглашение с OpenAI, разработчиком ChatGPT. Ведомство согласилось с принципами запрета на массовую слежку внутри США и ответственности человека за применение силы, включая автономные системы вооружений, заявил глава OpenAI Сэм Альтман.
