Судья США встала на сторону разработчика ИИ-моделей Claude в его споре с Пентагоном
Судья США заблокировала распоряжение Пентагона о признании американской компании Anthropic — разработчика ИИ-моделей Claude — угрозой национальной безопасности. «Ничто в регулирующем законе не подтверждает оруэлловскую идею о том, что американская компания может быть объявлена потенциальным противником и саботажником США за выражение несогласия с правительством», — сказано в постановлении. Пентагон ранее потребовал от ИИ-компаний разрешить применение их технологий в любых «законных» целях, однако Anthropic выступила против использования ее разработок для автономного летального оружия и слежки за населением США
Федеральный судья в Сан-Франциско заблокировала распоряжение Пентагона, согласно которому американская компания Anthropic — разработчик ИИ-моделей Claude — была признана угрозой национальной безопасности. Об этом сообщают газеты The Washington Post (WP) и The New York Times (NYT), а также агентство Reuters.
«Ничто в регулирующем законе не подтверждает оруэлловскую идею о том, что американская компания может быть объявлена потенциальным противником и саботажником США за выражение несогласия с правительством», — написала в постановлении судья окружного суда США по Северному округу Калифорнии Рита Ф. Лин.
Как отмечает WP, Anthropic в суде утверждала, что правительство превысило свои законные полномочия и наказывает компанию за то, что она использует свое законное право говорить о рисках, связанных с ее технологией. Кроме того, Anthropic указала, что действия администрации вызвали опасения у ее клиентов — даже у тех, кто не связаны с федеральным правительством, — и могут стоить компании миллиардов долларов будущей выручки.
Судья отметила, что ее постановление не мешает Пентагону прекратить сотрудничество с Anthropic, однако запрещает администрации Дональда Трампа предпринимать более масштабные шаги против компании. При этом постановление Лин не является решающим: отдельное дело, связанное с другим законом, рассматривается в другом федеральном суде — уже в Вашингтоне, пишет WP.
Конфликт между Anthropic и правительством США разгорелся после того, как Пентагон потребовал от ИИ-компаний разрешить использование своих технологий в любых «законных» целях. Anthropic отказалась снять защитные механизмы, препятствующие использованию ее технологий для применения автономного летального оружия и слежки за населением США, передавало в конце февраля агентство Reuters. Источники Financial Times (FT) 5 марта говорили, что Anthropic возобновила переговоры с Пентагоном в попытке согласовать сделку, регулирующую доступ военного ведомства к ее ИИ-моделям. До этого переговоры сорвались, однако теперь гендиректор Anthropic Дарио Амодеи предпринимает «последнюю попытку» договориться, писало тогда издание.
Однако Anthropic в тот же день сообщила, что 4 марта получила от Пентагона письмо, подтверждающее, что компания признана «риском для цепочки поставок, представляющим угрозу национальной безопасности США». «Мы считаем эту меру юридически необоснованной и не видим иного выбора, кроме как оспорить ее в суде», — добавили тогда в компании. Как передавал CNBC, Anthropic стала первой американской компанией, признанной риском для цепочки поставок. Такой статус означает, что оборонным поставщикам и подрядчикам придется подтверждать, что они не используют модели Anthropic при работе с Пентагоном. До сих пор риском для цепочек поставок признавались в основном организации, работающие в странах-противниках США (к примеру, китайская Huawei), отмечал телеканал.
Трамп еще 27 февраля заявил, что приказал всем американским федеральным ведомствам, в том числе Пентагону, прекратить использовать разработки Anthropic. «Для таких ведомств, как Министерство войны, которые используют продукты Anthropic на различных уровнях, будет предусмотрен шестимесячный период поэтапного отказа», — написал Трамп в своей соцсети Truth Social. По его словам, ИИ-стартап совершил «катастрофическую ошибку», пытаясь заставить Пентагон подчиниться своим условиям предоставления услуг, а не американской конституции.
Глава Пентагона Пит Хегсет тогда же обвинил Anthropic в «высокомерии и предательстве», заявив, что оборонное ведомство откажется от продукции компании самое позднее через шесть месяцев, перейдя к «более качественному и патриотичному сервису». Представитель Пентагона Шон Парнелл отмечал, что ведомство не заинтересовано ни в использовании ИИ для массовой слежки за американцами, ни в разработке благодаря ИИ автономного оружия, способного работать без участия человека. «О чем мы просим: позвольте Пентагону использовать модель Anthropic для всех законных целей», — заявил Парнелл в конце февраля, добавив, что в противном случае ведомство прекратит партнерство с Anthropic (цитата по Reuters).
Гендиректор Anthropic подчеркивал, что компания против использования Пентагоном ее ИИ-моделей для массовой слежки или обеспечения работы полностью автономного оружия по той причине, что «передовые системы ИИ просто недостаточно надежны». Anthropic не обвиняет Пентагон в планах использовать ИИ в подобных целях, а лишь выражает оценку безопасности продукта, говорил близкий к компании источник Reuters.
Пентагон ранее уже заключил соглашение с OpenAI, разработчиком ChatGPT. Ведомство согласилось с принципами запрета на массовую слежку внутри США и ответственности человека за применение силы, включая автономные системы вооружений, говорил глава OpenAI Сэм Альтман.
