Министерство обороны США рассматривает возможность прекращения сотрудничества с Anthropic, создателем модели Claude. Это могло бы стать следствием раскрытия использования этой системы искусственного интеллекта во время недавней военной операции в Венесуэле. Согласно появляющимся сообщениям и источникам в прессе, бот Claude был интегрирован с инструментами Palantir Technologies, используемыми американской армией и использованными в январской операции по поимке авторитарного президента Николаса Мадуро и его жены.
Эффектная операция прошлого месяца включала бомбардировку нескольких объектов в Каракасе и прямые кинетические действия, то есть нападение операторов «Дельта» на объект, где скрывался Мадуро. По данным Минобороны Венесуэлы, в результате этих действий погибли 83 человека. Использование Клода в этих мероприятиях было основано на партнерстве Anthropic с Palantir. По имеющейся информации, недавно лидирующий бот поддерживал обработку и анализ больших объемов разведывательных данных – скорее всего, включая спутниковые снимки и оперативные сводки.
ИИ для военных – но «не для военных приложений»
Неудивительно, что Министерство обороны не подтвердило и не опровергло технические детали. Однако можно предположить, что само появление этого вопроса, касавшегося секретных вопросов (а таковыми, несомненно, были данные разведки, на основе которых планировались действия в Венесуэле), вызвало сильное недовольство представителей Пентагона. Военные контракты, касающиеся таких вопросов, обычно включают обязательства по усмотрению (соглашения о неразглашении), несмотря на это, раскрытие подробностей о них также является нарушением федерального законодательства.
Anthropic, со своей стороны, должна была с самого начала заявить, что политика использования Клода исключает возможность применения насилия, разработки оружия или наблюдения. Компания заявила, что не комментирует возможное использование модели в конкретных, особенно тайных, операциях, но каждый случай должен соответствовать ее политике. Конечно, спорно, насколько Пентагон чувствует себя обязанным соблюдать политику, установленную частной компанией (у ведомства есть легальные инструменты для реализации такой политики). безнаказанно игнорировать, например, положения Закона Закон об оборонном производстве с 1950 года).
Антропик добровольно откажется от куска торта?
После того, как факты были раскрыты, представители Anthropic спросили Палантира о характере использования Клода в кинетической фазе акции, что было истолковано как выражение неодобрения. Контракт с Пентагоном на сумму до $200 млн, подписанный летом 2025 года, сделал эту компанию первым поставщиком коммерческих моделей ИИ, интегрированных с секретными сетями Минобороны. Сейчас администрация рассматривает возможность его роспуска. Как указывают источники в администрации, Пентагон настаивает на более широком спектре применений ИИ, в том числе в разработке оружия и разведывательных операциях, в то время как Anthropic стремится поддерживать строгие ограничения.
Заменить Claude в краткосрочной перспективе считается сложной задачей, поскольку другие доступные коммерческие модели еще не достигли сопоставимого уровня совместимости с потребностями правительства. Однако представляется вполне возможным, что Пентагон мог бы использовать бота «по-своему», не беспокоясь о политике компании (особенно если его использование будет тайным), сохраняя при этом так называемую вероятное отрицание компанией (что может иметь юридическое и судебное значение, если кто-то захочет подать в суд на компанию). Однако в долгосрочной перспективе такие ограничения могут фактически помешать стартапу получить доступ к дальнейшим выгодным военным контрактам.