Анафема сидит: Anthropic немедленно забанили, внесли в черный список. Белый дом в состоянии войны с «проснувшейся компанией»

Quzikrat
Анафема сидит: Anthropic немедленно забанили, внесли в черный список. Белый дом в состоянии войны с «проснувшейся компанией»

Соединенные Штаты немедленно запрещают публичное использование антропных инструментов. Об этом решении объявил лично Дональд Трамп. в вашей записи. Это результат все более громкого конфликта между компанией и Военным министерством США, который касался использования моделей ИИ компании в военных приложениях — в частности, использования механизмов ИИ для наблюдения за целями или непосредственного управления ими системами вооружения.

Шаг, объявленный президентом Трампом, является огромной эскалацией этого спора. Запрет, введенный Белым домом, распространяется на все федеральные институты, а не только на Пентагон и его структуры. Причем стандартно в таких случаях оно распространяется не только на сами федеральные органы, но и на всех их поставщиков и подрядчиков, прямых и косвенных бенефициаров федеральных программ. Решение предусматривает шестимесячный переходный период для тех учреждений, которые уже используют модель компании Claude, интегрированную в их системы. По иронии судьбы, одним из таких институтов является Пентагон.

Anthropic и Пентагон на тропе войны

Спор возник из-за контракта на сумму 200 миллионов долларов, подписанного в июле 2025 года, на использование Claude в средах, классифицируемых как анализ разведки, оперативное моделирование и военное планирование. Однако вскоре появились некоторые сбои. В своих условиях обслуживания Anthropic запрещает использование своих инструментов для массового наблюдения и работу полностью автономных систем вооружения, активируемых без присмотра человека. Эти ограничения, по мнению компании, связаны с недостаточной надежностью текущих моделей ИИ в подобных сценариях, что может нарушить стандарты безопасности и демократические ценности.

Однако военное министерство отказалось подчиниться и адаптировать военную деятельность к уставу частной компании. Особенно это стало ясно после блестящей операции по захвату президента Мадуро в Венесуэле, в ходе которой Клода якобы использовали, но без согласия компании. Обе стороны, несмотря на официально хорошее общение, отказались уступить. В результате военный министр Пит Хегсет на встрече во вторник с президентом Anthropic Дарио Амодеи предъявил ему ультиматум: к 17:01 в пятницу, 27 февраля, компания, как сообщается, сняла эти ограничения, разрешив использовать Клода «для всех законных военных целей».

В случае отказа звучали угрозы расторгнуть контракт, отнести Anthropic к «риску цепочки поставок» — категории, типичной для компаний, связанных с геополитическими конкурентами или тоталитарными государствами, такими как Huawei, — и, возможно, воспользоваться положениями закона. Закон об оборонном производстве 1950 года, позволяющий принудительно использовать экономические или производственные фонды для нужд обороны страны. Пентагон утверждал, что не планирует использовать для наблюдения ботов с искусственным интеллектом (что в любом случае является незаконным, за исключением особых случаев) или автономные системы вооружения, но требует полной свободы в рамках закона, без внешних ограничений.

Нормативное «принуждение» компании?

Однако в четверг Anthropic объявила, что отклоняет эти требования. В заявлении компании говорится, что она не может идти на компромисс по фундаментальным вопросам — хотя, как отмечают некоторые наблюдатели, она уже делала это раньше, отказавшись от жестких ограничений, установленных ею для безопасности ИИ, в пользу более лабильных стандартов. Компания подчеркнула свою предыдущую поддержку обороны США, включая внедрение моделей искусственного интеллекта в конфиденциальные приложения и расторжение контрактов с китайскими предприятиями на сотни миллионов долларов. Он предложил сотрудничество в плавном переходе к альтернативным поставщикам, избегая сбоев в военных операциях.

Все это, как оказалось, мало чем смягчило явное раздражение американского президента. Трамп, не колеблясь, использовал в своем заявлении еще несколько красочных терминов («Левые уроды (…), чей эгоизм угрожает жизням американцев«), но, что гораздо важнее, он также заявил, что федеральная администрация США навсегда отказывается от решений компании, в том числе и в будущем. Это фактически означает внесение ее в черный список — он не только отсекает ее от федеральных контрактов, но и от целых секторов рынка, где сами компании и организации могут опасаться подвергнуться подобным ограничениям. И это представляет собой стремление к одному из самых жестких и радикальных инструментов регулирования.

Позиция Anthropica здесь весьма существенно контрастирует с действиями других компаний. Лишь недавно xAI подписала контракт с Пентагоном на использование решений на основе алгоритмов Грока — без ограничений использования исходя из политики компании. OpenAI также стремится занять место своего конкурента — Anthropic, появившегося в последние месяцы. Сообщается, что сам Альтман сообщил, что компания работает с военным министерством над возможным внедрением моделей ChatGPT или их производных для военного применения. Все это не означает, что Клода заменят полностью — но если он и останется в использовании, то, скорее всего, будет неофициально — и таким образом, что все равно нарушает политику компании.

Спасибо, что дочитали нашу статью до конца. Следовать нас в Новостях Google и будьте в курсе событий!

Вас также может заинтересовать

Оставить комментарий