Пентагон хочет полного контроля над ИИ: «Он решит сам». Антропный должен сгибаться?

Quzikrat
Пентагон хочет полного контроля над ИИ: «Он решит сам». Антропный должен сгибаться?

Соединенные Штаты переживают поворотный момент в отношениях между государством и сектором искусственного интеллекта. Спор между Пентагоном и компанией антропный речь идет уже не об одном контракте или технических договорных положениях, а о фундаментальном вопросе… Кто имеет окончательный контроль над наиболее передовыми системами ИИ в условиях усиливающейся геополитической конкуренции. Казалось бы, это звучит как сценарий из «Универсального солдата», но проблема стала до боли реальной.

Министерство обороны США предъявило Anthropic жесткий ультиматум. Министр обороны Пит Хегсет дал совету директоров компании до 17:00 пятницы принять условия, обеспечивающие полный, неограниченный военный доступ к модели Claude для всех «разрешенных законом» военных целей. В случае отказа компания потеряет оборонный контракт на сумму до 200 миллионов долларов и будет формально считаться угрозой для цепочки поставок Министерства обороны.

Закон об оборонном производстве как окончательное оружие

Еще более серьезным сигналом является готовность Пентагона его использовать. Закон об оборонном производстве. Этот юридический инструмент, исторически использовавшийся во время войн и стратегических кризисов, позволяет правительству обеспечивать приоритетное производство и доступ к ключевым технологиям. Его потенциальное использование против частной компании, занимающейся искусственным интеллектом, создаст прецедент и будет означать, что государство признает передовые языковые модели ресурсом стратегического значения, сравнимым с оружейной промышленностью.

На практике такой шаг может заставить Anthropic предоставить свои технологии военным независимо от воли руководства или даже без компенсации. Это радикально сдвигает границу между добровольным сотрудничеством и нормативным принуждением в секторе новых технологий.

Почему Anthropic говорит нет

Источником конфликта является противодействие Anthropic отмене ключевых этических мер защиты. Компания, первой получившая разрешение работать с секретными данными Пентагона, потребовала гарантий, что ее модель не будет использоваться для массовой слежки за гражданами США или разработки полностью автономных боевых систем без реального человеческого контроля.

Президент компании Дарио Амодей он неоднократно предупреждал, что продвинутый ИИ, анализирующий миллиарды разговоров и социальных взаимодействий, может стать инструментом системного контроля над обществом. По его мнению, такой сценарий подорвал бы смысл Четвертой поправки и создал бы инфраструктуру, которая сделает конфиденциальность иллюзией. Амодей также обратил внимание на риск появления автономных групп дронов, способных проводить смертоносные операции без принятия решений человеком, что, по его мнению, разрушает основы юридической ответственности в войне.

Пентагон: безопасность без «идеологических ограничений»

Позиция Минобороны ясна. Пентагон отвергает доводы Anthropic, подчеркивая, что военные действуют только в рамках закона, а ответственность за использование технологий лежит на государственных учреждениях, а не на поставщиках. Хегсет открыто заявил, что военному ИИ США не могут помешать «идеологические барьеры», которые могут ограничить оперативную эффективность вооруженных сил.

На фоне этой риторики отчетливо видно геополитическое давление. В условиях глобальной технологической конкуренции США не хотят позволять частной компании де-факто решать, как страна может использовать ключевые инструменты обороны.

Конкуренция без этических ограничений

Позиции Anthropic ослабляются тем фактом, что конкуренты применяют гораздо более гибкий подход. xAIпринадлежащий Илон Маскуже подписала соглашение, позволяющее использовать модель Грока в секретных военных системах на «всех законных целях». Сходным образом ОпенАИ и Google в последние годы они исключили из своей политики положения, запрещающие применение искусственного интеллекта в военных и разведывательных целях, считая их отвечающими интересам национальной безопасности.

В этом контексте отказ Anthropic делает ее не только проблемным партнером, но и потенциально заменимым.

Антропные уступки и давление рынка

Под давлением Пентагона и конкуренции Anthropic уже частично уступила. Компания заменила свою обязательную Политику ответственного масштабирования более гибкой, не имеющей обязательной силы Дорожной картой безопасности Frontier, сняв обязательство останавливать разработку модели, если механизмы безопасности не могут соответствовать их растущим возможностям. Этот шаг показывает масштабы рыночного давления, но не решает ключевого спора о полном контроле над военным применением.

ИИ как стратегический ресурс государства

С геополитической точки зрения ставки гораздо выше, чем судьба одного контракта на 200 миллионов долларов. Спор Anthropic с Пентагоном показывает, что американское государство все более явно рассматривает передовой искусственный интеллект как стратегический ресурс, сравнимый с ядерными технологиями, криптографией или спутниковыми системами. Согласно этой логике, частные компании могут участвовать в оборонной экосистеме, но не могут налагать ограничения, подрывающие суверенитет государства в принятии решений.

Независимо от того, сдастся ли Anthropic до крайнего срока в пятницу или решит противостоять друг другу, одно уже можно сказать наверняка. Эра, когда крупнейшие компании, занимающиеся искусственным интеллектом, могли самостоятельно устанавливать пределы допустимого использования своих моделей, подходит к концу. В мире растущей стратегической напряженности искусственный интеллект больше не является нейтральным инструментом инноваций, а становится инструментом государственной власти. Этика остается элементом дебатов, но все больше подчиняется государственному разуму.

Спасибо, что дочитали нашу статью до конца. Следовать нас в Новостях Google и будьте в курсе событий!

Вас также может заинтересовать

Оставить комментарий