Всего лишь минуту назад они тесно сотрудничали, а через мгновение… они встретятся в суде. Anthropic, компания, создавшая одну из самых передовых моделей искусственного интеллекта — Claude, — подала в суд на Пентагон. И все это после того, как Министерство обороны США включило его в список субъектов, представляющих угрозу национальной безопасности. Звучит как сценарий из фильма о технологической холодной войне. В каком-то смысле он именно такой. Суть спора? Военные хотят иметь полную свободу в использовании ИИ. Технологическая компания говорит: не на наших условиях.
Антропик против Пентагона в суде. Речь шла об оружии и наблюдении
Пентагон принял это решение после нескольких месяцев напряженных переговоров с Anthropic. Проблема оказалась в функциях безопасности, встроенных в модель Клода. Компания не хочет, чтобы ее технология использовалась для автономного оружия или массовой слежки за гражданами. И она отказалась снять эти ограничения.
Это серьезная проблема для армии. По мнению представителей Минобороны, такие ограничения на практике могут затруднить оборонную деятельность государства. Короче говоря: Пентагон хочет полного контроля над тем, как используется ИИ. Он интерпретирует блокады авторов как неповиновение и действия во вред государству. Отсюда и внесение в черный список, что является ударом не только по имиджу, но прежде всего по финансовому.
Антропный: Правительство не может нас за это наказать
Однако Anthropic считает, что реакция властей зашла слишком далеко. В иске, поданном в федеральный суд Калифорнии, компания утверждает, что решение Пентагона незаконно и нарушает конституционные права компании.
По словам представителей Anthropic, правительство пытается наказать компанию за позицию по использованию искусственного интеллекта. И ставки огромны. Компания предупреждает, что включение в список рисков может стоить миллиарды долларов.
Конечно, это дело быстро привлекло широкое внимание в технологическом сообществе и за его пределами. Группа поддержки Anthropic состояла из 37 исследователей и инженеров из OpenAI и Google. В специальном письме в суд они предостерегают о последствиях решения правительства. Они считают, что такие действия могут отбить у компаний желание открыто обсуждать риски, связанные с ИИ.
С одной стороны, государство разрабатывает искусственный интеллект, а с другой… борется с ним в суде. Вкратце: хорошо, пока это «по-нашему».