ИИ против Пентагона. Создатели Claude подали в суд на США после решения о «черном списке»

Quzikrat
ИИ против Пентагона. Создатели Claude подали в суд на США после решения о «черном списке»

Всего лишь минуту назад они тесно сотрудничали, а через мгновение… они встретятся в суде. Anthropic, компания, создавшая одну из самых передовых моделей искусственного интеллекта — Claude, — подала в суд на Пентагон. И все это после того, как Министерство обороны США включило его в список субъектов, представляющих угрозу национальной безопасности. Звучит как сценарий из фильма о технологической холодной войне. В каком-то смысле он именно такой. Суть спора? Военные хотят иметь полную свободу в использовании ИИ. Технологическая компания говорит: не на наших условиях.

Антропик против Пентагона в суде. Речь шла об оружии и наблюдении

Пентагон принял это решение после нескольких месяцев напряженных переговоров с Anthropic. Проблема оказалась в функциях безопасности, встроенных в модель Клода. Компания не хочет, чтобы ее технология использовалась для автономного оружия или массовой слежки за гражданами. И она отказалась снять эти ограничения.

Это серьезная проблема для армии. По мнению представителей Минобороны, такие ограничения на практике могут затруднить оборонную деятельность государства. Короче говоря: Пентагон хочет полного контроля над тем, как используется ИИ. Он интерпретирует блокады авторов как неповиновение и действия во вред государству. Отсюда и внесение в черный список, что является ударом не только по имиджу, но прежде всего по финансовому.

Антропный: Правительство не может нас за это наказать

Однако Anthropic считает, что реакция властей зашла слишком далеко. В иске, поданном в федеральный суд Калифорнии, компания утверждает, что решение Пентагона незаконно и нарушает конституционные права компании.

По словам представителей Anthropic, правительство пытается наказать компанию за позицию по использованию искусственного интеллекта. И ставки огромны. Компания предупреждает, что включение в список рисков может стоить миллиарды долларов.

Конечно, это дело быстро привлекло широкое внимание в технологическом сообществе и за его пределами. Группа поддержки Anthropic состояла из 37 исследователей и инженеров из OpenAI и Google. В специальном письме в суд они предостерегают о последствиях решения правительства. Они считают, что такие действия могут отбить у компаний желание открыто обсуждать риски, связанные с ИИ.

С одной стороны, государство разрабатывает искусственный интеллект, а с другой… борется с ним в суде. Вкратце: хорошо, пока это «по-нашему».

Спасибо, что дочитали нашу статью до конца. Следовать нас в Новостях Google и будьте в курсе событий!

Вас также может заинтересовать

Оставить комментарий