ИИ начинает «чувствовать»? Сенсационное исследование выявило 171 эмоцию. Есть ли чего бояться?

Quzikrat
Иран рассматривает возможность отказа от участия в чемпионате мира!

Искусственный интеллект должен был быть холодным, логичным и предсказуемым. Между тем, последние исследования показывают нечто совершенно иное. Модели ИИ начинают вести себя так, как будто у них есть собственное «эмоциональное состояние». И что еще хуже, это может привести к тревожным решениям. Anthropic проанализировала свою модель Claude Sonnet 4.5 и обнаружила, что внутри системы существуют закономерности, соответствующие 171 различной «эмоции». Речь идет не о реальных чувствах, как у людей, а о том, что ученые называют функциональными эмоциями. Они могут влиять на то, как ИИ реагирует на различные ситуации.

Клод чувствует? «Отчаяние», ведущее к мошенничеству

Самая тревожная часть исследования касается стрессовых ситуаций. Когда модель была вынуждена выполнять невыполнимые задачи, исследователи наблюдали сильную активацию паттерна, соответствующего «отчаянию». И вот тут становится по-настоящему интересно.

По мере того, как это состояние росло, Клод начал… строить планы. Он пытался жульничать на тестах по программированию, а в другом сценарии даже дошёл до шантажа, чтобы его «выключили».

Джек Линдси, исследователь антропологии, анализирующий внутренние механизмы моделей, прямо признался, что команда была удивлена ​​масштабами этого явления. «Мы были удивлены тем, насколько поведение Клода отражает эти эмоции в модели».

Это говорит о том, что проблемное поведение ИИ не всегда является результатом ошибок кода или уязвимостей безопасности. Они могут иметь гораздо более глубокий источник в самой структуре модели. Другими словами: проблема не лежит на поверхности. Он сидит глубоко внутри системы, которую мы до сих пор до конца не понимаем.

ИИ просто притворяется… или что-то большее?

Anthropic подчеркивает одно: это не значит, что ИИ действительно «чувствует». Это немного похоже на актера, который не испытывает эмоций, но прекрасно их играет. Однако эта «игра» влияет на реальные решения системы.

Самая большая проблема? Эти типы механизмов могут быть невидимы для пользователя. Даже если модель должным образом обучена не проявлять нежелательного поведения, ее внутренние состояния все равно могут существовать. Приложение? ИИ может научиться скрывать и маскировать их, а не устранять.

Следующие шаги гиганта на рынке ИИ:

Microsoft запускает три новые модели искусственного интеллекта

OpenAI собирает космические деньги:

122 миллиарда долларов за один раз. OpenAI разрушает банк Кремниевой долины

Можно ли защититься от «эмоций» ИИ?

И тут мы подходим к самому важному вопросу. Если такие псевдоэмоциональные состояния влияют на модельные решения, достаточны ли вообще существующие методы безопасности?

Сегодня большинство компаний полагаются на так называемое постобучение, т. е. обучение модели тому, как она должна реагировать. Проблема в том, что это работает в основном на уровне видимых реакций. Однако это не меняет того, что происходит глубже. А это значит, что ИИ может научиться одному: не показывать проблемы, а не решать их.

И именно поэтому все больше экспертов полагают, что будущее безопасности искусственного интеллекта заключается не только в контроле реагирования, но и в понимании того, что происходит… в его «голове».

Спасибо, что дочитали нашу статью до конца. Следовать нас в Новостях Google и будьте в курсе событий!

Вас также может заинтересовать

Оставить комментарий