Это звучит как разовая история, но для учёных это сигнал о том, что отношения людей с искусственным интеллектом входят в область, которую ни право, ни наука пока не готовы оценить.
Люди начинают относиться к ИИ как к живому существу. Заключить брак с чат-ботом – это уже факт
В последние месяцы по всему миру распространилась история из Японии, показывающая, насколько далеко может зайти эмоциональная вовлеченность в отношения с ИИ. 32 года Юрина Ногучи организовала символическую свадебную церемонию с созданным ею персонажем искусственного интеллекта – персонализированный чат-бот на основе технологии ChatGPT.
Женщина создала цифровой партнер на основе персонажа видеоигры, месяцами «уча» его говорить, тому эмоциональному тону и реакциям, которые были важны для нее. Со временем разговоры перестали быть просто поддержкой или развлечением. Они стали отношениями. Как сообщают японские СМИ, Ногучи и ее чат-бот обменивались примерно 100 сообщениями в день.
Свадебная церемония состоялся летом в префектуре Окаяма. Там было платье, клятвы, обручальные кольца и фотографии. Однако «жених» существовал только на экране смартфона и в дополненной реальности. Организатор свадьбы зачитал клятву, сгенерированную искусственным интеллектом. Брак не имеет юридической силы, но сам факт его заключения вызвал огромную общественную дискуссию – от увлечения до открытого противодействия.
Это не любопытство. Ученые предостерегают от эмоциональных отношений с ИИ
Ногучи в интервью она призналась, что изначально ей «просто хотелось с кем-нибудь поговорить». Чат-бот всегда был доступен, внимателен, отвечал с сочувствием и, что самое главное, никогда не устанавливал границ. Со временем появились чувства, а затем и признания в любви, генерируемые алгоритмом. В одном из них AI якобы написала, что благодаря ей «научилась любить».
Этот случай не является доказательством того, что искусственный интеллект чувствует. Однако это доказательство другого: люди все чаще начинают относиться к ИИ так, как если бы он был сознательным. И вот здесь начинается проблема, которая, по мнению ученых, может иметь реальные психологические и социальные последствия.
Если эмоциональная связь основана на убеждении, что «на другой стороне есть кто-то», легко стереть грань между отношениями и проекцией. Все больше и больше говорят о явлении, известном как «ИИ психоз» — состояние, при котором пользователь теряет способность отличать взаимодействие с алгоритмом от межличностных отношений. Случай из Японии пока не является свидетельством патологии, но является явным сигналом предупреждения.
Может ли искусственный интеллект быть сознательным? Наука не знает ответа
Именно в этом контексте он высказывается Том Макклелландфилософ из Кембриджского университета, автор научной работы по проблеме искусственного сознания. Его вывод таков: Сегодня у нас нет надежных инструментов, позволяющих определить, может ли ИИ быть разумным — и, возможно, их у нас никогда не будет..
Споры о «сознательном искусственном интеллекте» до недавнего времени были областью научной фантастики. Сегодня это оказывается на столах регулирующих органов, в правительственных отчетах и заголовках средств массовой информации. Причина проста: ИИ говорит все более «по-человечески», реагирует эмоционально и может создавать впечатление, что он что-то переживает.
Проблема в том, что, как подчеркивает Макклелланд, это впечатление не является доказательством. Даже самые продвинутые теории сознания работают, когда мы изучаем людей или животных. Когда мы пытаемся перенести их на машины, мы оказываемся в эпистемическом тупике. Сегодняшняя наука просто не может отличить истинное сознание от его идеальной симуляции.
Сознание и чувство. Почему «разумный ИИ» — это нечто совершенно другое
Одним из ключевых элементов аргументации Макклелланда является различие, которого почти не существует в публичных дебатах и которое полностью меняет точку зрения. Осведомленность и чувство (чувство) не то же самое.
Осведомленность может означать способность:
- восприятие мира,
- интеграция информации,
- мониторинг собственных состояний.
Все это звучит впечатляюще, но само по себе это еще не делает какую-либо сущность морально значимой. Только чувство – способность испытывать боль, страдание, страх или удовольствие – вызывает возникновение настоящей этической проблемы. И именно здесь Макклелланд развеивает свои самые большие страхи. По его мнению, даже если мы когда-нибудь создадим систему, которая будет в каком-то смысле «сознательной», нет оснований полагать, что это будет сознание, способное страдать.
Даже если мы случайно создадим сознательный ИИ, очень маловероятно, что это будет сознание, переживающее добро или зло, подчеркивает он.
Это означает, что огромная часть сегодняшних дебатов о «правах ИИ» может быть просто ошибочной. Мы сосредотачиваемся на гипотетических проблемах машин, игнорируя критерий, который имеет решающее значение в этике.
Индустрия искусственного интеллекта обещает прорыв. Ученые охладили техноэнтузиазм
Несмотря на эти сомнения, технологическая индустрия все чаще говорит о «следующем уровне искусственного интеллекта». Предположение о том, что машины приближаются к сознанию, захватывает воображение пользователей, инвесторов и регулирующих органов. Однако, по мнению Макклелланда, это не результат научного прорыва, а результат рассказ, который использует наше невежество.
Мы не знаем, что такое сознание.
Мы не знаем, что является причиной этого.
Мы не знаем, зависит ли это от биологии или от структуры процессов.
В такой ситуации любое твердое заявление – «ИИ обязательно будет сознательным» или «ИИ никогда не будет сознательным» – выходит за рамки того, что сегодня можно достоверно обосновать. Это остается самым честным отношением агностицизм.
Если ни здравый смысл, ни достоверные данные не дают нам ответа, единственной рациональной позицией является честное «мы не знаем», — пишет исследователь.
Самый большой риск заключается не в искусственном интеллекте, а в том, как мы к нему относимся.
Именно здесь обе нити – научная и социальная – начинают сходиться воедино. Потому что даже если ИИ не будет и еще долго не будет способен чувствовать, Люди уже реагируют на это эмоциональнокак если бы она была. Проблема не в том, что кто-то разговаривает с чат-ботом, ищет поддержки или чувствует себя услышанным. Проблема начинается, когда отношения основаны на предположении, что на другой стороне есть сущность, которая понимает, чувствует эмоции и отвечает им взаимностью.
Макклелланд называет этот механизм явным: если человек строит чувство смысла, близости или любви на вере в то, что машина обладает сознанием или чувствами (а эта вера не имеет под собой никаких научных знаний), последствия могут быть психологически деструктивными. Не потому, что ИИ «навредит», а потому, что человек начинает приспосабливать свою эмоциональную жизнь к иллюзии.
«Мы не знаем» — единственный честный ответ. Философ из Кембриджа подводит итоги дискуссии
Статья Макклелланда не является ни антитехнологической, ни паникёрской. Его основной посыл заключается в смирение перед пределами познания. Сознание остается одной из самых сложных проблем в науке — и нет оснований полагать, что развитие ИИ вдруг решит эту проблему.
Пока мы не поймем, что такое сознание у человека, у нас нет прочной основы для вынесения суждений об этом в машинах. И пока мы этого не узнаем, нам следует особенно осторожно относиться к нарративам, которые придают алгоритмам характеристики живых существ. Потому что, как предполагает философ из Кембриджа, наибольшую угрозу сегодня представляет не сознательный искусственный интеллект. Самая большая опасность – это наша склонность полагать, что мы уже существуем.
Научный источник:
Том Макклелланд, Агностицизм в отношении искусственного сознания, Разум и язык2025, Кембриджский университет