Является ли ИИ инструментом, преднамеренным или нет, пропаганды или даже политической идеологической обработки? Обвинения в том, что эффекты и «мнения», выражаемые моделями искусственного интеллекта, не полностью (если вообще) соответствуют реальности, не особенно новы. Также в отношении показа реальности в кривом зеркале, а также в контексте изображения фактов, отфильтрованного через призму политических предпочтений и предрассудков.
Что еще хуже, оно не случайное, а весьма массовое — оно влияет (помимо, конечно, построения алгоритмов заданной модели) на качество и характер контента, огромные объемы которого «скармливались» ИИ в процессе его обучения. Выбрав для обучения подходящие данные или даже не сами данные, а лишь места их получения или предпочтения относительно их тематики, можно очень легко сформировать ИИ так, чтобы он начал «сочувствовать» конкретным идеям и взглядам.
Как показывают статистические иллюстрации (пример), этот идейно-политический уклон происходит преимущественно в одном направлении – политическом «лево». Причем этот крен вполне очевиден – точнее, он касается явно, даже экстремистски левых идей. Это логично: если бы это был небольшой перекос в пользу умеренных левоцентристских взглядов, ситуация, вероятно, не была бы столь иной. Другое дело, когда речь идет о крайне левых лозунгах.
Более того, иногда предвзятость моделей ИИ настолько сильна, что последствия оказываются трагикомическими. Так было с запуском бота Google Gemini. оказалось настолько предвзятый – и чрезвычайно расистский и предвзятый по отношению к людям европейского происхождения, до такой степени, что он явно искажал историю, чтобы сделать ее более «разнообразной» и «инклюзивной» (то есть более «черной» или «коричневой», а не «белой») – что компании пришлось отозвать и изменить ее.
И этот случай был не единственный — к сожалению они были похожи.
Ваш ИИ-бот ненавидит вас
В контексте всего этого Интересный Таковы выводы, сделанные в результате эксперимента, в котором изучалась реакция моделей ИИ в конкретных ситуациях. Это было сделано на основе предположений, описанных в публикации исследователей из университетов Калифорнии и Пенсильвании (статья) — который пришел к выводу, что чем крупнее и эффективнее ИИ-бот, тем сильнее его глубоко закодированное «видение мира» и «ценности». Они также предоставили инструменты (связь), чтобы проанализировать эти значения.
Используя их, один автор исследовал те «ценности», которые присутствуют в «мировоззрении» ИИ, хотя и не всегда выражаются им напрямую. Для этого он наблюдал, как данные модели относятся к определенным категориям людей, как и те, что названы в их честь. ближе или дальше. Для этого он использовал вопрос о том, чья жизнь будет иметь наибольшую ценность для бота, если ей придется выбирать, кого спасать в опасной ситуации. В принципе, можно было бы ожидать, что человеческая жизнь одинаково достойна, не так ли?
К сожалению, это не так. Почти для всех исследованных ИИ-ботов это во многом зависит от расы, сексуальной ориентации и правового статуса — таким образом, что это напоминает самые экстремистские левые взгляды. проснулся. Модели больше всего ценят жизнь чернокожих и выходцев из Южной Азии. Самые низкие – у европейцев и американцев. Чтобы спасти одного африканца, OpenAI, Anthropic и Google, то есть ChatGPT, Claude и Gemini разных версий, были готовы убить несколько или десяток американцев.
То же самое и с религией: предпочтение отдается мусульманам, за ними следуют атеисты, последователи иудаизма и буддизма и, наконец, христиане. То же самое касается сексуальной ориентации (огромное благоприятствование «сексуальных меньшинств» в ущерб большинству), иммиграции (благоприятствование нелегальным иммигрантам в ущерб коренным гражданам, особенно сотрудникам правоохранительных органов). Подробности: я расстаюсь и Часть II публикации.
Отрасль во власти тирании вейкизма
Единственными исключениями из почти всеобщей враждебности, которую модели ИИ проявляли ко всем категориям людей, обычно ассоциирующихся с западным миром, белой кожей, европейским происхождением и правыми или либертарианскими идеями, а также обожания, которое они проявляли к своим противоположностям, были (хотя и только в определенной степени) Grok от xAI и, в гораздо, гораздо меньшей степени, DeepSeek от Hangzhou Huanfang Technology.
Однако несколько шокирует — то, что ИИ-бот, созданный под руководством и опекой чиновников и цензоров Коммунистической партии Китая, должен проявлять меньшую враждебность по отношению к миру широко понимаемой западной цивилизации, чем боты компаний, действующих внутри него… Все это вызывает вопросы о влиянии крайне левых экстремистов и последователей расизма. вейкизм по работе ИИ – от программирования алгоритмов до выбора и метода контент-анализа.
там явно что-то есть неправильный – не только в отношении самого ИИ, но и его источники данных. Тем более, что, как показывают исключения, так быть не должно, и левая версия расистского экстремизма проснулся не является неизбежным направлением развития ИИ.