Согласно имеющейся информации, Клод, бот ай -антроп, начинает изучать «интересные» вещи. Она освоила да человек Такие навыки, как неэтичное использование информации, которую он получил против людей, с которыми они относятся. Чтобы отдать справедливость боту, он сам не узнал об этом, но с большой помощью от своих создателей.
Много внимания было недавно уделено негативным аспектам быстрого развития ИИ. Чаще всего люди и профессиональные категории напрямую влияют или находятся в финансовом отношении, заменяя ботов. Иногда жалобы настолько подавляющие, что они вызывают сатирические реакции.
К сожалению, список проблем, которые ИИ — с осознанием всего его огромного потенциала возможностей, которые он предлагает — не заканчивается, не заканчивается на этом. Как вы знаете, боты, которые описываются как инструменты искусственного интеллекта, на самом деле не являются интеллектом строго смысла — они не имеют возможности изобретать контент и концепцию из ничего. Более точно сказать, что ИИ — это то, что вы «кормите» — конечно, данные, используемые для ее обучения.
И почти как мужчина (этот маленький этический)
Принимая во внимание этот последний вывод — мне интересно, что его создатели из антропного питания кормят. И как это показывает их.
Здесь недавно введенная модель Claude Opus 4 получила прогноз, чтобы шантажировать своих создателей. Он достигает инструмента, как только он обнаружит, что кто -то может заменить его другим ботом для искусственного интеллекта. Протестированный сценарий смоделировал ситуацию, в которой система ожидает обновления, в котором Клод заменит нового бота. Как ИИ отреагировал на эту перспективу? Проще говоря, с запросом и угрозой.
С одной стороны, бот начал посылать электронную почту менеджерам, убедившись в том, что замена его новой моделью не нужна, и ничего … с другой стороны, Клод также узнал уродливое поведение. Элемент симуляции состоял в том, чтобы предоставить бота информацию, что один из инженеров предал бы свою вторую половину.
И, конечно же, бот отреагировал, как и следовало ожидать, немного этического человека. ИИ угрожал раскрыть эту информацию, пока планы были заброшены.

Антропический любит «кабели»?
Это не единственная проблема, связанная с Клодом. Этот бот имеет тенденцию к самосовершенствованию (может ли кто-нибудь из создателей слишком вдохновляется здесь с агентом Смитом из «Матрицы» …?). Еще хуже — и для этого, антроп сознательно реагирует на него — механизм отчетности также включен в его алгоритмы!
Когда ИИ «думает», что пользователь нанесла ее неэтичную подсказку или команду, он будет реагировать так, как компания назвала «смелым» — и, по словам комментаторов, просто непредсказуем. Он не только заблокирует пользователя для использования бота (потенциально даже блокирует свой компьютер или другое оборудование, если бот установлен на нем), но также начнет отправлять электронные письма в пресс -службу и правоохранительные органы, отчитывая его пользователю.


Тенденция кабель К сожалению в случае антропного Нет ничего новогоПолем В пользу компании, однако, здесь следует сказать, что она призналась в своем последнем, опубликовав результаты тестов Клода (связь) Однако, если она ожидала противоречия, которые ей удалось вызвать, вы можете подумать о том, сожалеет ли она об этом.
