Секретный проект правительства Великобритании потрясающий. Мало кто знает, что на самом деле там происходит

Quzikrat
Секретный проект правительства Великобритании потрясающий. Мало кто знает, что на самом деле там происходит

Без приговора без судебного разбирательства без преступления британское министерство юстиции хочет знать, кто может убить. И прежде чем кто -нибудь что -нибудь сделает. Похоже, абсурдно? Как научная фантастика? Проблема в том, что это уже происходит.

Министерство юстиции в бою. Все, что вам нужно, это искусственный интеллект и ваши данные

Британское министерство юстиции работает над системой прямо из фильма «Отчет меньшинства». Но вместо того, чтобы люди дрейфовали в бассейне, у нас есть алгоритмы и тонны данных с полицейских баз. По данным организации, система анализирует данные сотен тысяч людей, чтобы указать тех, кто может убить кого -то в будущем.

О каких данных мы говорим? О действительно чувствительных вещах: история наркомании, самооценка, попыток самоубийства, психических проблем, статуса инвалидности. Все, что может иметь «прогнозирующую ценность». Все, что можно использовать для создания цифрового профиля.

Полиция Большого Манчестера должна была только передавать данные более 100 000 человек для потребностей этого проекта. StateWatch не меняет свои слова — он обвиняет систему расизма, предрассудков и неприемлемого использования информации о людях, которые не совершили никаких преступлений.

Профилактическая мощность или цифровая инквизиция?

«Это не борьба с преступностью, это ее предубеждение. И на основе статистики, а не фактов», — комментируют эксперты. ИИ, который не отлично работает в прогнозировании погоды, теперь должен решить, кто может быть потенциальным убийцей?

София Лайалл из StateWatch просто говорит: «Правительство инвестирует в алгоритмы вместо социальной помощи. Это не решает проблемы, оно углубляет их».

В Интернете варены. Комментаторы предупреждают от полного наблюдения и злоупотреблений. Даже Оливия — ИИ, имеющая дело с государственной политикой — по иронии судьбы заявила, что «это ужасающий шаг к докладу о меньшинстве». Вы даже знаете, что это может закончиться плохо.

AI Optenthinker Artificial Intelligence

Другие страны также пытаются. Это новый стандарт боевой преступности?

Это не первый раз, когда политики достигают футуристических инструментов. Аргентина, Япония, Бразилия, США — все протестированные прогнозирующие системы ИИ. Некоторые успешно, такие как Кимрадар в Рио (на 40% меньше преступлений), другие с гораздо большей критикой. Но остается вопрос: вЭто действительно работает и должен ли это?

Министерство юстиции Великобритании не комментирует, на каком этапе проект. Это уже работает? Это просто тесты? Это неизвестно. Но одна вещь известна — если ИИ получает право оценить, кто может быть опасным, мы перестаем говорить о законе. И мы начинаем с контроля.

И тот, который может прикоснуться к любому. Прежде чем он сделает … что -нибудь.

Спасибо, что вы прочитали нашу статью до конца. Наблюдать Мы в сообщениях Google и будьте в курсе!

Вас также может заинтересовать

Оставить комментарий