Исследование: Алгоритм, который "предвзят к черным" за плохими предсказаниями рецидивизма заключенного

$config[ads_kvadrat] not found

unboxing turtles slime surprise toys learn colors

unboxing turtles slime surprise toys learn colors
Anonim

Алгоритмы так же пристрастны, как и люди, которые их делают. Расследование ProPublica обнаружил, что Northpointe, создатель алгоритма, который пытается предсказать вероятность того, что заключенный совершит другое преступление, предсказывает, что черные люди с большей вероятностью совершат преступление после выхода, чем белые люди.

Алгоритм создает оценку «оценка риска» для заключенных. Он используется по всей стране для определения даты освобождения тюрьмы. После анализа данных для более чем 7 000 человек в округе Бровард, штат Флорида, реальность расистских алгоритмов становится ясной: черные обвиняемые почти в два раза чаще, чем белые обвиняемые, могут получить прогноз совершения другого преступления.

Анализ контролировал такие переменные, как пол и криминальный фон. Тем не менее, прогнозировалось, что темнокожие люди на 77 процентов чаще совершают насильственные преступления в будущем, а 45 процентов - на любые будущие преступления. Также вызывает беспокойство то, что только 20 процентов прогнозов Northpointe о том, кто совершит будущие насильственные преступления, являются точными.

Northpointe использует 137 вопросов, чтобы оценить потенциал людей, совершивших преступление. Как сообщает ProPublica, вопросы о расах не задаются. Однако некоторые вопросы могут быть связаны.

Примеры вопросов включают: «Был ли один из ваших родителей когда-либо отправлен в тюрьму или тюрьму?» И «Как часто вы вступали в драки во время учебы в школе?». Есть также вопросы типа «да / нет», такие как «Голодный человек имеет право украсть ». К другим факторам относятся уровень образования и наличие у человека работы.

ProPublica подробно объяснила точные методы получения доступа к данным Northpointe и проанализировала их, а Northpointe направила ProPublica письмо, в котором говорилось, что компания «не согласна с тем, что результаты их анализа или претензии были сделаны на основании этого». анализ, верны или что они точно отражают результаты применения модели ».

Результаты ProPublica, если не удивительно, вызывают озабоченность. Оценка риска используется для определения условно-досрочного освобождения и определения суммы облигаций; они даже учитывают уголовное наказание в девяти штатах.

Технология не является окончательным решением для каждой проблемы, особенно если учесть, что технология столь же несовершенна, как и люди, которые ее создают.

$config[ads_kvadrat] not found