Хьюман Райтс Вотч: Китай использует большие данные для целевых групп меньшинств

$config[ads_kvadrat] not found

Солдатик молодой Исполняет Иван Разумов

Солдатик молодой Исполняет Иван Разумов
Anonim

Согласно отчету Хьюман Райтс Вотч, опубликованному в понедельник, китайское правительство использует алгоритмы прогнозирующей полицейской деятельности для борьбы с этническими меньшинствами в провинции Синьцзян.

В провинции на северо-западе Китая проживает 11 миллионов уйгуров, турецкой мусульманской этнической группы, которая подвергается дискриминации со стороны китайского правительства в последние годы.

В настоящее время власти, как сообщается, используют большие данные для систематического преследования лиц, подозреваемых в политической нелояльности. Этот толчок является частью кампании «Удар с силой», направленной на подавление потенциальной террористической активности в Китае. По словам Хьюман Райтс Вотч, на практике это привело к непропорциональной полицейской деятельности уйгуров.

Система интеллектуального контроля, известная как IJOP - интегрированная платформа совместных операций, - получает данные от различных инструментов наблюдения. К ним относятся камеры видеонаблюдения, номерные знаки и номера удостоверений личности граждан, полученные на контрольно-пропускных пунктах, а также множество персональных данных, включая медицинские, банковские и юридические записи.

В дополнение к автоматизированному наблюдению, государственные чиновники проводят визиты на дом для сбора данных о населении. Китайский бизнесмен поделился с Хьюман Райтс Вотч формой, которую он заполнил для записей IJOP - среди прочего, в анкете был задан вопрос, был ли бизнесмен уйгурским, как часто он молится и куда он отправляется на религиозные службы.

Все эти входные данные используются IJOP для обозначения людей как потенциальных угроз. Когда кто-то помечен, полиция начинает дальнейшее расследование и берет его под стражу, если его считают подозрительным.

«Впервые мы можем продемонстрировать, что использование правительством Китая больших данных и интеллектуальная политика не только грубо нарушают права на неприкосновенность частной жизни, но и позволяют чиновникам произвольно задерживать людей», - сказала старший исследователь Хьюман Райтс Вотч в Китае Майя Ван.

Согласно докладу, некоторые из людей, помеченных флагом, были отправлены в политические учебные центры, где их держат без суда на неопределенный срок.

«По оценкам Хьюман Райтс Вотч, примерно с апреля 2016 года власти Синьцзяна отправили десятки тысяч уйгуров и других этнических меньшинств в« центры политического образования », - говорится в отчете. IJOP придает достоверность этим задержаниям, применяя видимость объективного алгоритмического анализа к дискриминационным арестам.

Что еще хуже, внутренняя работа IJOP окутана тайной.

«Люди в Синьцзяне не могут сопротивляться или бросать вызов все более навязчивому анализу их повседневной жизни, потому что большинство даже не знают об этой программе« черного ящика »или о том, как она работает», - сказал Ван.

Эта проблема та же самая, что и у самых сложных систем машинного обучения: применяемые ими процедуры принятия решений непрозрачны даже для создателей алгоритма.

Стоит обратить внимание на использование IJOP в Китае, потому что, по мере совершенствования технологии, прогнозирующая полицейская деятельность, вероятно, будет распространяться. Как Джон Кристиан указал на Схема В некоторых местах в Соединенных Штатах уже используются системы прогнозного полицейского контроля. Департамент полиции Лос-Анджелеса использует программное обеспечение, которое предвидит, где и когда могут произойти преступления, чтобы офицеры могли их предотвратить.

С другой стороны системы уголовного правосудия в залах судебных заседаний иногда используются алгоритмы, которые дают потенциальным условно-досрочным лицам оценку «риска», чтобы помочь судьям принимать более обоснованные решения. К сожалению, эти предположительно непредвзятые алгоритмы на самом деле различают по признаку расы.

Опыт Китая в области упреждающей полицейской деятельности подчеркивает важность реализации ответственного алгоритма, поскольку машинное обучение продолжает проникать в государственный сектор. Возможно, пришло время для технически подкованных правительств принять новую мантру: иногда искусственный интеллект создает больше проблем, чем решает.

$config[ads_kvadrat] not found