А.И. Научно-исследовательский институт показывает, как создать ответственные алгоритмы

$config[ads_kvadrat] not found

Песня про любовь Классно поет под гитару

Песня про любовь Классно поет под гитару
Anonim

Научно-исследовательский институт AI Now опубликовал в среду новые рекомендации по ответственному внедрению алгоритмов в публичной сфере.Их рекомендации направлены на целевую группу, сформированную городским советом Нью-Йорка в январе, которая изучает использование искусственного интеллекта правительством.

Отчет AI Now, Оценка алгоритмического воздействия: на пути к подотчетной автоматизации в государственных учреждениях, подчеркивает необходимость прозрачности при развертывании алгоритмов. Алгоритмы оказывают огромное влияние на нашу повседневную жизнь, но иногда они остаются незамеченными. Например, поскольку они встроены в инфраструктуру социальных сетей и видеоплатформ, легко забыть, что программы часто определяют, какой контент передается пользователям Интернета. Только когда что-то идет не так, как видео о теории заговора, попадающее в верхушку популярного списка YouTube, мы тщательно исследуем автоматизированные процедуры принятия решений, которые формируют опыт в Интернете.

И алгоритмы не ограничиваются интернет-платформами. Правительственные учреждения стали все больше полагаться на алгоритмы в областях от образования до уголовного правосудия. В идеальном мире алгоритмы устраняют предвзятость человека при принятии трудных решений, таких как определение того, должен ли заключенный быть условно освобожден. На практике, однако, алгоритмы эффективны только как люди, которые их делают.

Например, расследование ProPublica продемонстрировали, что алгоритмы оценки риска, используемые в залах судебных заседаний, были расистскими. Что еще хуже, многие алгоритмы, используемые в государственном секторе, находятся в частной собственности, а некоторые компании отказываются делиться кодом, лежащим в основе их программного обеспечения. Это делает невозможным понять, почему эти так называемые алгоритмы «черного ящика» возвращают определенные результаты.

Одно из возможных решений, предлагаемых AI Now? Алгоритмические оценки воздействия. Эти оценки устанавливают норму полной прозрачности, а это означает, что правительственные учреждения, использующие алгоритмы, должны будут публиковать информацию о том, когда и как они их используют. «Само по себе это требование будет иметь большое значение для того, чтобы пролить свет на то, какие технологии используются для обслуживания общественности и на чем следует сосредоточить исследования подотчетности», - говорится в докладе.

Политика открытости окружающих алгоритмов также открыла бы гражданам возможность тщательно изучить и опротестовать их использование. Хотели бы вы, чтобы алгоритм давал вам оценку оценки риска, основанную на факторах, находящихся вне вашего контроля, особенно когда эта оценка может помочь определить, попадете ли вы в тюрьму? Может быть да, может быть нет. В любом случае, важно точно знать, какие переменные анализируются алгоритмом.

Кроме того, AI Now рекомендует установить юридический стандарт, позволяющий людям лоббировать недобросовестные алгоритмы.

Например, если агентство не раскрывает системы, которые разумно подпадают под действие тех, кто принимает автоматизированные решения, или если оно позволяет поставщикам предъявлять претензии за коммерческую тайну за борт и, таким образом, блокирует значимый доступ к системе, у общественности должна быть возможность выразить обеспокоенность по поводу орган надзора агентства, или непосредственно в суде, если агентство отказалось исправить эти проблемы после периода общественного обсуждения.

Рекомендации по сути сводятся к одному всеобъемлющему мандату: если вы используете алгоритмы, не стесняйтесь об этом.

Читайте полный отчет здесь.

$config[ads_kvadrat] not found