Первый кодекс этики BSI Запреты A.I. от вредных людей

$config[ads_kvadrat] not found

unboxing turtles slime surprise toys learn colors

unboxing turtles slime surprise toys learn colors
Anonim

Мечтают ли андроиды о гармонии с людьми? Они будут, если Британский институт стандартов (BSI) есть что сказать об этом. Ведущая британская организация по стандартизации бизнеса опубликовала руководство, в котором рассказывается, как роботы и роботизированные системы должны учитывать этику.

«Насколько я знаю, это первый опубликованный стандарт этического дизайна роботов», - сказал Алан Уинфилд, профессор робототехники в университете Западной Англии. Хранитель, «Это немного сложнее, чем законы Азимова - в основном излагаются методы оценки этического риска для робота».

BS 8611: 2016 с броским названием, цена которого составляет 158 фунтов стерлингов (208 долларов США), предназначена для производителей, чтобы помочь им понять, как этика может влиять на дизайн роботов. Известным примером, конечно, является «Три закона робототехники» Исаака Азимова, но в реальной этике роботов может потребоваться более сложная интерпретация искусственной морали, чем у них.

Тем не менее, BSI начинается с основ, таких как не создание роботов для нанесения вреда людям, документ объясняет, как могут возникать серые области - например, эмоциональная привязанность.

BSI не диктует, можно ли влюбиться в робота, но объясняет, что это может быть проблемой для рассмотрения. Это может стать предметом раздора в будущем, когда на рынок выйдут секс-роботы с искусственным интеллектом. На данный момент, однако, BSI больше обеспокоен тем, что дети могут образовывать связи с роботами. Дети могут не понимать, что машины являются неодушевленными предметами.

Правила могут показаться чем-то вроде небольшого беспокойства, пока роботы не станут сознательными, но эти решения должны быть приняты раньше, чем позже. Ранее в этом месяце министр транспорта Германии наметил три правила, которые будут определять правила страны в отношении автомобилей с самостоятельным вождением. Например, машины не смогут различать по возрасту, а это означает, что производители не должны программировать автомобили без водителя, чтобы ездить на определенные группы людей, если бы они могли выбирать во время чрезвычайной ситуации.

Подобные проблемы будут проявляться все чаще и чаще, и А.И. Разработчики начинают сталкиваться с тем, как научить роботов определенным системам ценностей.

$config[ads_kvadrat] not found