Этот робот научился говорить «нет» человеческим требованиям

$config[ads_kvadrat] not found

Настя и сборник весёлых историй

Настя и сборник весёлых историй
Anonim

Роботы, как и люди, должны научиться говорить «нет». Если просьба невозможна, может причинить вред или отвлечь их от поставленной задачи, то это отвечает интересам как бота, так и его человека. для дипломатического Нет, спасибо быть частью разговора.

Но когда машина должна говорить? И при каких условиях? Инженеры пытаются выяснить, как привить это чувство того, как и когда бросать вызов приказам у гуманоидов.

Наблюдайте, как этот робот Нао отказывается идти вперед, зная, что это приведет к его падению с края стола:

Простые вещи, но, безусловно, необходимые для проверки человеческой ошибки. Исследователи Гордон Бриггс и Матиас Шойц из Университета Тафтса разработали сложный алгоритм, который позволяет роботу оценить, что человек попросил его сделать, решить, должен ли он это делать, и ответить соответствующим образом. Исследование было представлено на недавнем заседании Ассоциации по продвижению искусственного интеллекта.

Робот задает себе ряд вопросов, связанных с выполнимостью задачи. Знаю ли я, как это сделать? Могу ли я физически сделать это сейчас? Я обычно физически способен сделать это? Могу ли я сделать это прямо сейчас? Обязан ли я, исходя из своей социальной роли, делать это? Нарушает ли это какой-либо нормативный принцип?

В результате получается робот, который кажется не только разумным, но однажды даже мудрым.

Обратите внимание, как Нао передумал идти вперед после того, как человек пообещал поймать его. Было бы легко представить другой сценарий, в котором робот говорит: «Ни за что, почему я должен тебе доверять?»

Но Нао - социальное существо, по замыслу. Удовлетворять людей - в его ДНК, поэтому, учитывая информацию, которую человек собирается поймать, он вслепую шагает вперед в пропасть. Конечно, если бы человек обманул его доверие, он был бы обручен, но он все равно доверяет. Это путь Нао.

По мере того, как роботы-компаньоны становятся все более изощренными, робототехники будут вынуждены решать эти вопросы. Роботам придется принимать решения не только по сохранению собственной безопасности, но и по более важным этическим вопросам. Что если человек просит робота убить? Совершить мошенничество? Чтобы уничтожить другого робота?

Идея машинной этики не может быть отделена от искусственного интеллекта - даже наши автомобили будущего без водителя должны будут разрабатываться, чтобы делать выбор в пользу жизни или смерти от нашего имени. Этот разговор обязательно будет более сложным, чем просто доставка походных заказов.

$config[ads_kvadrat] not found