Предотвратите Апокалипсис робота, размышляя об этом А.И. Вопрос морали

$config[ads_kvadrat] not found

парень из микс -4 вродеа

парень из микс -4 вродеа
Anonim

Существует вопрос и сценарий моральной робототехники, на который необходимо ответить, чтобы искусственный интеллект развивался.

Представьте себе, что робот контролирует шахтный ствол, и он понимает, что есть тележка, заполненная четырьмя шахтерами, которые сбиваются с пути. Робот может сместить гусеницы и убить одного не подозревающего майнера, тем самым сохранив четыре в корзине, или оставить гусеницы такими, как они есть, и позволить четырем майнерам врезаться в стену и умереть. Что бы вы выбрали? Изменится ли ваш ответ, если бы один шахтер был ребенком? Если мы не можем ответить на этот вопрос, как мы программируем роботов для принятия такого решения?

Это были вопросы, которые были заданы участникам дискуссии и аудитории на мероприятии Всемирного научного фестиваля в Нью-Йорке под названием «Моральная математика роботов: можно ли кодировать решения о жизни и смерти?». Большинство решили направить телегу к одному шахтеру и изменить человека. Чтобы ребенок не изменил мнение многих респондентов, но это не было единодушным, и человеческие моральные решения часто не являются.

Это был яркий пример борьбы, с которой столкнется человечество, поскольку искусственный интеллект продолжает развиваться, и мы справляемся с возможностью программирования роботов с моралью.

«Концепцию, подобную вреду, трудно запрограммировать», - сказал член комиссии Гари Маркус, профессор психологии и нейронных наук в Нью-Йоркском университете, генеральный директор и соучредитель Geometric Intelligence, Inc. Он сказал, что такие понятия, как справедливость, не имеют подвоха. ответ на программу, и в настоящее время у нас нет хорошего набора морали для роботов, кроме законов Азимова, которые были показаны в таких фильмах, как я робот.

Он сказал, что именно поэтому он присоединился к группе, чтобы начать разговор о том, как мы должны бороться с моралью роботов.

Элон Маск на этой неделе рассказал о своем беспокойстве по поводу искусственного интеллекта, заявив, что мы все живем в какой-то симуляции вроде Матрица и что люди должны вкладывать средства в нейронные кружева, которые будут прикрепляться к мозгу и расширять человеческие когнитивные способности. Другие футуристы, такие как Стивен Хокинг, предупреждали об опасностях А.И. и на этой неделе Мэтт Дэймон предупредил то же самое во время своей речи в MIT.

Другие сценарии включали военизированные автономные системы оружия и то, как мы будем морально и философски иметь дело с этими человеческими решениями на поле битвы, а также с тем, какие решения автономные автомобили могут принять в не столь отдаленном будущем.

Участники дискуссии не пришли к единому мнению о том, что делать, но сказали, что А.И. имеет огромные преимущества. это не должно быть выброшено в окно только потому, что эти вопросы трудны. Они предложили больше говорить об этих видах моральных вопросов, и, возможно, мы приблизимся к предотвращению апокалипсиса роботов.

$config[ads_kvadrat] not found