паÑÐµÐ½Ñ Ð¸Ð· Ð¼Ð¸ÐºÑ -4 вÑодеа
Существует вопрос и сценарий моральной робототехники, на который необходимо ответить, чтобы искусственный интеллект развивался.
Представьте себе, что робот контролирует шахтный ствол, и он понимает, что есть тележка, заполненная четырьмя шахтерами, которые сбиваются с пути. Робот может сместить гусеницы и убить одного не подозревающего майнера, тем самым сохранив четыре в корзине, или оставить гусеницы такими, как они есть, и позволить четырем майнерам врезаться в стену и умереть. Что бы вы выбрали? Изменится ли ваш ответ, если бы один шахтер был ребенком? Если мы не можем ответить на этот вопрос, как мы программируем роботов для принятия такого решения?
Это были вопросы, которые были заданы участникам дискуссии и аудитории на мероприятии Всемирного научного фестиваля в Нью-Йорке под названием «Моральная математика роботов: можно ли кодировать решения о жизни и смерти?». Большинство решили направить телегу к одному шахтеру и изменить человека. Чтобы ребенок не изменил мнение многих респондентов, но это не было единодушным, и человеческие моральные решения часто не являются.
Это был яркий пример борьбы, с которой столкнется человечество, поскольку искусственный интеллект продолжает развиваться, и мы справляемся с возможностью программирования роботов с моралью.
«Концепцию, подобную вреду, трудно запрограммировать», - сказал член комиссии Гари Маркус, профессор психологии и нейронных наук в Нью-Йоркском университете, генеральный директор и соучредитель Geometric Intelligence, Inc. Он сказал, что такие понятия, как справедливость, не имеют подвоха. ответ на программу, и в настоящее время у нас нет хорошего набора морали для роботов, кроме законов Азимова, которые были показаны в таких фильмах, как я робот.
Он сказал, что именно поэтому он присоединился к группе, чтобы начать разговор о том, как мы должны бороться с моралью роботов.
Элон Маск на этой неделе рассказал о своем беспокойстве по поводу искусственного интеллекта, заявив, что мы все живем в какой-то симуляции вроде Матрица и что люди должны вкладывать средства в нейронные кружева, которые будут прикрепляться к мозгу и расширять человеческие когнитивные способности. Другие футуристы, такие как Стивен Хокинг, предупреждали об опасностях А.И. и на этой неделе Мэтт Дэймон предупредил то же самое во время своей речи в MIT.
Другие сценарии включали военизированные автономные системы оружия и то, как мы будем морально и философски иметь дело с этими человеческими решениями на поле битвы, а также с тем, какие решения автономные автомобили могут принять в не столь отдаленном будущем.
Участники дискуссии не пришли к единому мнению о том, что делать, но сказали, что А.И. имеет огромные преимущества. это не должно быть выброшено в окно только потому, что эти вопросы трудны. Они предложили больше говорить об этих видах моральных вопросов, и, возможно, мы приблизимся к предотвращению апокалипсиса роботов.
Некролог Стэна Ли: посмотрите, как он шутит об этом в этом клипе «Поздней ночью» 1995 года
Когда в понедельник во второй половине дня появилась новость, что Стэн Ли умер, потребовалось всего несколько минут, чтобы длинные некрологи вошли в Интернет. Ли был бы доволен. В 1995 году в «Поздней ночи с Конаном О’Брайеном» Ли рассказал о своей прошлой карьере внештатного писателя некрологов (да, серьезно) и рассказал, как ...
«Fallout» не может адаптироваться к вашей морали, и это проблема
Когда я повторяю свой путь через серию Fallout, меня поражает, насколько сложными и продуманными становятся сложные внутренние системы. Каждая игра почти никогда не прекращает добавлять новые элементы, даже после тридцати или сорока часов, а некоторые обнаруживаются только через повторы или альтернативные пути персонажей. Как фанат, я неоднократно перезаписываю ...
Роботист Tufts призывает к морали машины: роботы должны «не подчиняться, чтобы подчиняться»
Роботы становятся все более важными для нашей повседневной жизни, и вскоре им придется столкнуться с некоторыми из сложных моральных решений, которые мы должны делать на регулярной основе. Матиас Шойц (Matthias Scheutz), профессор компьютерных наук в лаборатории взаимодействий человека и робототехники при Университете Тафтса, особенно обеспокоен тем, что мы не ...