Мускус, Возняк, Хокинг, Другие гении противостоят автономному оружию

$config[ads_kvadrat] not found

Как изменить кодировку

Как изменить кодировку
Anonim

В течение многих десятилетий АК-47 был машиной для убийства во многих пыльных уголках мира, потому что он дешевый, долговечный и вездесущий. Те же самые факторы, утверждают авторы открытого письма, выпущенного в понедельник Институтом будущего жизни, являются причиной того, что автономное оружие чревато опасностями. Но что отличает вооружение искусственного интеллекта от автоматов Калашникова, так это то, что автономная машина может «выбирать и поражать цели без вмешательства человека», что в чужих руках может привести к злодеяниям, намного превышающим любые некальцифицированные винтовки.

Подписавшиеся имеют свою работу для них. Как люди, мы в целом гораздо лучше реагируем, чем думаем. Крупные игроки не спешат опускать наши ядерные вооружения (и, как думают ученые, для создания автономных беспилотников потребуется небольшая часть механизма, необходимого для создания ядерного оружия); в других местах наземные мины до сих пор усеивают поля сражений, насчитывающие десятилетия Когда технология стояла, чтобы революционизировать войну - будь то порох, морские дредноуты или обогащенный уран - почти никогда не было не была гонка вооружений.

FLI проводит различие между имеющимися у нас дронами, управляемыми дистанционно человеческими руками, и роботом, включенным и оставленным на свои убийственные устройства. Создание последнего вызовет глобальную гонку вооружений ИИ, что, как утверждает FLI, и как показывает история Калашникова, не закончится хорошо:

Это будет лишь вопросом времени, пока они не появятся на черном рынке и в руках террористов, диктаторов, желающих лучше контролировать свое население, полевых командиров, желающих совершить этническую чистку и т. Д. Автономное оружие идеально подходит для таких задач, как убийства, дестабилизация нации, покоряя население и выборочно убивая определенную этническую группу. Поэтому мы считаем, что военная гонка вооружений ИИ не принесет пользы человечеству. Есть много способов, которыми ИИ может сделать поля битвы более безопасными для людей, особенно гражданских, без создания новых инструментов для убийства людей.

Это какое-то тяжелое дерьмо. И имена, стоящие за этим предупреждением, - это не ваши обычные шутки от Skynet, а создатели, инженеры, ученые и философы, которые помогли сформировать то, как наша технология выглядит сегодня. Часть имен включает в себя: Apple Стив Возняк, Skype Яан Таллинн, Гарвардский физик Лиза Рэндалл, кто есть кто из исследователей ИИ и робототехники - в том числе Стюарт Рассел, Барбара Дж. Грош, Том Митчелл, Эрик Хорвиц - актриса Талула Райли, Ноам Хомски, Стивен Хокинг.

В последнее время Хокинг немного пессимистично настроен, также повторяя свои прогнозы об опасности столкновения с внеземной жизнью. Он также будет отвечать на вопросы об этом письме и о будущем технологий на Reddit на этой неделе - возможно, мы не сможем контролировать враждебных инопланетян, но мы можем «взять на себя ответственность ученых на переднем крае этой технологии, чтобы сохранить человеческий фактор» фронт и центр их инноваций ».

Вы также можете добавить свое имя к письму.

$config[ads_kvadrat] not found