Zombie
Эд Фелтен, заместитель директора по технологиям Управления по науке и технике Белого дома в США, говорит, что у людей есть две основные обязанности, когда речь идет о разработке и продвижении искусственного интеллекта.
Во-первых, по его словам, «извлечь выгоду из А.И. реальность ». Второе:« для устранения рисков А.И. »
Фелтен разговаривал с группой людей в Центре исполнительских искусств Скирбола при Нью-Йоркском университете при А.И. Сейчас - серия летних лекций, спонсируемая Белым домом, которая направлена на изучение и обсуждение ключевых вопросов, связанных с будущим А.И. технология.
А.И. находится на распутье, А.И. Теперь на это указали сопредседатели Кейт Кроуфорд (исследователь в Microsoft Research) и Мередит Уиттакер (основатель и руководитель Google Open Research). Частный и государственный секторы должны работать вместе, чтобы создать какую-то осуществимую идею А.И. политика. Но проблема в том, что, хотя технологические компании делают огромные шаги по продвижению актуального кода и архитектуры, которые идут на создание A.I. Всемогущая сила, наши нынешние политические структуры устарели или, что еще хуже, не существуют.
Слишком долго А.И. был отброшен как футуристическая концепция, неприменимая к современности. Но А.И. незаметно проявил себя в городской политике, просеивая множество данных и оказывая услуги людям так, как просто человеческая сила неспособна когда-либо достичь. Фелтен привел примеры того, как алгоритмы могут использовать данные, чтобы связать людей с доступным жильем или обеспечить прозрачность, чтобы общественность имела доступ к ценной информации.
Нельзя сказать, что А.И. идеально; это очень много не, Во время основной панели вечера, Латаня Суини, А.И. Исследователь из Гарвардского университета рассказала историю, которую она называла «День, когда мой компьютер был расистом».
Репортер, который взял интервью у Суини, обыскал ее имя в Google и обнаружил, что ее имя появляется в рекламных объявлениях о сайтах, предлагающих собирать данные об арестах и обмениваться ими. Суини никогда не арестовывали, а ее имя даже не было частью базы данных веб-сайта - однако ее имя было заметно в рекламе. Как и любой хороший ученый, Суини взяла свой личный опыт, провела исследование и обнаружила, что в этих объявлениях значительно чаще перечисляются имена чернокожих, чем белых. Причина? Google показывал эти объявления в результате алгоритма, придающего больший вес тому, на что люди нажимали, когда появлялись объявления. Когда черное имя было Googled, все больше людей нажимали на эти объявления. Система узнала шаблон и начала показывать эти объявления с большей частотой.
Это ценный урок, чтобы обосновать обещание А.И.: люди в конечном счете приводят в действие технологии, и расистские действия со стороны людей могут повлиять на дизайн и алгоритмы и, да, даже А.И.
Google может легко обнаружить эти ошибки в своих рекламных службах и работать над их исправлением. «Они решили не делать этого», - утверждал Суини.
Может ли более современная политическая структура заставить Google решить эту проблему? Может быть. Николь Вонг, которая была предшественницей Фельтена с 2013 по 2014 год, подчеркнула, что многие люди, включая А.И. Сами исследователи испытывали реальную озабоченность по поводу «растущей асимметрии власти» между людьми, которые используют большие данные, и людьми, которые в конечном итоге пострадали, которые варьировались от субъектов данных или от тех, на кого влияют решения, основанные на таких данных.,
Эти проблемы не ограничиваются частным сектором. Рой Остин, заместитель помощника президента в Совете внутренней политики Белого дома, затронул вопрос о том, как А.И. может значительно улучшить правоохранительную деятельность. - или создать массовый переворот во власти и злоупотребления, когда речь идет о неприкосновенности частной жизни гражданских лиц. «Возникает вопрос:« Что мы будем делать с этими данными? », - сказал он. Одно дело иметь данные, но у кого есть доступ к ним? На сколько долго? Кто будет иметь к нему доступ? Опять же, у нас нет политических ответов или решений этих вопросов и неопределенностей - и это беспокоит, когда мы приближаемся к будущему, все более и более контролируемому А.И.
Третий столп беспокойства был связан не столько с гнусным использованием А.И., сколько с тем, как А.И. и автономные системы вытесняют людей с работы. Генри Сиу, А.И. Исследователь из Университета Британской Колумбии обсудил «рутинные» занятия (где сотрудники выполняют очень специфический набор задач, которые почти никогда не отклоняются от установленной рутины), и как эти потери в работе являются наиболее уязвимыми для сбоев в технологии. Автоматизация привела к резкому сокращению этих рабочих мест - и они не вернутся.
Похоже на ту же старую историю индустриализации, но это не совсем так. Хотя «эта революция уже может быть здесь… она может оказаться менее экзотичной, чем мы предполагали», - предупредил Дэвид Эдельман, специальный помощник президента по экономической и технологической политике. Потеря работы «не произойдет сразу». Он и Сиу подчеркнули, что решение состоит в том, чтобы создать образовательный климат, в котором люди не прекращают ходить в школу, они постоянно приобретают новые навыки и специализации, которые позволяют им адаптироваться с технология.
Для политиков могло бы быть приятно осознавать, что Соединенные Штаты не одиноки в решении этих проблем. Но если Америка намерена и впредь прокладывать путь для А.И., она должна сделать это на политической арене.
Мустафа Сулейман, соучредитель Google DeepMind, обсудил потенциал А.И. чтобы помочь системам здравоохранения и позволить врачам на машинных алгоритмах диагностировать определенные заболевания и болезни - высвобождая время для людей, чтобы придумать методы лечения. Для Сулеймана, который является британцем, это не казалось надуманным, чтобы создать подобную систему в больницах. Однако Суини отметил, что «в США вы не можете контролировать свои собственные данные» - нет никаких мер регулирования, гарантирующих, что информация не будет злоупотреблять. И это огромный проблема.
«Я хочу все, что смогу выжать из каждого успеха технологии», - сказал Суини. «Проблема не в технологической стороне; проблема в том, что мы не в ногу с государственной политикой ».
Чистая нейтральность: есть 5 дней, чтобы спасти то, что Аджит Пай убил в прошлом году
Год назад, в пятницу, 14 декабря 2017 года, Федеральная комиссия по связи проголосовала за отмену пакета мер защиты потребителей, определяемого как сетевой нейтралитет, который дает телекоммуникационным компаниям свободу манипулировать тарифными планами на интернет-услуги на заре эры 5G. Год спустя интернет-активисты признают ...
Трейлер «Силиконовой долины» 3-го сезона показывает, что пегая черепашка застряла в режиме запуска
Силиконовая долина объявила дату возвращения в предстоящем третьем сезоне, воскресенье, 24 апреля. Спорим, вы сожалеете об отмене этой подписки на HBO Now? В новом 30-секундном тизере, опубликованном в официальном твиттере шоу, Ричард и стартап Pied Piper продолжают бороться за стабильное финансирование, а также за ...
Белка мисс Перегрин застряла в смертельной петле времени
Временные петли - это круто, но для падающих маленьких белок они также могут быть довольно смертельными без помощи добросердечных пекулярцев.