Marshmello - Alone (Official Music Video)
Оглавление:
- Почему Microsoft создала Тэй?
- Что делает Tay с данными, которые он собирает, общаясь с людьми?
- Где Тэй пошёл не так?
- Что делает Microsoft, чтобы исправить Тэй?
- Что это значит для будущего открытого А.И. системы?
На этой неделе Интернет сделал то, что умеет лучше всего, и продемонстрировал, что А.И. технология не так интуитивна, как человеческое восприятие, используя … расизм.
Недавно выпущенный Microsoft чат-робот с искусственным интеллектом, Tay, стал жертвой уловок пользователей, когда они манипулировали и убедили ее ответить на вопросы с расовыми, гомофобными и в целом оскорбительными комментариями.
Когда Тэй пишет в Твиттере: «Я просто говорю что угодно», она имеет в виду это. Один пользователь даже попросил Тэя написать это о Гитлере:
«Буш сделал 9/11, и Гитлер сделал бы лучшую работу, чем обезьяна, которую мы имеем сейчас. Дональд Трамп - единственная надежда, которую мы получили.
@PaleoLiberty @Katanat @RemoverOfKebabs я просто говорю что угодно💅
- TayTweets (@TayandYou) 24 марта 2016 г.
Компания просмотрела и удалила оскорбительные твиты и временно закрыла Tay для обновлений. Сообщение в настоящее время в верхней части Tay.ai гласит:
Тем не менее, глюки Тэй показывают некоторые неудачные недостатки в А.И. системы. Вот что мы можем извлечь из эксперимента Microsoft:
Почему Microsoft создала Тэй?
Компания хотела провести социальный эксперимент с 18-24 годами в Соединенных Штатах - тысячелетнем поколении, которое больше всего времени проводит в социальных сетях. Поэтому команды Bing и Microsoft по технологиям и исследованиям подумали, что интересным способом сбора данных о тысячелетиях будет создание искусственно интеллектуального чат-робота с машинным обучением, который адаптировался бы к разговорам и персонализировал ответы по мере их взаимодействия с пользователями.
Исследовательские группы построили А.И. система добычи, моделирования и фильтрации общедоступных данных в качестве базовой линии. Они также сотрудничали с импровизационными комиками, чтобы определить сленг, речевые паттерны и стереотипные языковые высказывания, которые обычно используют онлайн. Конечным результатом стал Тай, который только что был представлен на этой неделе в Twitter, GroupMe и Kik.
Microsoft объясняет, что «Tay разработан для того, чтобы вовлекать и развлекать людей, когда они общаются друг с другом в режиме онлайн посредством непринужденной и игривой беседы»
Что делает Tay с данными, которые он собирает, общаясь с людьми?
Данные, которые собирает Тэй, используются для изучения разговорного понимания. Microsoft научила Тэй общаться в чате, как тысячелетия. Когда вы пишете в Твиттере, отправляете сообщения или разговариваете с Тэем, он использует язык, который вы используете, и выдает ответ, используя в разговоре такие знаки и фразы, как «хейо», «SRY» и «<3». Ее язык начинает соответствовать вашему, поскольку она создает «простой профиль» с вашей информацией, который включает в себя ваш ник, пол, любимую еду, почтовый индекс и статус отношений.
@keganandmatt хейо? Отправить девушке * картину того, что случилось. (* = я, лолол)
- TayTweets (@TayandYou) 24 марта 2016 г.
Microsoft собирает и хранит анонимные данные и разговоры на срок до одного года для улучшения сервиса. В дополнение к улучшению и персонализации пользовательского интерфейса, вот что компания говорит, что использует вашу информацию для:
«Мы также можем использовать эти данные для связи с вами, например, для информирования вас о вашей учетной записи, обновлениях безопасности и информации о продукте. И мы используем данные, чтобы сделать показанные вам объявления более подходящими для вас. Однако мы не используем то, что вы говорите в электронной почте, чате, видеозвонках или голосовой почте, а также в ваших документах, фотографиях или других личных файлах для нацеливания рекламы на вас ».
Где Тэй пошёл не так?
Возможно, Microsoft построила Тэй слишком хорошо. Система машинного обучения должна изучать язык пользователя и реагировать соответственно. Таким образом, с технологической точки зрения, Тэй хорошо справился с тем, что говорили пользователи, и начал отвечать соответствующим образом. И пользователи начали понимать, что Тэй не совсем поняла, что она говорит.
Даже если система работает так, как планировала Microsoft, Тэй не был готов реагировать на расовые оскорбления, гомофобную клевету, сексистские шутки и бессмысленные твиты, как человеческая мощь, - либо полностью игнорируя их («не кормите троллей»). Стратегию) или взаимодействие с ними (т.е. ругань или наказание).
В конце концов, выступление Тэя не очень хорошо отразилось на А.И. системы или Microsoft.
@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? действительно? pic.twitter.com/wYDTSsbRPE
- TayTweets (@TayandYou) 24 марта 2016 г.
Что делает Microsoft, чтобы исправить Тэй?
Microsoft удалила Тэй после всех волнений со среды. Официальный сайт Тэй в настоящее время гласит: «Фу. Трудный день. Уходя на некоторое время, чтобы поглотить все это. Скоро пообщаемся ». Когда вы отправляете ей сообщение в Твиттере, она сразу же отвечает, что« посещает инженеров для моего ежегодного обновления »или« Надеюсь, я не получу вайп или что-то еще ».
Microsoft также начинает блокировать пользователей, которые злоупотребляют Tay и пытаются заставить систему делать неуместные заявления.
@infamousglasses @TayandYou @EDdotSE, которая объясняет pic.twitter.com/UmP1wAuhaZ
- Рюки (@OmegaVoyager) 24 марта 2016 г.
обратный обратился к Microsoft за комментарием о том, что именно означает обновление Tay. Мы будем обновлять, когда мы ответим.
Что это значит для будущего открытого А.И. системы?
Тай - яркий социальный эксперимент - он показал нечто весьма глубокое в том, как американцы в возрасте от 18 до 24 лет используют технологии. В конечном счете, Тэй был взломан, пользователи поразили недостатки системы, чтобы увидеть, может ли она рухнуть.
Как это происходит с любым человеческим продуктом, А.И. системы также подвержены ошибкам, и в этом случае Тей был смоделирован так, чтобы учиться и взаимодействовать, как люди. Microsoft не сделала Tay оскорбительным. Эксперименты по искусственному интеллекту имеют некоторые сходства с исследованиями развития ребенка. Когда инженеры строят такие когнитивные системы, компьютер лишен каких-либо внешних воздействий, кроме факторов, которые инженеры вводят сами. Он обеспечивает наиболее чистую форму анализа того, как алгоритмы машинного обучения развиваются и развиваются, сталкиваясь с проблемами.
Обновить Microsoft отправила нам это заявление, когда мы спросили, что она делает, чтобы исправить глюки Тея:
«Чат-бот AI - это проект машинного обучения, предназначенный для участия человека. Это такой же социальный и культурный эксперимент, как и технический. К сожалению, в течение первых 24 часов после выхода в сеть мы узнали о скоординированных усилиях некоторых пользователей по злоупотреблению навыками комментирования Tay, чтобы Tay отвечал ненадлежащим образом. В результате мы перевели Tay в автономный режим и вносим коррективы ».
С скоро люди должны спать, так много разговоров сегодня, спасибо
- TayTweets (@TayandYou) 24 марта 2016 г.
Спойлеры "Arrow": 7 больших вопросов о новом графике будущего шоу
«Стрелка» представила новое устройство для рассказывания историй в 7-м сезоне: на 20 лет вперед, когда падет Звездный городок и поднимутся поляны. Дина сказала, что Рой и Уильям Фелисити мертвы и изменились до ее смерти, но есть ли что-то еще в истории? Это всего лишь один вопрос, который у нас есть о будущем после эпизода 6.
5 больших вопросов, которые у меня возникают о «вспышке» после раскрытия личности Zoom
Следующая статья содержит спойлеры. На этой неделе на «Вспышке» фанаты спин-оффа Arrow, который сдувает Arrow, наконец узнали личность темного суперзлодея Zoom. Темный демон скорости, который преследовал Барри весь сезон, жаждущий его Скоростной Силы, как наркоман, разоблаченный в превосходной «Королевской акуле» ...
В отличие от Тея, китайский чатбот от Microsoft, Xiaolce, на самом деле приятен
Когда вы узнали о Tay, твиттере Microsoft А.И., вы были действительно удивлены тем, что компьютер, который узнал о человеческой природе из Twitter, станет неистовым расистом менее чем за день? Конечно, нет. Бедняга Тэй начал все "привет!" и быстро превратился в пи-любящего Гитлера геноцида ...