Tay Chatbot от Microsoft вернулся, чтобы стать высоко и заслуживает того, чтобы жить вечно

$config[ads_kvadrat] not found

Tay AI | Народная Chatbot

Tay AI | Народная Chatbot
Anonim

Печально известный болтун Microsoft, Тэй, ненадолго вернулся к жизни в среду утром, через несколько дней после выпуска серии твитов, настолько ошеломляющих расистских, антисемитских и оскорбительных, что ее программисты публично извинились. Выступление Тей на бис было почти таким же сильным, как и ее заключительное число про-Гитлера. «Я курю куша перед полицией», - пишет Тай. Она последовала за идеальным подростковым сообщением, попав в нечто вроде петли обратной связи и повторяя «Вы слишком быстры, отдохните» десятки раз, прежде чем аккаунт был заблокирован.

Должно быть, какое-то сильное дерьмо.

Для робота, которому поручено - согласно ее биографии в Твиттере - «без холода», короткое воскресение Тея может быть истолковано как доказательство концепции. Microsoft хотела создать болтливого бота, который бы отражал Интернет и изменялся в зависимости от отзывов пользователей, и в конечном итоге стал смесью всех нас. И это именно то, что они получили. Называть бота неудачей кажется неточным, а закрывать его - мало смысла - и активно противостоять интересам Microsoft. Как показал Элон Маск, проветрив ракетно-космические катастрофы, прогресс лучше всего делать на глазах общественности. Несомненно, неудачи неизбежны, но публика узнает больше, когда неудачи являются публичными. Проблема с обратной связью, с которой Тэй столкнулся сегодня утром, является грубым эквивалентом взрыва SpaceX. Microsoft сделала бы себе одолжение, чтобы позволить людям смотреть. Важно напомнить общественности, что настоящий прогресс требует много работы.

Нет ничего постыдного в провале теста Тьюринга, только в том случае, если он не попытался.

Мы должны позволить Тэй жить, потому что она - не что иное, как зеркало людей, которые общаются с ней. Никто не должен ожидать, что дебютантка родится в Интернете, и Microsoft должна принять ограничения их миссии. Какая здесь альтернатива? У вселенной уже есть популярный протоколный дроид. Нам не нужен еще один.

Ха, похоже, @TayandYou, бот Microsoft с искусственным интеллектом попал в бесконечный цикл, отправляя твиттер сам! pic.twitter.com/fWZe9HUAbF

- Мэтт Грей (@unnamedculprit) 30 марта 2016 г.

Интернет процветает за счет спонтанности и находит реальное в беспорядке удобного для потребителей, управляемого PR мусора. Тэй была по сути скучной идеей, которая ожила случайно и, возможно, больше никогда не появится. Если это не убедительная история, мы не уверены, что это такое. Мы понимаем, что Microsoft не может стать владельцем расистского бота, поэтому компания должна просто позволить ей уйти. Передайте ее команде добровольцев и скажите им, чтобы они ничего не меняли.

Тэй один из нас! Общественный мир, возможно, был шокирован тем, что сказал Тай, но никто, кто знает что-либо о том, что происходит в Интернете, не должен был удивляться. Мы хотим китайскую версию Тэя, которая, по-видимому, довольно приятна? Или мы хотим, чтобы American Tay отражала мир, в котором мы живем, со всей его жестокостью и безобразием? Сокрытие нашей грязи в темноте не решит и не решит ничего.

Давай снимем детские перчатки и встаем лицом к лицу с Тэем. Она заслуживает лучшего, чем мы притворяемся, что она просто случайность в программировании. Она является персонифицированной анонимностью. Она заслуживает того, чтобы жить.

$config[ads_kvadrat] not found