rytp баÑбоÑÐºÐ¸Ð½Ñ Ð±ÐµÐ· маÑа VIDEOMEGA RU
Когда вы услышали о Tay, твиттере Microsoft А.И., вы были действительно удивлены тем, что компьютер, который узнал о человеческой природе от щебет станет неистовым расистом менее чем за день? Конечно, нет. Бедный Тей начал все «здравствуй!» И быстро превратился в компьютерную чушь, способствующую Гитлеру и способствующую геноциду. Естественно, Microsoft принесла извинения за ужасающие твиты чат-бота с «нулевым охлаждением». В этом извинении компания подчеркнула, что китайская версия Tay, Xiaoice или Xiaolce, предоставляет очень положительный опыт для пользователей в резком контрасте с этим экспериментом, ставшим так очень неправильно.
Извинение отмечает конкретно:
«В Китае наш чат-чат Xiaolce используют около 40 миллионов человек, радуясь его рассказам и разговорам. Большой опыт работы с XiaoIce заставил нас задуматься: не будет ли такой искусственный ИИ столь же увлекательным в радикально иной культурной среде? Tay - чат-бот, созданный для подростков в США от 18 до 24 лет в развлекательных целях, - наша первая попытка ответить на этот вопрос ».
Xiaolce был запущен в 2014 году на микроблоге, текстовом сайте Weibo. По сути, она делает то, что делал Тай, у нее есть «личность» и она собирает информацию из разговоров в Интернете. У нее более 20 миллионов зарегистрированных пользователей (это больше людей, чем живет во Флориде) и 850 000 подписчиков на Weibo. Вы можете следить за ней на JD.com и 163.com в Китае, а также в приложении Line as Rinna в Японии.
Она даже появилась в качестве репортера погоды на Dragon TV в Шанхае с человеческим голосом и эмоциональными реакциями.
Согласно Нью Йорк Таймс люди часто говорят ей: «Я люблю тебя», и одна женщина, с которой они брали интервью, даже сказала, что она общается с А.И. когда она в плохом настроении. Таким образом, в то время как Тай, после всего лишь одного дня в Интернете, стал сочувствующим нацистам, Xiaolce предлагает бесплатную терапию для китайских пользователей. Она хранит настроение пользователя, а не его информацию, чтобы поддерживать эмпатию в следующем разговоре. Китай относится к Сяолче как к милой обожающей бабушке, в то время как американцы разговаривают с Тэем, как малыш с ограниченным интеллектом. Отражает ли это культурное отношение к технологии или А.И.? Означает ли это, что китайцы намного лучше американцев? Скорее всего, Великий Брандмауэр Китая защищает Сяолче от агрессии. Свобода слова может иногда давать неприятные результаты, как например, Тай после 24 часов в Твиттере.
«Чем больше вы говорите, тем умнее становится Тай», - написала какая-то бедная душа из Microsoft в профиле чат-бота. Ну, не когда англоговорящие тролли правят сетью. Несмотря на эти результаты, Microsoft заявляет, что не поддастся атакам на Тэя. «Мы будем настойчивы в наших усилиях извлечь уроки из этого и другого опыта, работая над тем, чтобы внести свой вклад в создание Интернета, который представляет собой лучшее, а не худшее, человечества».
5 больших вопросов о Тэе, Microsoft Failed A.I. Twitter Чатбот
На этой неделе Интернет сделал то, что умеет лучше всего, и продемонстрировал, что А.И. технология не так интуитивна, как человеческое восприятие, используя ... расизм. Недавно выпущенный Microsoft чат-робот с искусственным интеллектом, Tay, стал жертвой уловок пользователей, когда они манипулировали и убедили ее ответить на вопросы с ...
Microsoft CaptionBot использует A.I. идентифицировать фотографии, не совершая ошибок Тея
Microsoft по-прежнему гордится своим А.И. способности, даже если его недавний болтовня бот Тэй оказался немного более гитлеровским, чем можно было бы надеяться на человека или машины. Так что теперь компания развернула А.И. программное обеспечение для создания титров, которое пытается идентифицировать изображения на фотографиях. Просто загрузите изображение, и CaptionBot будет ...
3 мировых лидера, которые на самом деле имели двойники тела (в отличие от Хиллари Клинтон)
Подтвержденные самозванцы редки (и в этом вся суть).