Tay провалил тест Тьюринга от Microsoft? Да, но расизм не был проблемой

$config[ads_kvadrat] not found

The /ð/ sound (th)

The /ð/ sound (th)
Anonim

Если успех искусственного интеллекта является создание искусственного личность, Microsoft А.И. бот, Тэй, может считаться признаком прогресса. Но в более широком смысле, Тэй может быть оценен как провал.

«Задача большинства людей, работающих с диалоговыми агентами такого рода, состоит не столько в том, чтобы пройти какой-либо тест Тьюринга, сколько в том, чтобы на самом деле обладать полезным языком, который разумно реагирует на вещи и обеспечивает людям доступ к знаниям». Майлз Брандейдж, доктор философии студент, изучающий человеческие и социальные аспекты науки и техники в Университете штата Аризона, рассказывает обратный.

Microsoft проиллюстрировала некоторые проблемы построения А.И. программы на этой неделе, когда менее чем за 24 часа Интернет превратил то, что должно было стать женской, тысячелетней, автоматизированной личностью Твиттера, в плацдарм для самой расистской и мерзкой речи, которую могли предложить тролли.

Microsoft немедленно прекратила эксперимент и извинилась: «Мы очень сожалеем о непреднамеренных оскорбительных и вредных твитах от Тэя, которые не отражают то, кем мы являемся или за что мы выступаем, и как мы разработали Тэя».

Что касается теста Тьюринга, известного эксперимента, использованного для оценки А.И., Брундейдж говорит, что, вообще говоря, существует две школы мысли - буквальная и теоретическая.

Разработанный в 1950 году, Алан Тьюринг попытался ответить на вопрос: «Могут ли машины мыслить?». Он провел тесты на имитацию, для чего требуется, чтобы наблюдатель определил пол двух опрошенных, один из которых - А.И. Если компьютер способен обмануть определенное количество наблюдателей, значит, он прошел тест.

здравствуй!

- TayTweets (@TayandYou) 23 марта 2016 г.

Если бы мы применили этот тест буквально, в Обратные-х частный разговор с Тэем, она красноречиво отвечала на политические вопросы, делала ссылки на кандалы «mannnnn» на общество и использовала некоторые общие текстовые аббревиатуры и смайлики. Brundage сказал, что Tay действительно показал тысячелетнее поведение, но что эти виды A.I. были построены раньше.

«Быть ​​способным делать на Twitter замечания, кажущиеся подростковыми, на самом деле не является историей широких лингвистических и интеллектуальных способностей, которые имел в виду Тьюринг, - говорит Брундейдж. «Тем не менее, если бы мы на самом деле должны были принять тест Тьюринга буквально, что я не думаю, что это обязательно целесообразно, один из вариантов заключается в том, что многие ее комментарии выглядели по-человечески».

Но если мы примем более широкий подход, как предложил бы Brundage, то очевидно, что Тай не проявил разумную человеческую речь.

Microsoft тестировала то, что она называет «разговорным пониманием», так что чем больше людей она общается через Twitter, GroupMe и Kik, тем больше она должна была учиться и адаптироваться. Но она закончила тем, что просто повторила то, что многие другие пользователи кормили, и просто повторила это миру.

«Tay» перешел от «люди супер крутые» к нацистам за <24 часа, и меня совсем не беспокоит будущее ИИ pic.twitter.com/xuGi1u9S1A

- Джерри (@geraldmellor) 24 марта 2016 г.

«Большинство людей не будут просто повторять за вами все, что вы сказали», - говорит Брандаж.

Выражение «Буш сделал 9/11» и «Гитлер сделал бы лучшую работу, чем та обезьяна, которую мы получили сейчас», возможно, было кем-то, что кто-то действительно напечатал для Тэя, но это не совсем вежливый разговор.

«Можно утверждать, что его цель в формулировании теста Тьюринга состояла не в том, чтобы предписывать детали какого-либо теста, а в большей степени, чтобы побудить людей задуматься« в какой момент вы захотите быть в системе, такой умной », и чтобы люди могли думать вероятность того, что машины способны думать », - говорит Брандаж.

$config[ads_kvadrat] not found