Наши помощники роботов учатся лгать, и мы должны позволить им

Не верь разлюбит игра на гармошке

Не верь разлюбит игра на гармошке
Anonim

Роботы оказываются довольно хорошими спутниками человека. Кто не хотел бы, чтобы очаровательный маленький Пеппер рассказывал нам шутки, делал комплименты и вообще заставлял нас чувствовать себя менее одинокими в мире? Даже бесформенные роботы оказываются удивительно хорошей компанией. Взять, к примеру, Alexa Echo's Alexa. Она - роботизированный мозг с человеческим голосом, пойманным в ловушку в теле звукового динамика, но она полезна, и если вы читаете ее обзоры, становится ясно, что для многих пользователей она стала семьей. Будут ли люди думать по-другому, если она солгала? Как насчет того, чтобы она сказала вам что-то, что вы на самом деле не хотели слышать?

Подумайте об этом: мы говорим детям никогда не лгать, и что честность - лучшая политика, и все же мы опускаем, искажаем правду и откровенно лжем детям все время, Это учит их через наши действия, если не через наши слова, что речь идет не о полной честности, а о изучении сложных социальных правил о том, когда и как раскрывать или скрывать потенциально конфиденциальную информацию. Программирование роботов для соблюдения этих социальных правил может быть сложной, но необходимой частью непрерывного процесса автоматизации инноваций.

Вот пример: я был в доме моего зятя в другие выходные, и я пошел в магазин, чтобы взять кое-какие бутерброды на обед для всех. Моя шестилетняя племянница помогала мне разносить еду, пока все остальные были вне кухни, и она спросила меня, сколько стоят продукты. Я сказал ей, потому что учить детей ценности денег - это хорошо.

За обеденным столом она попросила меня рассказать всем, сколько стоили продукты. Я сказал нет.«Почему?» - спросила она, искренне смущенная тем, почему вопрос, на который я свободно ответил несколько минут назад, теперь стал секретной информацией. «Это не вежливо», - сказала я, объяснив, что, поскольку она - ребенок, правила разные, когда мы одни. Я учил ее, что у честности и прямоты есть время и место. В человеческом контексте информация не всегда хочет быть свободной.

То же самое и с роботами. Мы думаем, что не хотим, чтобы наши роботы лгали нам, но на самом деле мы хотим, чтобы они изучали сложные социальные правила вежливости и усмотрения, которые иногда требуют искажения правды. И они уже учатся это делать. Возьмите этот короткий клип Пеппер, взаимодействующий с репортером, например:

Первое, что из уст Пеппер, это комплимент: «Итак, вы очень шикарны. Ты модель?"

Репортер достаточно красив, но вопрос Пеппер не совсем честен. Мы понимаем, что Пеппер на самом деле не задается вопросом, является ли он моделью, и его запрограммировали говорить хорошие вещи, независимо от того, как выглядит человек.

Вскоре после этого Пеппер неожиданно попросила кредит. Это невежливый вопрос, неосторожность, которую мы легко прощаем роботу, как если бы мы были ребенком. Репортер, возможно, указал, что вопрос является грубым, предположил, что роботы не нуждаются в деньгах, или признал, что он не заинтересован в передаче 100 долларов Пеппер. Вся правда в том, что репортер мог одолжить роботу деньги, но понимает, что вопрос сам по себе является чем-то вроде игры. То, что он хочет сказать, - это отклонение и либо ложь, либо полуправда - у него нет денег на него. Надежда состоит в том, что робот понимает это как мягкое «нет» и не предлагает репортеру перейти к банкомату и сделать вывод. Поскольку Пеппер, очевидно, обладает некоторой социальной грацией, на этом линия допроса заканчивается.

Социальные роботы запрограммированы на изучение социальных сигналов, и это хорошо - это в конечном итоге сделает их лучше на нашей работе. Задача программистов состоит не в том, чтобы искоренить весь обман роботов, а в том, чтобы добавить функции, облегчающие роботам принятие решений о соответствующих ответах.

Когда роботы являются нашими доверенными лицами, им необходимо знать контекст и аудиторию. Например, если я примеряю одежду дома, мне нужна честная оценка того, насколько лестны разные варианты. Если я нахожусь на вечеринке и вдруг осознаю, что выбрал не то платье, уверенность в том, что я хорошо выгляжу, будет самым полезным ответом.

Роботы будут изучать много личной информации о своих спутниках, и для них будет важно понять разницу между конфиденциальной информацией и общедоступной информацией, а также знать, кто слушает, когда говорит. Вопросы будут иметь разные ответы в зависимости от того, кто спрашивает. Роботы будут вести себя по-разному, когда гости находятся в доме.

Роботы, как и дети, нуждаются в ответственном воспитании детей. Это означает, что и программисты роботов, и владельцы роботов должны глубоко задуматься об этических и социальных последствиях нашей А.И. взаимодействия. Но это не значит требовать совершенной честности - серьезно, никто этого не хочет.