Троллинг в социальных сетях: как А.И. Становится лучше в ожидании Shitposts

$config[ads_kvadrat] not found

Brawl stars shitpost #2

Brawl stars shitpost #2
Anonim

Интернет - это адский пейзаж, управляемый троллями и доминирующий бесполезными аргументами на Facebook или, что еще хуже. И хотя гиганты социальных сетей в Интернете, наконец, с неохотой начали предпринимать более активные усилия, чтобы попытаться отговорить уничижительный диалог, эти решения, как правило, реагируют, иными словами, приходят после того, как ущерб уже нанесен.

Поэтому неудивительно, что исследователи искусственного интеллекта стремятся разработать системы, которые могут предвидеть онлайн аргумент, прежде чем это произойдет. Но как команда исследователей из Корнельского университета недавно объяснила Inverse, это срочно необходимое новшество не так уж далеко от попыток предсказать будущее.

«В прошлом проводилась работа по выявлению того, является ли данный комментарий токсичным», - говорит доктор компьютерных наук. Джонатан Чанг. «Наша цель немного другая, мы хотим знать, возможно ли предсказать, выйдет ли когда-нибудь гражданская беседа из-под контроля в будущем. Чтобы исследовать этот вопрос, мы смотрим на разговоры между редакторами Википедии, некоторые из которых остаются гражданскими, а другие выходят из-под контроля ».

Чанг и его коллеги проанализировали сотни сообщений, отправленных между иногда раздражаемыми кураторами Википедии. Затем они использовали 1270 разговоров, которые приняли наступательный оборот, чтобы обучить модели машинного обучения в попытке автоматизировать этот вид модерации. Их результаты были опубликованы в документе, который был представлен на ежегодном собрании Ассоциации компьютерной лингвистики 15 июля.

Так как же бот "давай все успокоимся"? К счастью, не слишком потертый. Точность оказалась 65%, что немного ниже, чем у 72% людей. Исследователи нашли эту статистику, создав онлайн-викторину, где люди могли проверить свои навыки модерации комментариев. Оказывается, чертовски сложно понять, будут ли пользователи социальных сетей либо вырываться, либо оставаться вежливыми.

«Идея состоит в том, чтобы показать, что задача сложная, но не невозможная - если бы люди, например, получали точность только в 50%, это было бы не лучше, чем случайное предположение, и не было бы никаких оснований полагать, что мы могли бы научить машину выполнять лучше », - говорит Чанг. «Сравнение нашей модели с человеческими реакциями дало нам некоторое представление о том, насколько похож или различен наш вычислительный подход к человеческой интуиции».

Чанг не верит, что это избавит интернет от ненужных разговоров, но он видит в этом способ помочь модераторам социальных сетей. Вместо того, чтобы обращать внимание на миллионы комментариев, которые можно публиковать в день, их алгоритм может идентифицировать сотни тех, которые рискуют превратиться в аргумент.

Хотя можно подумать, что прохождение всех этих потенциально непредсказуемых ссор вызвало бы у Чанга приступ грусти, ученый говорит, что этот опыт вселил в него надежду на человечество.

«В наши дни существует много пессимизма в отношении онлайн-разговоров, но здесь мы видим, что даже в тех случаях, когда разговор начинается недружелюбно, у участников все еще есть шанс подумать, изменить свои тон и поставить разговор на ходу для более светлого результата », - говорит он. «Будущее не в камне».

Может быть, есть надежда на Интернет в конце концов.

$config[ads_kvadrat] not found