Пиксельные изображения не подходят для распознавания лица Cornell Tech A.I.

$config[ads_kvadrat] not found

Маша и Медведь (Masha and The Bear) - Подкидыш (23 Серия)

Маша и Медведь (Masha and The Bear) - Подкидыш (23 Серия)
Anonim

Три исследователя из Cornell Tech в Нью-Йорке обнаружили, что размытые и пиксельные изображения не соответствуют искусственному интеллекту. Хотя затемненные изображения остаются непостижимыми для человеческого глаза и, таким образом, защищают их чувствительный контент, нейронные сети часто могут точно определить, кто есть кто в исходном изображении.

Другими словами, люди больше не являются лакмусовой бумажкой. Мы больше не можем просто спрашивать, побеждает ли что-то весь человеческий мозг. А.И. - даже простые А.И.С. - могут превзойти людей, поэтому их победа всегда должна быть частью уравнения.

Исследование, проведенное исследователями Cornell Tech, было посвящено тестированию алгоритмов сохранения конфиденциальности, которые размывают или пикселируют определенную информацию или части изображений. Ранее мы неявно доверяли программному обеспечению или алгоритмам, сохраняющим конфиденциальность, полагая, что информация, которую они скрывали, была безопасной, поскольку человек мог бы сказать, кто стоял за цифровой завесой. Исследование показывает, что эта эра прошла, и соответствующие методы анонимизации не будут длиться долго. Нейронные сети, встреченные с этими мерами конфиденциальности, не застрахованы.

Ричард МакФерсон - доктор философии кандидат компьютерных наук в Техасском университете, Остин, который последовал за своим профессором Виталием Шматиковым в Cornell Tech. Вместе с Резой Шокри они продемонстрировали, что простые нейронные сети могут разоблачать обычные методы запутывания изображений. Техника относительно проста, что делает открытие более тревожным: это общие, доступные методы, и они смогли победить отраслевые нормы для запутывания.

Нейронные сети - это большие, слоистые структуры узлов или искусственных нейронов, которые имитируют основную структуру мозга. Они «основаны на упрощенном понимании того, как работают нейроны», - говорит Макферсон. обратный, «Дайте ему некоторую информацию, и нейрон либо сработает, либо не сработает».

Они также способны «учиться» по грубому определению термина. Если вы покажете дикому (совершенно необразованному) человеку что-то «красное» и скажете им, чтобы он выбрал все «красные» вещи из ведра, они сначала будут бороться, но со временем улучшатся. Так же и с нейронными сетями. Машинное обучение просто означает обучение компьютера тому, чтобы выбирать «красные» вещи, например, из виртуального ведра с разнообразными вещами.

Так МакФерсон и компания обучили свою нейронную сеть. «В нашей системе мы создаем модель - архитектуру нейронных сетей, структурированный набор этих искусственных нейронов - и затем мы даем им большое количество запутанных изображений», - говорит он. «Например, мы могли бы дать им сотню разных картинок Кэрол, которые были пикселированы, затем сто разных картинок Боба, которые были пикселированы».

Затем исследователи маркируют эти пиксельные изображения и тем самым сообщают модели, которая находится на каждом изображении. После обработки этого набора данных сеть функционально знает, как выглядят Pixelated Bob и Pixelated Carol. «Затем мы можем дать ему другое пиксельное изображение Боба или Кэрол без метки, - объясняет МакФерсон, - и он может сделать предположение и сказать:« Я думаю, что это Боб с 95-процентной точностью »».

Модель не восстанавливает запутанный образ, но тот факт, что она способна победить самые распространенные и ранее наиболее надежные методы анонимизации, приводит в замешательство само по себе. «Они могут понять, что скрывается, но они не знают, как это выглядело изначально», - говорит МакФерсон.

Но нейронные сети по-прежнему способны работать намного лучше, чем люди. Когда изображения были наиболее запутаны с использованием одного стандартного метода, система все еще имела точность более 50%. Для чуть менее запутанных изображений система оказалась замечательной с точностью около 70 процентов. Норма YouTube для размытия лиц полностью провалилась; даже самые размытые изображения были повреждены нейронной сетью, которая показала точность 96%.

Другие ранее незапятнанные методы анонимизации данных, текста и изображений также ненадежны. «В течение лета была работа, в которой анализировался анонимный текст с использованием пикселизации и размытия, и было показано, что их тоже можно разбить», - говорит МакФерсон. И другие когда-то заслуживающие доверия методы могут быть на пути к двери. Хотя он не знает все подробности о методах запутывания голоса, как те, которые используются для анонимных телевизионных интервью, он «не удивится», если нейронные сети могут нарушить анонимность.

Открытие МакФерсона, таким образом, доказывает, что «методы сохранения конфиденциальности, которые мы использовали в прошлом, на самом деле не годятся, особенно с современными методами машинного обучения». Другими словами, мы кодируем себя в неуместных, обучающих машинах для превзойти нас во всех сферах.

«С ростом возможностей машинного обучения этот компромисс будет смещен в пользу противников», - пишут исследователи.

$config[ads_kvadrat] not found