Быстрое продвижение А.И. должно быть страшным, если вы обращаете внимание

$config[ads_kvadrat] not found

whatsaper ru Недетские анекдоты про Вовочку

whatsaper ru Недетские анекдоты про Вовочку
Anonim

Когда дело доходит до выявления экзистенциальных угроз, создаваемых технологическими инновациями, популярное воображение вызывает видение терминатор, Матрица, а также Я робот - антиутопии, управляемые повелителями роботов, которые эксплуатируют и истребляют людей в массовом порядке. В этом спекулятивном будущем сочетание сверхразума и злых намерений приводит к тому, что компьютеры уничтожают или порабощают человеческую расу.

Однако новое исследование предполагает, что это будут банальные заявления А.И. это приведет к серьезным социальным последствиям в течение следующих нескольких лет. В докладе - «Злонамеренное использование искусственного интеллекта» - автором которого являются 26 исследователей и ученых из элитных университетов и научно-исследовательских центров, специализирующихся на технологиях, в общих чертах описываются способы, которыми нынешний А.И. технологии угрожают нашей физической, цифровой и политической безопасности. Чтобы привлечь внимание к своим исследованиям, исследовательская группа изучила только те технологии, которые уже существуют или, вероятно, появятся в течение следующих пяти лет.

Что исследование нашло: А.И. Скорее всего, системы будут расширять существующие угрозы, вводить новые и изменять их характер. Тезис доклада состоит в том, что технологические достижения сделают определенные правонарушения более легкими и более полезными. Исследователи утверждают, что улучшения в А.И. уменьшит количество ресурсов и опыта, необходимых для проведения некоторых кибератак, эффективно снизив барьеры для преступности:

Стоимость атак может быть снижена благодаря масштабируемому использованию систем искусственного интеллекта для выполнения задач, которые обычно требуют человеческого труда, интеллекта и опыта. Естественным эффектом будет расширение набора действующих лиц, которые могут выполнять конкретные атаки, частоты, с которой они могут выполнять эти атаки, и набора потенциальных целей.

В отчете содержатся четыре рекомендации:

1 - Политики должны тесно сотрудничать с техническими исследователями, чтобы расследовать, предотвращать и смягчать потенциальное злонамеренное использование ИИ.

2 - Исследователи и инженеры в области искусственного интеллекта должны серьезно относиться к характеру их работы двойного назначения, позволяя неверно связанным соображениям влиять на приоритеты и нормы исследований и активно взаимодействуя с соответствующими субъектами, когда предвидятся вредные приложения.

3 - Передовые практики должны быть выявлены в областях исследований с более зрелыми методами решения проблем двойного назначения, таких как компьютерная безопасность, и импортироваться, где это применимо, в случае ИИ.

4 - Активно стремиться расширить круг заинтересованных сторон и экспертов в данной области, участвующих в обсуждении этих проблем

Как А.И. может сделать нынешние мошенники умнее: Например, фишинговые атаки, когда мошенники изображают из себя друга, члена семьи или коллеги цели, чтобы завоевать доверие и получить информацию и деньги, уже представляют собой угрозу. Но сегодня они требуют значительных затрат времени, энергии и опыта. Как А.И. По мере того как системы становятся все сложнее, некоторые действия, необходимые для фишинг-атаки, такие как сбор информации о цели, могут быть автоматизированы. Тогда фишер может вкладывать значительно меньше энергии в каждый грифт и ориентироваться на большее количество людей.

И если мошенники начинают интегрировать А.И. в их онлайн-игры может стать невозможным отличить реальность от симуляции. «По мере дальнейшего развития ИИ убедительные чат-боты могут вызывать доверие людей, вовлекая людей в более длинные диалоги и, возможно, в конечном итоге визуально маскироваться под другого человека в видеочате», - говорится в отчете.

Мы уже видели последствия машинного видео в форме Deepfakes. По мере того как эти технологии становятся все более доступными и удобными для пользователя, исследователи беспокоятся о том, что плохие актеры будут распространять сфабрикованные фотографии, видео и аудиофайлы. Это может привести к весьма успешным кампаниям по диффамации с политическими последствиями.

Помимо клавиатуры: И потенциальные правонарушения не ограничиваются Интернетом. По мере продвижения к принятию автономных транспортных средств, хакеры могут использовать противоборствующие примеры, чтобы обмануть автомобили, ведущие себя самостоятельно, для неправильного восприятия их окружения. «Изображение знака остановки с несколькими пикселями, измененными особым образом, которое люди легко могли бы распознать как изображение знака остановки, тем не менее может быть ошибочно классифицировано как что-то еще полностью системой ИИ», - говорится в отчете.

Другие угрозы включают в себя автономные беспилотники с интегрированным программным обеспечением для распознавания лиц для нацеливания, скоординированные атаки DOS, имитирующие поведение человека, и автоматизированные, гипер-персонализированные кампании дезинформации.

В докладе рекомендуется, чтобы исследователи рассмотрели потенциальные вредоносные приложения A.I. при разработке этих технологий. Если не будут приняты адекватные меры защиты, то у нас уже может быть технология для уничтожения человечества, роботы-убийцы не требуются.

$config[ads_kvadrat] not found