«Сегодня информационные атаки ИИ может выполнять успешнее, нежели любой человек. Роботы уже могут создавать изображения, неотличимые от реальных фото и полностью копировать стиль общения человека».
В новом докладе World Economic Forum говорится о трех способах, которыми искусственный интеллект может угрожать человечеству. В отчете «Злоупотребление использованием искусственного интеллекта», составленном экспертами из ряда учреждений, включая Кембриджский университет и исследовательскую фирму OpenAI, говорится, что в неправильных руках ИИ может эксплуатироваться изгоями, террористами и преступниками. Речь идет о трех типах вреда: физическом, цифровом и политическом.
Фото: government.ru
1. Автокатастрофы с дистанционным управлением
Самая большая проблема заключается в том, что ИИ можно использовать для физических нападений на людей, например, для взлома автомобилей-беспилотников, что может приводить к серьезным авариям.
Если несколько роботов контролируются одной системой, запущенной на централизованном сервере, или если несколько роботов контролируются идентичными системами и представлены одинаковыми стимулами, то одна атака может приводить к одновременным сбоям в огромном масштабе, — говорится в докладе.
Профессор техасского университета Остин Питер Стоун, входящий в команду, разработавшую новый алгоритм для улучшения взаимодействия роботов и людей, считает, что предупреждения доклада должны восприниматься всерьез, но ситуация не является новой или уникальной по отношению к автономным транспортным средствам.
Если кто-то сегодня сможет изменить работу светофоров в городе, наступит катастрофа, — говорит д-р Стоун. — Сам факт, что наша электрическая сеть достаточно централизована, делает нас уязвимыми для крупномасштабных отключений.
По словам эксперта, надлежащим ответом будут усиленные меры безопасности, а также предоставление резервных мощностей и некоторая децентрализация беспилотников.
2. Получение всех данных о человеке
Фото: pixabay.com
В будущем попытки получить доступ к конфиденциальной и личной информации от человека могут быть без проблем осуществлены ИИ.
Эти атаки ИИ сможет выполнять успешнее, нежели любой человек, — говорится в докладе. Эксперты подчеркивают, что мошенничество или кража личных данных могут стать более совершенными и эффективными по мере развития ИИ.
Если большинство запросов и генерация сообщений, типичных для фишингового мошенничества, могут быть обработаны ИИ, куда больше людей станет жертвами. Искусственный интеллект может олицетворять реальных людей, используя даже стиль письма.
Профессор робототехники в Университете Карнеги-Меллона Иллах Нурбахш говорит, что, поскольку ИИ быстро развивается, человечеству нужна срочная защита, чтобы справиться с рисками.
Подобно тому, как люди-мошенники находят все более изощренные и тонкие способы обмануть людей, используя онлайн-мошенничество, злодеи, использующие ИИ, будут постоянно находить новые дыры в защите наших данных, — говорит Нурбахш.
3. Управление общественным мнением
Фото: pixabay.com
Поддельные новости и поддельные видеоролики, создаваемые ботами и искусственным интеллектом, могут оказать большое влияние на общественное мнение, волнуя все слои общества, от политиков до СМИ.
Отчеты утверждают, что хорошо обученные боты могут создать стратегическое преимущество для политических партий и работать как интеллектуальные пропагандистские машины. Но речь идет о большем, нежели просто о распространении поддельного текстового контента.
Системы ИИ теперь могут создавать изображения, которые почти неотличимы от реальных фотографий, тогда как еще несколько лет назад изображения, которые они производили, были грубыми и нереалистичными, — говорится в докладе.
Венделл Валлах, председатель Всемирного экономического форума и автор книги «Опасный учитель: как удержать технологию от проскальзывания вне нашего контроля», говорит, что социальные медиа уже сейчас объединяют знания о психологии человека и о том, как манипулировать мнениями, и в ближайшие годы в этом они станут более изощренным.
Эти инструменты будут использоваться не только в качестве политической пропаганды, чтобы смущать и дестабилизировать конкурирующие силы, но и как новые методы, используемые лидерами и партиями для отслеживания, манипулирования и управления гражданами внутри страны.
Теги: исследование