Однажды из-за дипфейка инвестор потерял 35 млн долларов. Как это можно было предотвратить?
В России дипфейки пока экзотика, но уже сейчас люди и целые компании теряют деньги из-за мошенников, использующих эту технологию. Можно ли себя обезопасить? Мнение эксперта.
В России обсуждают сразу несколько законодательных инициатив, связанных с регулированием дипфейков. Эта технология на основе искусственного интеллекта, позволяющая подменять голос и изображение человека, набирает популярность у мошенников. Они используют ее, чтобы получить деньги, персональную информацию или добиться определенной реакции жертвы.
Как рассказали в Ассоциации развития финансовой грамотности, от бизнесменов в российских регионах уже поступают сигналы о случаях использования дипфейков для кражи денег. Например, показательный случай произошел в Нижнем Новгороде: бухгалтеру местной компании позвонила ее начальница и попросила передать миллион рублей наличными из сейфа в руки курьера. Курьер тут же подъехал, все забрал. И только потом выяснилось, что звонила не директор фирмы, а мошенники, которым удалось подделать голос и интонации человека.
Начальник отдела информационной безопасности «СерчИнформ» Алексей Дрозд отмечает: для России дипфейки пока не очень распространенное явление. Но в перспективе они будут представлять серьезную опасность. На пресс-конференции в Екатеринбурге эксперт рассказал, что представляет собой эта технология и могут ли потенциальные жертвы каким-то образом себя обезопасить.
Как это работает?
Есть два основных направления использования дипфейков.
- Первое — синтез, создание полностью виртуальной личности или события. Как это выглядит? Допустим, мошенник просит нейросеть сгенерировать фотографию определенного города, разрушенного ураганом. Иллюстрации разрушений мошенник выдает за фотографии очевидца и открывает сбор пожертвований. Результат — люди переводят деньги на решение несуществующей проблемы.
- Второе — клонирование. Был забавный инцидент: мошенники решили воссоздать с помощью нейросети голос рэпера и озвучили этим голосом несколько стихотворений под музыку. Треки выставили на продажу, объявив, что это демозапись нового альбома, которую выкрали хакеры. На обмане людей мошенники заработали $13 тыс.
Самый большой ущерб от дипфейков, о котором я слышал? — пример транснационального мошенничества. Банкир-японец получил звонок от американского инвестора, который просил перевести деньги для покупки стартапа. В итоге единовременный ущерб составил $35 млн.
В России пока в основном генерируются «дешевые дипфейки», которые с технической точки зрения легко повторить. С помощью нейросетей создаются голосовые сообщения с голосом определенного человека — его образцы берутся из открытых источников.
Как правило, сообщения рассылаются с незнакомого номера родственникам и знакомым. Содержание идентичное: «Я попал в ДТП/полицию, телефон потерял, пишу с номера полицейского, переведи мне деньги».
Что делать?
Не всегда в стрессовых ситуациях удается быстро сориентироваться и вычислить атаку мошенников. Тем не менее есть несколько вещей, которые должны вас насторожить.
- Первое — контекст. Обычно такие сообщения и звонки поступают внезапно, с незнакомых номеров.
- Второе — спешка. Мошенники будут стараться навести панику, говорить, что деньги нужны срочно, в течение нескольких минут или получаса, иначе все пропало. В таком случае нужно немедленно прекратить разговор и обдумать происходящее.
- Третья вещь — наличие шумов, помех, монотонности. За счет всего этого маскируется искусственность голоса. Если вы получаете от человека звонок странного содержания и чувствуете, что в его голосе пропали какие-то особенности речи — вас это тоже должно насторожить.
Получив подозрительное сообщение, имеет смысл связаться с человеком по привычному каналу связи и уточнить его намерения. Еще один способ, который можно использовать для подтверждения владельца, — видеозвонок. Но он может и не дать стопроцентного результата — современные технологии позволяют создавать «маски», с помощью которых можно выдать себя за другого человека.
Если посмотреть на мировую практику, уже сейчас в некоторых странах звучат инициативы о том, что глобальные компании должны разработать и внедрить технологии, которые будут выявлять и маркировать deepfake-контент. В этом случае пользователь будет предупрежден о возможных действиях мошенников.
Пока таких опций нет — придется вести себя максимально настороженно.
Читайте также на DK.RU:
За 2023 год мошенники похитили со счетов граждан 15,8 млрд руб. Почему им это удалось?
«К цифровым данным надо относиться так же бережно, как к содержимому своего кошелька»