Обновлено: 21.12.2024 16:23
Технологии не стоят на месте, а злоумышленники не медлят осваивать новые технологии для своего ремесла. Поговорим об относительно новом методе онлайн-мошенничества – дипфейках.
Слово «дипфейк» (deepfake) в переводе с английского означает «глубокая подделка». И работает эта технология действительно глубоко: с ее помощью средствами машинного обучения и искусственного интеллекта создаются поддельные видео и аудио, где лицо или голос одного человека подменяется на другого.
Как всегда, у технологии есть светлая и темная стороны. «Светлая» позволяет «воскресить» в кадре любимых актеров и певцов или помочь мультяшкам разговаривать и выражать эмоции как живым. А «темной» стороной пользуются для распространения дезинформации, шантажа, обмана и финансового мошенничества.
Технология дипфейков поднимает важные этические вопросы по поводу достоверности медиаконтента в цифровую эпоху. Необходимо быть очень осторожным и критичным при оценке видео, аудио и изображений, чтобы распознавать подделки. Риски, связанные с получением и противозаконным использованием образцов голоса, внешности и видео, сегодня высоки. Дипфейки представляют серьезную угрозу безопасности как для людей, так и для бизнеса.
Сегодня в интернете регулярно публикуют предложения работы по озвучке рекламы и фильмов. Сами по себе эти объявления не являются мошенническими, за работу даже платят, но собранные дата-сеты голосов и изображений злоумышленники используют для обучения нейросетей созданию качественных изображений и записей. А уже с этими инструментами они генерируют аудио- и видеосообщения, с помощью которых вымогают деньги у друзей и родственников жертвы.
Также источником данных для мошенников служит видеоконтент из соцсетей или перехваченные данные видеоконференций и видеозвонков. Образцы голоса получают из телефонных разговоров или при взломе мессенджера из голосовых сообщений.
Вот несколько примеров использования дипфейков:
Несмотря на то, что в России работает система «Антифрод», призванная бороться со звонками с подменой номера, она не реагирует на вызовы через мессенджеры, чем активно пользуются мошенники.
Сначала злоумышленники создают фейковый аккаунт руководителя в мессенджере. Туда ставятся фото, украденные из соцсетей. После этого с помощью инструментов ИИ создаётся поддельная копия его голоса. Затем злоумышленник звонит «своему» подчинённому с помощью аудиодипфейка и заставляет сотрудника, например главного бухгалтера организации, провести платёж на нужные счета.
Вместо простого текстового сообщения для убедительности используется аудио с «вашим» голосом для большего доверия. Для доступа к вашему аккаунту мошенники часто используют сообщения с «зашитыми» в них вредоносными ссылками.
При всем совершенстве технологий, внимательность и простейшие проверки помогают довольно быстро разоблачить самозванцев. Вот как можно распознать дипфейк:
Сегодня вопрос борьбы с дипфейками стоит очень остро. Эксперты прогнозируют, что именно дипфейки станут «угрозой завтрашнего дня» и мы уже сейчас видим, что эти прогнозы начинают сбываться.
Компании-разработчики активно исследуют проблему и создают алгоритмы, помогающие распознавать поддельные изображения и видео. Некоторые страны вводят законы, которые запрещают распространение дипфейков без соответствующей маркировки. Разрабатывается технология «цифровых водяных знаков», встраивание которых в изображения и видео может помочь отслеживать их происхождение.
Но один из самых эффективных инструментов – это люди, ведь конечная цель мошенников именно люди. Важно повышать цифровую грамотность, обучать людей распознавать признаки дипфейков. Комплексный подход с использованием технологических, образовательных и правовых мер - ключ к эффективной борьбе с «глубокими подделками».