активное фото
60 000+ клиентов уже выбрали Макхост

Как защитить себя от deepfake-мошенников

В последнее время мошенники начали активно использовать IT-достижения в области искусственного интеллекта для людей. Созданные ими инструменты помогают совершать подлоги, кражи средств, конфиденциальных данных, «оживлять» умерших, генерировать новых людей. Подделка голоса, поведения, внешности, получение доступа в различные системы – вот к чему прибегают злоумышленники, чтобы обогатиться за чужой счет.

Если так случилось, что благие намерения пошли вразрез с интересами граждан, расскажем, как мошенники используют дипфейки, рассмотрим способы уберечь себя от неприятностей.

Что такое дипфейки (deepfakes)

Дипфейк – одна из темных сторон ИИ, заключающаяся в подмене индивидуальных характеристик человека (голос, внешность) на сгенерированные. Термин «deepfake» прямо об этом говорит: «deep» - сокращение от «умная машина», «fake» - «подделка». Подобным методом пользуются рекламщики, изготовители различных роликов, сервисы, предлагающие аудио-, видео-поздравления от лица различных известных лиц. К сожалению, мошенниками используются дипфейки тоже. Они создают свои «творения» наложением существующего материала на медиафайл с помощью инновационной технологии GAN. Здесь задействованы 2 нейронные сети: одна – генератор, использующая введенные данные для имитации нового образа, другая – «дискриминатор», оценивающая степень успешности генерации.

Например, для имитации чужого голоса необходимы файл с образцом, соответствующее ПО, 7-12 минут, чтобы провести процедуру воссоздания, генерирования речи.

Почему дипфейки могут быть опасны

Уже не секрет, что одним из опасных в ближайшее время киберпреступлений считается именно этот вид правонарушений. В глобальном масштабе определены несколько групп преступлений:

  • Опасные: взлом различных систем, управляемых ИИ, шантаж, создание поддельных новостей, внедрение в функционал беспилотного транспорта;
  • Средние: мониторинг систем, отвечающих за безопасность, анализ производимых действий в интернете для последующей продажи;
  • Минимальные: проникновение в жилища с помощью роботов.

Мошенники, преследуя свои интересы, обращаются к дипфейкам для похищения, персональных данных, подделке чужой личности. Последнее особенно актуально для получения доступа к финансам жертвы, ее счету в банке. Синтез новой личности, не существующей в реальности, используется для крупных финансовых афер, кредитного мошенничества.

Как мошенники используют deepfake

Хотелось бы подчеркнуть, что мошенничество с использованием дипфейков в будущем может стать серьезной угрозой в информационном поле, а пока чаще всего от этого явления страдают граждане различных социальных групп, компании.

Видео

Злоумышленники применяют видео-дипфейки в разных направлениях:

  • Создание ролика, где родные, близкие просят срочно помочь материально, перевести деньги на указанный счет.
  • Генерация материала, компрометирующего характера (откровенная сцена, оскорбительные высказывания). Такой дипфейк употребляется в качестве шантажа.
  • Осуществление дезинформации в ходе новостных передач.
  • Генерации рекламных роликов сомнительных компаний с участием известных, медийных лиц.

Выявить дипфейк поможет внимательность к деталям. Возможно, в «шедевре» будут отмечаться:

  • Неестественные движения;
  • Нетипичная мимика, отсутствие реакции на провокационные вопросы;
  • Отсутствие моргания;
  • Плохая «прорисовка» мелких деталей – недостаток или «сращивание пальцев», нечеткие контуры;
  • Странно падающие тени.
Как мошенники используют deepfake.

Image by macrovector_official on Freepik

Аудио

В ЦБ РФ отметили, что мошенники стали прибегать к имитации голоса знакомых, родственников граждан. Сделав звонок потенциальной жертве, они вынуждают ее перевести деньги, предоставить конфиденциальную информацию. Применяется схема, основанная на данных, которые собираются из соцсетей, других источников.

Однако, дипфейки можно разоблачить. Выдать могут нетипичные для реального родственника, приятеля интонация, построение предложений. Необходимо принимать во внимание вероятность того, может ли вообще человек обратиться к вам с просьбой о деньгах. Специалисты рекомендуют завершить разговор, перезвонить собеседнику, чтобы убедиться, что это был действительно он. Учитывая, что злоумышленники пытаются сразу нагнетать обстановку, тревожат во внеурочное время, рекомендуется быть предельно внимательным, не стесняться перезванивать по реальным, известным номерам телефона. Такая же картина складывается при применении мессенджеров.

Материалы для голосовых дипфейков «добываются» при взломах соцсетей, мессенджеры, где имеются голосовые образцы реального человека.

Изображения

Фотографии, изображение генерируются с несколькими целями:

  • Пройти идентификацию, получить разрешение на вход в аккаунт соцсетей, банков;
  • Для шантажа, сгенерировав, например, нелицеприятные фото.

Понять, что дело имеется с дипфейком можно по таким приметам:

  • Нетипичная для человека поза;
  • Неестественные освещение, цвет кожи;
  • Размазанная полоса в месте соединения шеи и головы.

Если сложно разобраться в реальности материала, существуют специализированные сервисы. Необходимо выгрузить изображение, программа проанализирует, покажет какие были изменения.

Можно ли защитить себя от поддельных аудио, видео и изображений

Основная защита от действий мошенников – здравомыслие. Изначально подвергайте сомнению всю информацию, полученную в мессенджерах, по email.

Не рекомендуется принимать скоропалительных решений, несколько минут перепроверок, обдуманных решений помогут спасти финансы, не попасть на крючок злоумышленников.

Желательно внимательно относиться к размещению личной информации в соцсетях, пересылке сканов документов, отправке, хранению голосовых сообщений.

Тем, кто не может самостоятельно определить достоверность, подойдут программы: Resemblyzer, работающая с аудио, визуальным материалом, Deepware, анализирующим ролики. Минус этих ПО — не работают по анализу голоса при разговорах по телефону.

Как в России борются с дипфейк-мошенничеством

Минцифры, Министерство внутренних дел, Роскомнадзор на сегодняшний день поставили цель рассмотреть вопросы правового регулирования использования дипфейков с точки зрения их противоправного применения.

Проблема назрела с начала текущего года, когда мошенниками была разработана схема «ложный начальник».

На сегодняшний день определение подделок базируется на ручной работе специалистов, они выявляют склейки, несоответствия и т.д.

В законодательной базе пока имеет место запрещение на использование изображения гражданина без его согласия. К сожалению, в ст. 152.1 ГК России не упоминается о голосовых дипфейках.

Уголовный, гражданский Кодексы включают в себя понятие об обманных действиях, злоупотреблением доверием, поэтому если дипфейк содержала оскорбления, то в силу вступают ст. 152 ГК (защита чести, достоинства), ст.5.61 КоАП (наличие оскорблений). В случае присвоения личности в ходе сделок речь пойдет об «уголовке» за мошенничество.

Заключение

Чтобы не оказаться в роли обманутой жертвы, будьте особо бдительны при сомнительных ситуациях. Не торопитесь делиться своими денежными накоплениями, личной информацией, озвучивать все «явки, пароли». Мошенники, использующие дипфейки, стремятся создать условия, когда у человека будет мало времени на принятие действительно правильного решения. Ваша задача – взять ситуацию в свои руки.

Автор: Макхост

Оцените статью

Что такое дипфейки (deepfakes) Почему дипфейки могут быть опасны Как мошенники используют deepfake Видео Аудио Изображения Можно ли защитить себя от поддельных аудио, видео и изображений Как в России борются с дипфейк-мошенничеством Заключение

Другие полезные статьи

Макхост — лидер авторитетных рейтингов