Deepfake и мошенничество — новая эра обмана

Кибербезопасность. Deepfake и мошенничество: новая эра обмана
В 2024 году сотрудник финансового отдела гонконгской компании перевёл мошенникам 25 миллионов долларов. Он не открывал подозрительных писем. Не переходил по вредоносным ссылкам. Он просто участвовал в видеозвонке — где его коллеги, финансовый директор и другие сотрудники убедили его провести транзакцию.
Проблема в одном: никого из них на звонке не было. Все участники — от директора до коллег — были deepfake.
Добро пожаловать в новую эру цифрового мошенничества, где больше нельзя доверять ни лицу, ни голосу, ни видео.
Что такое deepfake — и почему это не просто «фотошоп»
Deepfake — это медиаконтент (видео, аудио, фото), созданный или изменённый с помощью искусственного интеллекта так, чтобы изображать реального человека, говорящего или делающего то, чего он никогда не говорил и не делал.
Название происходит от двух слов: deep learning (глубокое обучение — метод ИИ) и fake (подделка).
Первые deepfake появились около 2017 года и были преимущественно неуклюжими — артефакты на лице, странное моргание, несинхронное движение губ. Сегодня ситуация кардинально изменилась. Современные модели генерируют видео в реальном времени, клонируют голос по 3–5 секундам аудио и создают результат, который невозможно отличить от оригинала невооружённым взглядом.
Разница между «фотошопом» и deepfake принципиальная: фотошоп требует часов ручной работы квалифицированного специалиста. Deepfake — автоматизирован, масштабируем и доступен любому с ноутбуком и интернетом. Некоторые инструменты работают прямо в браузере.
Как работает технология — коротко и понятно
За deepfake стоит несколько ИИ-технологий, которые работают в связке.
GAN (Generative Adversarial Networks) — две нейросети соревнуются друг с другом: одна генерирует поддельное изображение, вторая пытается определить, что оно поддельное. В процессе соревнования генератор становится всё лучше — пока не начинает обманывать детектор стабильно.
Диффузионные модели — тот же принцип, что стоит за Midjourney и DALL-E. Сначала изображение «зашумляется», потом нейросеть учится восстанавливать его из шума — и по пути учится создавать новые изображения с нужными характеристиками.
Voice cloning — нейросеть анализирует тембр, ритм, паузы, интонацию реального голоса и создаёт синтетическую модель, способную произносить любой текст с теми же характеристиками. Для этого достаточно записи звонка, видео на YouTube или голосового сообщения в мессенджере.
Важно понять одну вещь: всё это уже не требует суперкомпьютеров или команды учёных. Открытые библиотеки, облачные сервисы, YouTube-туториалы — барьер входа обрушился до нуля.
Реальные случаи: когда deepfake стоил миллионы
Гонконг, 2024: $25 млн за один видеозвонок
История, с которой мы начали — не выдумка и не футуристический сценарий. Сотрудник получил письмо якобы от финансового директора с просьбой участвовать в конфиденциальном звонке. На звонке он увидел знакомые лица. Услышал знакомые голоса. Получил убедительные объяснения. И перевёл деньги.
Полиция Гонконга подтвердила: все участники звонка были сгенерированы ИИ на основе публично доступных материалов о сотрудниках компании.
CEO-fraud нового поколения
Классическая схема «мошенничество с генеральным директором» раньше работала через поддельные письма. Теперь она работает через поддельный голос. Сотруднику звонит «директор» с просьбой срочно перевести деньги поставщику — обход стандартных процедур, всё очень убедительно. В 2019 году британская энергетическая компания потеряла €220 000 после звонка, где голос «главы материнской компании» попросил срочный перевод. Это был первый задокументированный случай deepfake-аудио в корпоративном мошенничестве.
Политические манипуляции
В 2023 году накануне выборов в Словакии появилось аудио, где голос лидера либеральной партии обсуждал схемы фальсификации выборов. Запись разошлась за 48 часов до голосования — слишком быстро, чтобы опровержение успело догнать. Верификаторы подтвердили: запись была сфабрикована. Но урон был нанесён.
Мошенничество с «родственниками в беде»
Схема стара как мир: звонит «внук» и просит срочно перевести деньги — попал в аварию, нужна помощь, не говори маме. Раньше акцент выдавал мошенника. Сегодня голос клонируется по нескольким секундам из Instagram-сторис — и бабушка слышит именно голос своего внука.
Схемы мошенничества: как это работает на практике
Мошенники не импровизируют — они работают по отточенным схемам.
Схема 1: Фейковый босс (BEC 2.0). Мошенник изучает LinkedIn компании, находит финансового сотрудника и директора. Собирает публичные видео и аудио директора. Генерирует deepfake. Звонит сотруднику финансов с «срочным» запросом на перевод, обходя стандартные процедуры согласования.
Схема 2: Романтическое мошенничество. Человек знакомится онлайн с привлекательным собеседником. Видеозвонки происходят регулярно — живой человек, реальные реакции. Потом — просьба о деньгах, «временные трудности». Собеседник был deepfake от начала до конца.
Схема 3: Фейковые знаменитости. Видео, где известный предприниматель или актёр «рекомендует» инвестиционную платформу. Тысячи людей вкладывают деньги. Платформа исчезает. Знаменитость никогда не записывала это видео.
Схема 4: KYC-обход. Банки и биржи требуют видеоверификацию личности. Мошенники используют deepfake, чтобы пройти проверку с чужим документом — создавая аккаунты для отмывания денег или мошенничества от имени реальных людей.
Схема 5: Шантаж. Мошенник создаёт компрометирующее видео с лицом жертвы и требует деньги за его нераспространение. Жертва может быть кем угодно — публичной персоной или обычным человеком.
Как распознать deepfake: признаки и инструменты

Человеческий глаз всё хуже справляется с распознаванием подделок — это факт. Но признаки всё ещё существуют, особенно в материалах, сгенерированных быстро и дёшево.
Визуальные признаки в видео: смазанные или нестабильные края лица, особенно у волос и ушей; странное моргание или его полное отсутствие; несоответствие освещения на лице и фоне; артефакты при резких движениях головы; зубы и дёсны выглядят неестественно; украшения и очки отображаются некорректно.
Аудио признаки: монотонность интонации, механические паузы, странные переходы между словами, отсутствие фоновых шумов характерных для реального окружения.
Контекстуальные признаки: срочность, давление, просьба обойти стандартные процедуры, нестандартный канал связи (обычно директор не пишет в WhatsApp с новым номером).
Инструменты детекции: Microsoft Video Authenticator, Intel FakeCatcher, Deepware Scanner, Reality Defender — специализированные сервисы, анализирующие видео на признаки синтетического происхождения. Но важно понимать: гонка между генераторами и детекторами продолжается постоянно, и детекторы всегда немного отстают.
Что делать: защита на практике
Для обычных людей
Установите кодовое слово с близкими — слово, которое нужно назвать при звонке с необычной просьбой. Никакой ИИ его не знает. Любую просьбу о деньгах по телефону или видеосвязи — перепроверяйте через другой канал. Перезвоните сами на известный вам номер. Не доверяйте срочности: давление — главный инструмент мошенника. Будьте осторожны с тем, сколько видео и аудио вы публикуете публично.
Для компаний
Внедрите многоуровневую верификацию для финансовых транзакций — ни одна сумма выше порога не должна проходить по одному каналу. Обучайте сотрудников: регулярные тренинги по социальной инженерии с примерами deepfake. Разработайте протокол проверки для нестандартных запросов — особенно «срочных» и «конфиденциальных». Используйте технические инструменты детекции для входящих видеозвонков в финансовых операциях.
Техническая верификация
При получении видео или аудио из непроверенного источника — задайте вопрос, ответ на который знает только реальный человек. Попросите сделать что-то нестандартное: дотронуться до носа, повторить нетипичную фразу. Современные deepfake плохо справляются с неожиданными запросами в реальном времени — хотя это окно быстро закрывается.
Почему это только начало
Технология deepfake развивается экспоненциально. То, что сегодня требует технических знаний, завтра будет доступно в виде приложения на смартфоне. Несколько трендов, которые изменят ситуацию в ближайшие годы:
Real-time deepfake уже существует — можно надеть «маску» другого человека прямо во время видеозвонка. Задержка пока заметна, но она уменьшается с каждым месяцем.
Мультимодальные подделки — одновременная генерация согласованного видео, аудио и текстовых сообщений от имени одного человека. Идеальная цифровая копия для продолжительной атаки.
Демократизация инструментов — то, что год назад требовало дорогого GPU и глубоких знаний, сегодня работает в браузере. Барьер продолжает падать.
Законодательство отстаёт — в большинстве стран специального закона о deepfake не существует. Уголовное преследование сложно из-за анонимности и юрисдикционных проблем.
Key Takeaways
Лицо и голос больше не являются надёжным доказательством личности. Это фундаментальный сдвиг в том, как мы должны думать о верификации.
Главное оружие мошенника — срочность. Любой нестандартный запрос, требующий немедленного действия в обход процедур — красный флаг независимо от того, кто его делает.
Кодовое слово — простейшая и эффективная защита для личных ситуаций. Внедрите его с близкими сегодня.
Технические детекторы — не панацея. Они помогают, но гонка вооружений между генераторами и детекторами не закончится победой одной стороны.
Процедуры важнее доверия. В корпоративной среде ни один финансовый запрос не должен проходить без многоуровневой верификации — вне зависимости от того, насколько убедительно выглядит отправитель.
Осведомлённость — первый уровень защиты. Человек, который знает о существовании deepfake-мошенничества, уже на порядок менее уязвим, чем тот, кто не знает.
Заключение: доверие в эпоху синтетической реальности
Deepfake не делает мир невозможным для существования. Но он требует пересмотра базовых предположений, на которых строится доверие: что мы видим — реально, что мы слышим — правда, что лицо на экране — именно тот человек.
Новая грамотность — это не умение пользоваться технологиями. Это умение сомневаться в них. Задавать вопросы. Верифицировать через независимые каналы. Не поддаваться срочности.
Мошенники всегда адаптируются к новым инструментам быстрее, чем жертвы успевают их освоить. Единственный ответ — опережать их не технологически, а психологически: знать, что возможно, понимать, как работает, и действовать по протоколу даже тогда, когда всё выглядит абсолютно убедительно.
Если и вы хотите глубоко изучить сферу кибербезопасности, присоединяйтесь к курсу по Кибербезопасности в JET School!
Теги:

Автор
Гусейн Эйвазов
Специалист по Кибербезопасности



-1766385426555.webp&w=3840&q=75)

-1764856927068.webp&w=3840&q=75)