JET School

Блог
Дата: 23.02.2026
Время: 18:58

Deepfake и мошенничество — новая эра обмана

Deepfake и мошенничество — новая эра обмана

Кибербезопасность. Deepfake и мошенничество: новая эра обмана

В 2024 году сотрудник финансового отдела гонконгской компании перевёл мошенникам 25 миллионов долларов. Он не открывал подозрительных писем. Не переходил по вредоносным ссылкам. Он просто участвовал в видеозвонке — где его коллеги, финансовый директор и другие сотрудники убедили его провести транзакцию.

Проблема в одном: никого из них на звонке не было. Все участники — от директора до коллег — были deepfake.

Добро пожаловать в новую эру цифрового мошенничества, где больше нельзя доверять ни лицу, ни голосу, ни видео.

Что такое deepfake — и почему это не просто «фотошоп»

Deepfake — это медиаконтент (видео, аудио, фото), созданный или изменённый с помощью искусственного интеллекта так, чтобы изображать реального человека, говорящего или делающего то, чего он никогда не говорил и не делал.

Название происходит от двух слов: deep learning (глубокое обучение — метод ИИ) и fake (подделка).

Первые deepfake появились около 2017 года и были преимущественно неуклюжими — артефакты на лице, странное моргание, несинхронное движение губ. Сегодня ситуация кардинально изменилась. Современные модели генерируют видео в реальном времени, клонируют голос по 3–5 секундам аудио и создают результат, который невозможно отличить от оригинала невооружённым взглядом.

Разница между «фотошопом» и deepfake принципиальная: фотошоп требует часов ручной работы квалифицированного специалиста. Deepfake — автоматизирован, масштабируем и доступен любому с ноутбуком и интернетом. Некоторые инструменты работают прямо в браузере.

Как работает технология — коротко и понятно

За deepfake стоит несколько ИИ-технологий, которые работают в связке.

GAN (Generative Adversarial Networks) — две нейросети соревнуются друг с другом: одна генерирует поддельное изображение, вторая пытается определить, что оно поддельное. В процессе соревнования генератор становится всё лучше — пока не начинает обманывать детектор стабильно.

Диффузионные модели — тот же принцип, что стоит за Midjourney и DALL-E. Сначала изображение «зашумляется», потом нейросеть учится восстанавливать его из шума — и по пути учится создавать новые изображения с нужными характеристиками.

Voice cloning — нейросеть анализирует тембр, ритм, паузы, интонацию реального голоса и создаёт синтетическую модель, способную произносить любой текст с теми же характеристиками. Для этого достаточно записи звонка, видео на YouTube или голосового сообщения в мессенджере.

Важно понять одну вещь: всё это уже не требует суперкомпьютеров или команды учёных. Открытые библиотеки, облачные сервисы, YouTube-туториалы — барьер входа обрушился до нуля.

Реальные случаи: когда deepfake стоил миллионы

Гонконг, 2024: $25 млн за один видеозвонок

История, с которой мы начали — не выдумка и не футуристический сценарий. Сотрудник получил письмо якобы от финансового директора с просьбой участвовать в конфиденциальном звонке. На звонке он увидел знакомые лица. Услышал знакомые голоса. Получил убедительные объяснения. И перевёл деньги.

Полиция Гонконга подтвердила: все участники звонка были сгенерированы ИИ на основе публично доступных материалов о сотрудниках компании.

CEO-fraud нового поколения

Классическая схема «мошенничество с генеральным директором» раньше работала через поддельные письма. Теперь она работает через поддельный голос. Сотруднику звонит «директор» с просьбой срочно перевести деньги поставщику — обход стандартных процедур, всё очень убедительно. В 2019 году британская энергетическая компания потеряла €220 000 после звонка, где голос «главы материнской компании» попросил срочный перевод. Это был первый задокументированный случай deepfake-аудио в корпоративном мошенничестве.

Политические манипуляции

В 2023 году накануне выборов в Словакии появилось аудио, где голос лидера либеральной партии обсуждал схемы фальсификации выборов. Запись разошлась за 48 часов до голосования — слишком быстро, чтобы опровержение успело догнать. Верификаторы подтвердили: запись была сфабрикована. Но урон был нанесён.

Мошенничество с «родственниками в беде»

Схема стара как мир: звонит «внук» и просит срочно перевести деньги — попал в аварию, нужна помощь, не говори маме. Раньше акцент выдавал мошенника. Сегодня голос клонируется по нескольким секундам из Instagram-сторис — и бабушка слышит именно голос своего внука.

Схемы мошенничества: как это работает на практике

Мошенники не импровизируют — они работают по отточенным схемам.

Схема 1: Фейковый босс (BEC 2.0). Мошенник изучает LinkedIn компании, находит финансового сотрудника и директора. Собирает публичные видео и аудио директора. Генерирует deepfake. Звонит сотруднику финансов с «срочным» запросом на перевод, обходя стандартные процедуры согласования.

Схема 2: Романтическое мошенничество. Человек знакомится онлайн с привлекательным собеседником. Видеозвонки происходят регулярно — живой человек, реальные реакции. Потом — просьба о деньгах, «временные трудности». Собеседник был deepfake от начала до конца.

Схема 3: Фейковые знаменитости. Видео, где известный предприниматель или актёр «рекомендует» инвестиционную платформу. Тысячи людей вкладывают деньги. Платформа исчезает. Знаменитость никогда не записывала это видео.

Схема 4: KYC-обход. Банки и биржи требуют видеоверификацию личности. Мошенники используют deepfake, чтобы пройти проверку с чужим документом — создавая аккаунты для отмывания денег или мошенничества от имени реальных людей.

Схема 5: Шантаж. Мошенник создаёт компрометирующее видео с лицом жертвы и требует деньги за его нераспространение. Жертва может быть кем угодно — публичной персоной или обычным человеком.

Как распознать deepfake: признаки и инструменты

Человеческий глаз всё хуже справляется с распознаванием подделок — это факт. Но признаки всё ещё существуют, особенно в материалах, сгенерированных быстро и дёшево.

Визуальные признаки в видео: смазанные или нестабильные края лица, особенно у волос и ушей; странное моргание или его полное отсутствие; несоответствие освещения на лице и фоне; артефакты при резких движениях головы; зубы и дёсны выглядят неестественно; украшения и очки отображаются некорректно.

Аудио признаки: монотонность интонации, механические паузы, странные переходы между словами, отсутствие фоновых шумов характерных для реального окружения.

Контекстуальные признаки: срочность, давление, просьба обойти стандартные процедуры, нестандартный канал связи (обычно директор не пишет в WhatsApp с новым номером).

Инструменты детекции: Microsoft Video Authenticator, Intel FakeCatcher, Deepware Scanner, Reality Defender — специализированные сервисы, анализирующие видео на признаки синтетического происхождения. Но важно понимать: гонка между генераторами и детекторами продолжается постоянно, и детекторы всегда немного отстают.

Что делать: защита на практике

Для обычных людей

Установите кодовое слово с близкими — слово, которое нужно назвать при звонке с необычной просьбой. Никакой ИИ его не знает. Любую просьбу о деньгах по телефону или видеосвязи — перепроверяйте через другой канал. Перезвоните сами на известный вам номер. Не доверяйте срочности: давление — главный инструмент мошенника. Будьте осторожны с тем, сколько видео и аудио вы публикуете публично.

Для компаний

Внедрите многоуровневую верификацию для финансовых транзакций — ни одна сумма выше порога не должна проходить по одному каналу. Обучайте сотрудников: регулярные тренинги по социальной инженерии с примерами deepfake. Разработайте протокол проверки для нестандартных запросов — особенно «срочных» и «конфиденциальных». Используйте технические инструменты детекции для входящих видеозвонков в финансовых операциях.

Техническая верификация

При получении видео или аудио из непроверенного источника — задайте вопрос, ответ на который знает только реальный человек. Попросите сделать что-то нестандартное: дотронуться до носа, повторить нетипичную фразу. Современные deepfake плохо справляются с неожиданными запросами в реальном времени — хотя это окно быстро закрывается.

Почему это только начало

Технология deepfake развивается экспоненциально. То, что сегодня требует технических знаний, завтра будет доступно в виде приложения на смартфоне. Несколько трендов, которые изменят ситуацию в ближайшие годы:

Real-time deepfake уже существует — можно надеть «маску» другого человека прямо во время видеозвонка. Задержка пока заметна, но она уменьшается с каждым месяцем.

Мультимодальные подделки — одновременная генерация согласованного видео, аудио и текстовых сообщений от имени одного человека. Идеальная цифровая копия для продолжительной атаки.

Демократизация инструментов — то, что год назад требовало дорогого GPU и глубоких знаний, сегодня работает в браузере. Барьер продолжает падать.

Законодательство отстаёт — в большинстве стран специального закона о deepfake не существует. Уголовное преследование сложно из-за анонимности и юрисдикционных проблем.

Key Takeaways

Лицо и голос больше не являются надёжным доказательством личности. Это фундаментальный сдвиг в том, как мы должны думать о верификации.

Главное оружие мошенника — срочность. Любой нестандартный запрос, требующий немедленного действия в обход процедур — красный флаг независимо от того, кто его делает.

Кодовое слово — простейшая и эффективная защита для личных ситуаций. Внедрите его с близкими сегодня.

Технические детекторы — не панацея. Они помогают, но гонка вооружений между генераторами и детекторами не закончится победой одной стороны.

Процедуры важнее доверия. В корпоративной среде ни один финансовый запрос не должен проходить без многоуровневой верификации — вне зависимости от того, насколько убедительно выглядит отправитель.

Осведомлённость — первый уровень защиты. Человек, который знает о существовании deepfake-мошенничества, уже на порядок менее уязвим, чем тот, кто не знает.

Заключение: доверие в эпоху синтетической реальности

Deepfake не делает мир невозможным для существования. Но он требует пересмотра базовых предположений, на которых строится доверие: что мы видим — реально, что мы слышим — правда, что лицо на экране — именно тот человек.

Новая грамотность — это не умение пользоваться технологиями. Это умение сомневаться в них. Задавать вопросы. Верифицировать через независимые каналы. Не поддаваться срочности.

Мошенники всегда адаптируются к новым инструментам быстрее, чем жертвы успевают их освоить. Единственный ответ — опережать их не технологически, а психологически: знать, что возможно, понимать, как работает, и действовать по протоколу даже тогда, когда всё выглядит абсолютно убедительно.


Если и вы хотите глубоко изучить сферу кибербезопасности, присоединяйтесь к курсу по Кибербезопасности в JET School!

Теги:

DeepfakeKibertəhlükəsizlik
Гусейн Эйвазов

Автор

Гусейн Эйвазов

Специалист по Кибербезопасности

Другие блоги

Отправьте заявку для получения информации о наших IT курсах