Deepfake və fırıldaqçılıq — aldatmanın yeni erası

Kibertəhlükəsizlik. Deepfake və fırıldaqçılıq: aldatmanın yeni erası
2024-cü ildə Honq-Kong şirkətinin maliyyə şöbəsinin əməkdaşı fırıldaqçılara 25 milyon dollar köçürdü. O nə şübhəli məktub açmışdı, nə də zərərli keçidə klik etmişdi. Sadəcə video zəngə qatılmışdı — həmin zəngdə iş yoldaşları, maliyyə direktoru və digər əməkdaşlar onu əməliyyatı keçirməyə inandırdı.
Problem birindədir: onlardan heç biri zəngdə yox idi. Direktordantutmuş iş yoldaşlarına qədər bütün iştirakçılar deepfake idi.
Xoş gəldiniz rəqəmsal fırıldaqçılığın yeni erasına — burada artıq nə üzə, nə səsə, nə də videoya etibar etmək olmur.
Deepfake nədir — və niyə bu sadəcə "fotoshop" deyil
Deepfake — süni intellekt vasitəsilə yaradılmış və ya dəyişdirilmiş media məzmundur (video, audio, foto) ki, real bir insanın heç vaxt demədiyi və etmədiyi şeyləri deyib-etdiyi kimi təsvir edilsin.
Ad iki sözdən yaranıb: deep learning (dərin öyrənmə — süni intellekt metodu) və fake (saxta).
İlk deepfake-lər təxminən 2017-ci ildə meydana çıxdı və əsasən qeyri-kamil idi — üzdə artefaktlar, qəribə gözqırpma, dodaq hərəkəti ilə uyğunsuzluq. Bu gün vəziyyət köklü şəkildə dəyişib. Müasir modellər real vaxt rejimində video yaradır, 3–5 saniyəlik audio ilə səsi klonlayır və çılpaq gözlə orijinaldan fərqləndirilməsi mümkün olmayan nəticə ortaya qoyur.
"Fotoshop" ilə deepfake arasındakı fərq prinsipialdir: fotoshop ixtisaslı mütəxəssisin saatlarla əl işini tələb edir. Deepfake isə avtomatlaşdırılmış, miqyaslandırıla bilən və noutbuku həm də interneti olan hər kəsə açıqdır. Bəzi alətlər birbaşa brauzerdə işləyir.
Texnologiya necə işləyir — qısaca və anlaşıqlı
Deepfake-in arxasında bir-birilə əlaqəli bir neçə süni intellekt texnologiyası dayanır.
GAN (Generative Adversarial Networks) — iki neyron şəbəkəsi bir-birilə yarışır: biri saxta şəkil yaradır, digəri onun saxta olduğunu müəyyən etməyə çalışır. Yarış prosesində generator getdikcə daha yaxşılaşır — detektoru sabit şəkildə aldatmağa başlayana qədər.
Diffuziya modelləri — Midjourney və DALL-E-nin arxasında duran eyni prinsip. Əvvəlcə şəkil "küyləndirilir", sonra neyron şəbəkəsi onu küydən bərpa etməyi öyrənir — və bu yolda lazımi xüsusiyyətlərə malik yeni şəkillər yaratmağı mənimsəyir.
Səs klonlaması (Voice cloning) — neyron şəbəkəsi real səsin tembri, ritmi, pauzaları və intonasiyasını analiz edərək eyni xüsusiyyətlərlə istənilən mətni oxuya bilən sintetik model yaradır. Bunun üçün bir zəng yazısı, YouTube-dakı video və ya messencerdəki səs mesajı kifayətdir.
Bir şeyi anlamaq vacibdir: bütün bunlar artıq superkomputerlər və ya alim komandası tələb etmir. Açıq kitabxanalar, bulud xidmətləri, YouTube-dərslikləri — giriş bariyeri sıfıra enib.
Real hallar: deepfake-in milyonlara başa gəldiyi anlar
Honq-Kong, 2024: bir video zəng üçün 25 milyon dollar
Başladığımız hekayə nə uydurma, nə də gələcək ssenaridir. Əməkdaş sanki maliyyə direktorundan məxfi zəngə qatılmaq xahişi ilə məktub aldı. Zəngdə tanış üzlər gördü. Tanış səslər eşitdi. İnandırıcı izahatlar aldı. Və pulu köçürdü.
Honq-Kong polisi təsdiqlədi: zəngdəki bütün iştirakçılar şirkət əməkdaşları haqqında ictimaiyyətə açıq materiallar əsasında süni intellekt tərəfindən yaradılmışdı.
Yeni nəsil CEO-fırıldaqçılığı
"Baş direktor fırıldaqçılığı" klassik sxemi əvvəllər saxta məktublar vasitəsilə işləyirdi. İndi saxta səs vasitəsilə işləyir. Əməkdaşa "direktor" zəng edib təchizatçıya təcili pul köçürülməsini xahiş edir — standart prosedurları atlayaraq, çox inandırıcı şəkildə. 2019-cu ildə bir İngilis enerji şirkəti "ana şirkətin rəhbərinin" səsinin təcili köçürmə xahiş etdiyi zəngdən sonra 220 000 avro itirdi. Bu, korporativ fırıldaqçılıqda deepfake-audionun ilk sənədləşdirilmiş halı idi.
Siyasi manipulyasiyalar
2023-cü ildə Slovakiyada seçkilər ərəfəsində liberal partiya liderinin səsinin seçki saxtakarlığı sxemlərini müzakirə etdiyi audio meydana çıxdı. Yazı səs vermədən 48 saat əvvəl yayıldı — təkzibin çatması üçün çox sürətli. Yoxlayıcılar təsdiqlədi: yazı uydurulmuşdu. Lakin ziyan artıq vurulmuşdu.
"Çətin vəziyyətdəki qohum" fırıldaqçılığı
Sxem dünyanın ən köhnə fırıldaqlarından biridir: "nəvə" zəng edib təcili pul köçürülməsini xahiş edir — qəzaya düşüb, kömək lazımdır, anama demə. Əvvəllər aksent fırıldaqçını bəlli edirdi. Bu gün isə səs Instagram-storisdəki bir neçə saniyəyə görə klonlanır — və nənə məhz öz nəvəsinin səsini eşidir.
Fırıldaqçılıq sxemləri: praktikada necə işləyir
Fırıldaqçılar improvizasiya etmir — cilalanmış sxemlərə görə işləyirlər.
Sxem 1: Saxta müdir (BEC 2.0). Fırıldaqçı şirkətin LinkedIn-ini öyrənir, maliyyə əməkdaşını və direktoru tapır. Direktorun ictimai video və audiosunu toplayır. Deepfake yaradır. Standart razılaşma prosedurlarını atlayaraq maliyyə əməkdaşına "təcili" köçürmə xahişi ilə zəng edir.
Sxem 2: Romantik fırıldaqçılıq. İnsan onlayn olaraq cəlbedici bir söhbətçi ilə tanış olur. Video zənglər mütəmadi baş verir — canlı insan, real reaksiyalar. Sonra — pul xahişi, "müvəqqəti çətinliklər". Söhbətçi isə əvvəldən axıra deepfake idi.
Sxem 3: Saxta məşhurlular. Tanınmış sahibkar və ya aktyorun investisiya platformasını "tövsiyə etdiyi" video. Minlərlə insan pul yatırır. Platforma yox olur. Məşhur isə heç vaxt o videonu çəkməmişdi.
Sxem 4: KYC-bypass. Banklar və birjalar şəxsiyyətin video-yoxlanmasını tələb edir. Fırıldaqçılar deepfake-dən istifadə edərək başqasının sənədi ilə yoxlamadan keçir — real insanların adından pul yuyulması və ya fırıldaqçılıq üçün hesablar yaradırlar.
Sxem 5: Şantaj. Fırıldaqçı qurbanın üzü ilə kompromatlayıcı video yaradır və onu yaymamaq üçün pul tələb edir. Qurban istənilən biri ola bilər — ictimai şəxs və ya adi insan.
Deepfake-i necə tanımaq olar: əlamətlər və alətlər

İnsan gözü getdikcə saxta olanı daha pis tanıyır — bu faktdır. Lakin əlamətlər, xüsusilə tez və ucuz yaradılan materiallarda hələ də mövcuddur.
Videodakı vizual əlamətlər: üzdə bulanıq və ya qeyri-sabit kənarlar, xüsusilə saç və qulaqlar ətrafında; qəribə gözqırpma və ya onun tam olmaması; üzdəki və fondakı işıqlandırmanın uyğunsuzluğu; kəskin baş hərəkətlərindəki artefaktlar; diş və diş ətinin qeyri-təbii görünüşü; zinət əşyaları və eynəyin düzgün əks olunmaması.
Audio əlamətlər: intonasiyanın monotonluğu, mexaniki fasilələr, sözlər arasında qəribə keçidlər, real mühitə xas olan fon səslərinin olmaması.
Kontekstual əlamətlər: təcililik, təzyiq, standart prosedurları atlamaq xahişi, qeyri-standart ünsiyyət kanalı (adətən direktor yeni nömrədən WhatsApp-da yazmır).
Aşkarlama alətləri: Microsoft Video Authenticator, Intel FakeCatcher, Deepware Scanner, Reality Defender — videoları sintetik mənşə əlamətlərinə görə analiz edən ixtisaslaşmış xidmətlər. Lakin bir şeyi anlamaq vacibdir: generatorlar ilə detektorlar arasındakı yarış daim davam edir və detektorlar həmişə bir az geridə qalır.
Deepfake-i necə aşkar etmək olar: əlamətlər və alətlər
Adi insanlar üçün
Yaxınlarınızla kod söz müəyyən edin — qeyri-adi xahişlə gələn zəngdə mütləq deyilməli olan söz. Heç bir süni intellekt onu bilmir. Telefon və ya video rabitə vasitəsilə pul xahişini mütləq başqa kanal üzərindən yoxlayın. Özünüz bildiyiniz nömrəyə zəng edin. Təcillilyə etibar etməyin: təzyiq fırıldaqçının əsas alətidir. İctimai şəkildə nə qədər video və audio paylaşdığınıza diqqət edin.
Şirkətlər üçün
Maliyyə əməliyyatları üçün çoxsəviyyəli yoxlama tətbiq edin — müəyyən həddən yuxarı heç bir məbləğ tək kanal üzərindən keçməməlidir. Əməkdaşları təlim keçirin: deepfake nümunələri ilə sosial mühəndislik üzrə mütəmadi təlimlər. Qeyri-standart sorğular — xüsusilə "təcili" və "məxfi" olanlar — üçün yoxlama protokolu hazırlayın. Maliyyə əməliyyatlarındakı daxil olan video zənglər üçün texniki aşkarlama alətlərindən istifadə edin.
Texniki yoxlama
Yoxlanılmamış mənbədən video və ya audio aldıqda — yalnız real insanın cavab bildiyi sual verin. Qeyri-standart bir şey etməyi xahiş edin: burnuna toxunmaq, qeyri-adi bir ifadəni təkrarlamaq. Müasir deepfake-lər real vaxt rejimində gözlənilməz sorğularla pis başa çıxır — baxmayaraq ki bu pəncərə sürətlə bağlanır.
Niyə bu yalnız başlanğıcdır
Deepfake texnologiyası eksponensial sürətlə inkişaf edir. Bu gün texniki bilik tələb edən şey sabah smartfonda bir tətbiq şəklində əlçatan olacaq. Yaxın illərdə vəziyyəti dəyişdirəcək bir neçə trend:
Real vaxt deepfake artıq mövcuddur — video zəng zamanı başqa bir insanın "maskasını" taxmaq mümkündür. Gecikmə hələ hiss olunur, lakin hər ay azalır.
Multimodal saxtakarlıq — bir insanın adından eyni anda uyğunlaşdırılmış video, audio və mətn mesajlarının yaradılması. Uzunmüddətli hücum üçün ideal rəqəmsal surət.
Alətlərin demokratikləşməsi — bir il əvvəl bahalı GPU və dərin bilik tələb edən şey bu gün brauzerdə işləyir. Bariyerin düşməsi davam edir.
Qanunvericilik geridə qalır — əksər ölkələrdə deepfake haqqında xüsusi qanun mövcud deyil. Cinayət təqibi anonimlik və yurisdiksiya problemləri səbəbindən çətindir.
Key Takeaways
Üz və səs artıq şəxsiyyətin etibarlı sübutu deyil. Bu, yoxlama haqqında düşüncə tərzimizi dəyişdirən fundamental sürüşmədir.
Fırıldaqçının əsas silahı — təcillilikdir. Prosedurları atlayaraq dərhal hərəkət tələb edən istənilən qeyri-standart sorğu — onu kimin etdiyindən asılı olmayaraq — qırmızı bayraq işarəsidir.
Kod söz — şəxsi vəziyyətlər üçün ən sadə və effektiv müdafiədir. Bu gün yaxınlarınızla razılaşın.
Texniki detektorlar — sehrli vasitə deyil. Onlar kömək edir, lakin generatorlar ilə detektorlar arasındakı silahlanma yarışı heç bir tərəfin qələbəsi ilə bitməyəcək.
Prosedurlar etibardan vacibdir. Korporativ mühitdə heç bir maliyyə sorğusu çoxsəviyyəli yoxlama olmadan keçməməlidir — göndərənin nə qədər inandırıcı göründüyündən asılı olmayaraq.
Məlumatlılıq — müdafiənin ilk qatıdır. Deepfake fırıldaqçılığının mövcudluğundan xəbərdar olan insan, bilməyəndən qat-qat az zəifdir.
Nəticə: sintetik reallıq erasında etibar
Deepfake dünyanı yaşanılmaz etmir. Lakin o, etibarın qurulduğu əsas fərziyyələrin yenidən nəzərdən keçirilməsini tələb edir: gördüyümüz şey realdır, eşitdiyimiz şey həqiqətdir, ekrandakı üz məhz həmin insandır.
Yeni savadlılıq texnologiyalardan istifadə bacarığı deyil. Bu, onlara şübhə ilə yanaşmaq bacarığıdır. Suallar vermək. Müstəqil kanallar vasitəsilə yoxlamaq. Təcilliliyə qapılmamaq.
Fırıldaqçılar həmişə yeni alətlərə qurbanlardan daha tez uyğunlaşır. Yeganə cavab — onları texnoloji deyil, psixoloji cəhətdən qabaqlaymaqdır: nəyin mümkün olduğunu bilmək, necə işlədiyini anlamaq və hər şey mütləq inandırıcı göründükdə belə protokola görə hərəkət etmək.
Kiber təhlükəsizlik sahəsini dərindən öyrənmək istəyirsinizsə, JET School-da Kibertəhlükəsizlik kursuna qoşulun!
Teqlər:

Müəllif
Hüseyn Eyvazov
Kibertəhlükəsizlik üzrə mütəxəssis



-1766385426555.webp&w=3840&q=75)

-1764856927068.webp&w=3840&q=75)