RU

Saxta görüntü, real zərbə: Dipfeyk necə silaha çevrilir?

ain.az, Oxu.az portalına istinadən məlumat yayır.

Rəqəmsal mühitdə süni intellekt texnologiyalarının sürətlə inkişafı ilə yanaşı, dipfeyk (deepfake) hallarının da artdığı müşahidə olunur. Artıq saxta şəkildə hazırlanmış video və görüntülər bəzi hallarda real materiallardan seçilməyəcək səviyyəyə çatıb. Bu isə həm informasiya təhlükəsizliyi, həm də fərdlərin şəxsi reputasiyası baxımından yeni risklər yaradır.

Məsələn, nümunə kimi, Bakı Dövlət Universitetinin hüquq ixtisası üzrə təhsil alan tələbə qızlarına edilən kiberhücumları qeyd edə bilərik. İddialara görə, tələbələrin açıq profillərindən götürülmüş foto və videolar müxtəlif montaj üsulları, o cümlədən süni intellekt alətlərindən istifadə edilməklə dəyişdirilib və alçaldıcı formada paylaşılıb. Həmin səhifələrin qısa müddət ərzində yaradılıb-silinməsi isə məsələnin miqyasını və arxasında dayanan şəxslərin məqsədinin daha təhlükəli və sistemli olduğunu göstərdi.

"Global Media Group"un əməkdaşı, jurnalist Kubra Məhərrəmovanın süni intellekt eksperimenti də bunu ortaya qoydu. Əksəriyyət süni intellekt eksperimentinin real olduğuna inandı.

Bəs dipfeyklərin zərərləri nədir? İnsanlar niyə tez inanırlar? Doğru informasiyanı, videonu necə ayırd etməliyik və hansı formada qorunmalıyıq?

Mövzu ilə bağlı Oxu.Az-a danışan kibertəhlükəsizlik eksperti Zaur Qasımov bildirib ki, dipfeyk texnologiyasının əlçatanlığının artması rəqəmsal mühitdə manipulyasiya imkanlarını əhəmiyyətli dərəcədə genişləndirib və cəmiyyət üçün yeni risklər formalaşdırıb.

Onun sözlərinə görə, son illərdə süni intellekt texnologiyalarının sürətli inkişafı ilə dipfeyk hallarının sayı ciddi şəkildə artıb:

"Artıq bəzi hallarda süni şəkildə hazırlanmış görüntüləri real videodan ayırd etmək peşəkar olmayan istifadəçilər üçün, demək olar ki, mümkün deyil. Bu isə həm informasiya təhlükəsizliyi, həm də insanların şəxsi reputasiyası baxımından daha təhlükəli mərhələyə keçdiyimizi göstərir".

Ekspert qeyd edib ki, dipfeyk texnologiyası sui-istifadə edildikdə çox ciddi fəsadlara səbəb ola bilər:

"Ən böyük risk insanın nüfuzuna və şəxsi həyatına zərbə vurulmasıdır. Xüsusilə jurnalistlər, ictimai şəxslər, iş adamları və sosial şəbəkələrdə aktiv olan istifadəçilər daha çox hədəf seçilirlər. Bundan başqa, dipfeyk cəmiyyətdə dezinformasiyanın sürətlə yayılmasına səbəb olur, media və vizual sübutlara olan etimadı azaldır, kiberşantaj və reputasiya hücumlarını asanlaşdırır, sosial mühəndislik hücumlarını daha inandırıcı edir".

Zaur Qasımov vurğulayıb ki, burada əsas narahatedici məqam texnologiyanın hər gün daha real nəticələr verməsidir:

"İnsan psixologiyası da bu prosesdə mühüm rol oynayır. İnsanlar təbii olaraq gördüklərinə inanmağa meyillidirlər. "Bir şeyin videosu varsa, deməli, doğrudur" yanaşması hələ də geniş yayılıb. Digər tərəfdən, dipfeyk videolarının keyfiyyəti xeyli yüksəlib, sosial şəbəkələrdə məlumat çox sürətlə yayılır, istifadəçilər mənbəni yoxlamadan paylaşımlar edir, emosional və sensasiyalı başlıqlar isə tənqidi düşüncəni zəiflədir. Bütün bunlar birlikdə saxta məzmunun sürətlə yayılmasına şərait yaradır".

Ekspert bildirib ki, bu gün bəzi dipfeyk videolarını adi gözlə ayırd etmək çətinləşsə də, diqqət edilməli məqamlar var:

"İlk növbədə, videonun yayımlandığı ilkin mənbə yoxlanılmalıdır. Etibarlı media təsdiqi olub-olmamasına baxmaq lazımdır. Dodaq hərəkəti ilə səsin uyğunluğu, üz mimikalarında qeyri-təbii donmalar, işıq və kölgə uyğunsuzluqları diqqətə alınmalıdır. Süni intellekt çox vaxt xırda detalları tam düzgün verə bilmir. Səsdə süni keçidlər və metallik ton da şübhə yaradan əlamətlərdir".

* Gecə yaradılan, səhər silinən saxta hesablar: BDU-nun tələbələrini hədəfə aldılar - VİDEO - FOTO

Onun sözlərinə görə, peşəkar səviyyədə dipfeyklərin aşkarlanması üçün artıq müxtəlif süni intellekt əsaslı alətlər və rəqəmsal forensika metodlarından istifadə olunur. "Microsoft Video Authenticator", "Reality Defender", "Sensity AI", "Intel FakeCatcher" və "Hive AI Deepfake Detection" kimi platformalar videoda və ya səsyazısında manipulyasiya ehtimalını analiz etməyə imkan verir.

Zaur Qasımov hesab edir ki, burada əsas yanaşma profilaktika olmalıdır:

"Fərdi istifadəçilər sosial şəbəkələrdə məxfi hesabdan istifadə etməli, şəxsi foto və videoları açıq platformalarda həddindən artıq paylaşmamalıdırlar. Adları ilə yayılan şübhəli kontent dərhal şikayət edilməli, hər hansı videoya emosional reaksiya verməzdən əvvəl mənbə yoxlanılmalıdır. Rəqəmsal savadlılığın artırılması bu sahədə ən vacib müdafiə vasitələrindən biridir".

Ekspert əlavə edib ki, şirkətlər və media qurumları da öz növbəsində kontent doğrulama prosedurları formalaşdırmalı, əməkdaşlara mütəmadi kibertəhlükəsizlik və dipfeyk maarifləndirilməsi keçməli, mümkün reputasiya böhranları üçün əvvəlcədən fəaliyyət planı hazırlamalıdırlar.

"Dipfeyk artıq günümüzün real təhlükəsidir. Texnologiya inkişaf etdikcə real ilə saxtanı ayırmaq daha da çətinləşəcək. Bu səbəbdən ən güclü müdafiə yalnız texnologiya deyil, insanların məlumatlılığı və tənqidi düşüncə bacarığının artırılmasıdır", - deyə o vurğulayıb.

Məhərrəm Əliyev

Sonrakı hadisələr barədə daha çox məlumat almaq üçün ain.az saytını izləyin.

Избранный
5
oxu.az

1Источники