RU

"Saxta foto, video və audio materialların hazırlanması xeyli asanlaşıb - Bəhruz Əliyev

Bildiyimiz kimi, texnologiya və süni intellekt sürətlə inkişaf etdikcə, yeni təhlükələr də ortaya çıxır. Onlardan ən ciddi məsələlərdən biri insanların saxta şəkil və videolarının hazırlanmasıdır. Belə hallar həm şəxsi, həm də peşəkar həyatımıza ciddi təsir göstərə bilər.

Bəs bu cür hadisələrdən necə qorunmaq olar?

Mövzu ilə bağlı Redaktor.az-a açıqlamasında informasiya texnologiyaları üzrə mühəndis-tədqiqatçı, Azərbaycan Kibertəhlükəsizlik Təşkilatları Assosiasiyasının (AKTA) eksperti Bəhruz Əliyev bildirdi ki, süni intellekt texnologiyalarının sürətlə inkişafı ilə birlikdə "deepfake" adlandırılan saxta foto, video və audio materialların hazırlanması əvvəlki illərlə müqayisədə xeyli asanlaşıb:

"Bu texnologiya ilkin mərhələdə daha çox əyləncə və kino sənayesində istifadə olunsa da, son illər onun sui-istifadə halları da artmağa başlayıb. Xüsusilə siyasi manipulyasiya, dezinformasiya kampaniyaları və şəxsi nüfuzun zədələnməsi kimi hallarda "deepfake" materiallar ciddi risk yaradır. Texniki baxımdan bu cür materialların hazırlanması artıq xüsusi laboratoriya və ya böyük maliyyə tələb etmir. Müasir generativ süni intellekt alətləri vasitəsilə adi kompüter və ya hətta mobil cihazlarla belə real görünən saxta məzmun yaratmaq mümkündür. Bu isə informasiya təhlükəsizliyi və ictimai etimad baxımından yeni çağırışlar formalaşdırır. "Deepfake" materialların təhlükəsi xüsusilə sosial şəbəkələrdə sürətlə yayılması ilə daha da artır. İnsanlar çox zaman gördükləri video və ya səs yazısının həqiqiliyini yoxlamadan paylaşa bilirlər. Nəticədə saxta məlumatlar qısa müddətdə geniş auditoriyaya çata və ictimai rəyə təsir göstərə bilir. Buna görə bir çox ölkələrdə bu sahədə hüquqi mexanizmlərin gücləndirilməsi müzakirə olunur. Texniki baxımdan "deepfake" materialların aşkarlanması üçün müxtəlif metodlar mövcuddur".

Müsahibimiz misal çəkdi ki, süni intellekt əsaslı analiz sistemləri videoda üz mimikası, işıq kölgə uyğunsuzluğu və piksel səviyyəsində anomaliyaları müəyyən edə bilir:

"Bəzi alqoritmlər insan gözünün fərq etmədiyi mikro hərəkətləri və sintetik generasiya izlərini aşkar etməyə imkan verir. Bundan əlavə, rəqəmsal "watermark" və ya kriptoqrafik imza texnologiyaları da məzmunun orijinallığını yoxlamağa kömək edir. Bununla yanaşı, texnologiya inkişaf etdikcə "deepfake" alətlərinin keyfiyyəti də artır və aşkarlama prosesini çətinləşdirir. Bu səbəbdən problem yalnız texniki vasitələrlə deyil, həm də hüquqi və maarifləndirici tədbirlərlə birlikdə həll olunmalıdır. Beynəlxalq qurumlar, texnologiya şirkətləri və cəmiyyət arasında koordinasiya bu sahədə risklərin azaldılmasında mühüm rol oynayır. Belə yanaşma həm informasiya təhlükəsizliyinin qorunmasına, həm də rəqəmsal mühitdə ictimai etimadın saxlanmasına xidmət edə bilər".

Nuriyyə NATİQQIZI

Избранный
57
1
redaktor.az

2Источники