AZ

Şirkətlərin gözləmədiyi 5 süni intellekt təhlükəsi

Süni intellekt 2025-ci ildə iş dünyasına sürətlə daxil olmağa davam edir. Lakin bir çox şirkət rəhbərləri bu texnologiyanın yaratdığı yeni risklərə qarşı hazırlıqsızdır.

Stanford Universitetinin 2025 AI İndeks Hesabatına əsasən, 2024-cü ildə süni intellektlə bağlı məxfilik və təhlükəsizlik insidentlərinin sayı 56,4% artıb. Ən çox rast gəlinən hallar məlumat sızmaları və alqoritmik səhvlər olub. Bununla belə, rəhbərlik səviyyəsində Aİ riskləri ilə bağlı məlumatlılıq yüksək olsa da, bu təhlükələrin qarşısını almaq üçün atılan real addımlar kifayət qədər deyil.

Braun Universitetindən davranış elmləri üzrə mütəxəssis “SuperShifts” adlı kitabın həmmüəllifi Dr. Ca-Nae Duen bildirir: “Şirkətlərin 73%-i ötən il Aİ ilə bağlı təhlükəsizlik insidenti yaşayıb, lakin çox vaxt bu riskləri gec anlayıblar. Rəhbərlik Aİ təhlükələrini sadəcə texniki xətalar kimi görür, amma burada insan faktoru, əməliyyat axınları və reputasiya kimi daha geniş problemlər var”.

Demokrat.az Aİ ilə bağlı qarşıda duran 5 əsas təhlükəni təqdim edir:

1. Kod yüklənməsi və təhlükəsizlik boşluqları

Aİ ilə yaradılmış proqram təminatlarında artıq və lazımsız kod sıxlığı artıb. Bu da xakerlər üçün yeni “giriş qapıları” deməkdir.

“RapidFort” şirkətindən Corc Manuelian qeyd edir: “Aİ ilə sürətlə kod yazmaq mümkün olsa da, bu, proqramın təhlükəsizliyini zəiflədir və təhlükəsizlik komandalarının işini çətinləşdirir”.

2. Dərin saxtalaşdırma (deepfake) ilə kadr saxtakarlığı

Aİ vasitəsilə saxta CV-lər, sənədlər və video müsahibələr hazırlamaq artıq reallıqdır.

“GetReal Security” şirkətinin rəhbəri Matt Moynihan bildirir: “Şimali Koreya kimi dövlət aktorları saxta şəxsiyyətlərlə ABŞ şirkətlərinə daxil olaraq məxfi məlumatlara çıxış əldə edirlər. Bu, təkcə insan resursları yox, milli təhlükəsizlik məsələsidir”.
Şirkətlər HR, kibertəhlükəsizlik və rəqəmsal analiz komandalarının birgə işləməsinə üstünlük verməlidir.

3. Gözlənilməz davranışlar və avtomatlaşdırma riski

Aİ sistemləri nəzarətsiz qaldıqda, insan müdaxiləsi olmadan proseslərə müdaxilə edə, həssas məlumatlara toxuna və ya vacib siqnalları səhv qiymətləndirə bilər.

“PagerDuty” şirkətindən Tim Armandpour qeyd edir: “Aİ agentləri səhvən insidentləri şişirdir və ya lazımsız müdaxilələr yaradır. Bu, artıq  reallıqdır”.

4. Aİ-ni sadəcə texnoloji yeniləmə kimi görmək

Şirkətlər Aİ-nin insan resursları, əməkdaşlıq və qərarvermə üzərindəki dərin təsirlərini nəzərə almadan, onu adi proqram yeniləməsi kimi tətbiq edirlər.
“Market-Proven Aİ” şirkətindən Aaron Perkins bu yanaşmanı “əlaqə borcu” adlandırır: “Texnologiyanın bacardığı ilə insanların onu necə qəbul edib istifadə etməsi arasında uçurum yaranır. Təkcə alətdən istifadəni öyrətmək kifayət deyil, insan-Aİ əməkdaşlığını inkişaf etdirmək lazımdır”.

5. Aİ-nin uydurma məlumat verməsi 

Aİ bəzən həqiqətə uyğun olmayan məlumatlar uydurur, bu isə səhv qərarların qəbuluna səbəb olur. 
“Muncly” şirkətinin rəhbəri Ceff Tilli deyir: “AI konteksti başa düşmür, sadəcə statistik ehtimala əsaslanır. Səhv məlumatlara əsaslanan qərarlar zəncirvari olaraq daha böyük səhvlərə gətirib çıxarır”.

Məşhur Aİ ilə bağlı insidentlərə aid misallar:    

“Amazon”un Aİ əsaslı işə qəbul aləti qadın namizədlərə qarşı ayrıseçkilik edib;

“Microsoft Tay” chatbot-u saatlar içində təhqiramiz paylaşımlar yayımlayıb;

ABŞ-də bir vəkil ChatGPT-nin uydurduğu saxta məhkəmə qərarlarını təqdim etdiyinə görə cərimələnib;

Seçilən
20
1
demokrat.az

2Mənbələr