Azertag saytından verilən məlumata görə, ain.az xəbər verir.
Bakı, 2 mart, Pərvanə Qafarova, AZƏRTAC
“Halüsinasiya” anlayışı böyük dil modellərinin səhv və ya uydurma məlumatlar təqdim etdiyi hallarda tez-tez istifadə olunur. Lakin bu, süni intellektin qəsdən yalan danışması demək deyil və texnologiyanın işləmə prinsipindən irəli gələn bir fenomendir.
Bu barədə AZƏRTAC-a açıqlamasında “Samsung Electronics”də mobil təhlükəsizlik və süni intellekt həlləri üzrə proqram təminatı mühəndisi Adil Əliyev bildirib.
Adil Əliyev diqqətə çatdırıb ki, süni intellekt sistemlərini “yalan danışmaqda” ittiham etmək doğru yanaşma deyil: “Yalan danışmaq niyyət tələb edir və bu, insanlara xas xüsusiyyətdir. Süni intellektin isə niyyəti yoxdur. O, necə proqramlaşdırılıbsa və hansı məlumatlarla öyrədilibsə, nəticələri də buna uyğun formalaşdırır. Halüsinasiyalar modelin faktları həqiqətən bilməməsi ilə bağlıdır”.
Mütəxəssis qeyd edib ki, böyük dil modelləri mətnləri nəhəng həcmdə məlumatlar üzərində öyrənir və cavabları ehtimal mexanizmi əsasında formalaşdırır: “Model reallığı yoxlamır, statistik baxımdan ən uyğun görünən növbəti sözü seçərək mətn yaradır. Güclü və etibarlı nümunələrin olmadığı suallarla qarşılaşdıqda isə cavab verməyi dayandırmır, zəif ehtimallar arasından ən yüksək ehtimallı variantı seçir. Bu ehtimal real olaraq çox aşağı ola bilər və nəticədə sistem uydurma məlumat təqdim edir”.
Adil Əliyevin sözlərinə görə, halüsinasiyalar səlis və inandırıcı səslənsə də, təqdim olunan məlumat qismən səhv və ya tamamilə uydurma ola bilər. O, praktik təcrübəsindən nümunə də çəkib: “Keçmiş tələbələrimdən biri magistr dissertasiyasının bir hissəsini yazmaq üçün ChatGPT-dən istifadə etmişdi. İstinadları yoxladıqda məlum oldu ki, göstərilən məqalə adları, müəlliflər və jurnallar, ümumiyyətlə, mövcud deyil. Sistem hətta müəllif adlarını belə uydurmuşdu”.
Mütəxəssis vurğulayıb ki, halüsinasiyaları bəzən aşkar etmək asan olsa da, bir çox hallarda onları müəyyənləşdirmək çətindir: “Xüsusilə akademik, peşəkar və tibbi sahələrdə bu cür səhvlər risklidir. Çünki yanlış məlumat real qərarlara təsir göstərə bilər”.
Adil Əliyev bildirib ki, tədqiqatçılar və mühəndislər halüsinasiyaların minimallaşdırılması üzərində aktiv işləyirlər və müasir böyük dil modellərində bu problem xeyli azaldılıb. Bununla belə, halüsinasiyalar texniki nasazlıq deyil, böyük dil modellərinin ehtimala əsaslanan işləmə prinsipinin təbii nəticəsidir.
“Texnologiya sürətlə inkişaf etsə də, halüsinasiyaların tamamilə aradan qaldırılması real görünmür. Bu səbəbdən insan tərəfindən yoxlama və tənqidi düşüncə süni intellektdən istifadə prosesində hələ də əsas rol oynayır”, – deyə Adil Əliyev əlavə edib.
Ən son yeniliklər və məlumatlar üçün ain.az saytını izləyin, biz hadisənin gedişatını izləyirik və ən aktual məlumatları təqdim edirik.