Ata–oğul iki tədqiqatçının yayımladığı araşdırma süni intellekt modellərinin bəzi tapşırıqları niyə heç vaxt yerinə yetirə bilməyəcəyini ortaya qoyur. Problemin səbəbi məlumat çatışmazlığı deyil, hesablamanın öz təbiəti ola bilər.
HİT.az-nın məlumatına görə, son illərdə süni intellekt dünyasında üstünlük təşkil edən ümumi fikir ondan ibarət idi ki, modellər nə qədər çox məlumatla qidalanarsa, bir o qədər ağıllı olacaq və sonda insan kimi düşünən sistemlərə çevriləcək. Lakin iri texnologiya şirkətlərinin milyardlarla dollarlıq bu böyük riski gözlənilməz bir riyazi divara dirənmiş ola bilər.
Ata–oğul tədqiqatçılar Vişal və Varin Sikka tərəfindən dərc edilən yeni araşdırma böyük dil modellərinin müəyyən bir mürəkkəblik səviyyəsindən sonrakı tapşırıqları yerinə yetirməsinin riyazi baxımdan mümkün olmadığını irəli sürür. Bu nəticə süni intellektin sonsuz inkişaf trayektoriyasına malik olması iddiasını da kökündən sarsıda bilər.
Araşdırmanın gəldiyi nəticə əslində olduqca sadə məntiqə əsaslanır: süni intellekt modelinə verilən tapşırıq və ya sorğu modelin emal gücündən daha mürəkkəb hesablamalar tələb etdikdə sistem ilişib qalır. Bu mərhələdə model ya tapşırığı yerinə yetirə bilmir, ya da tamamilə yanlış nəticə istehsal edərək “halüsinasiyalar” adlandırılan xətalı proseslərə sürüklənir. Mürəkkəb tənliklərlə əsaslandırılan bu tədqiqat texnologiya dünyasının “sərhəd göydür” vədlərinə daha aşağı bir tavan çəkir.
Bu araşdırma xüsusilə “agent tipli” süni intellekt modellərinə dair gözləntiləri də xeyli soyudur. İnsan nəzarəti olmadan çoxmərhələli tapşırıqları müstəqil şəkildə yerinə yetirə bilən sistemlərin süni ümumi zəka yolunda əsas açar olacağı düşünülürdü. Lakin Sikka ailəsinin işi bu modellərin mürəkkəb məntiq zəncirlərində niyə uğursuz olduğunu riyazi dəqiqliklə göstərir.
Əslində bu, süni intellektin imkanlarına şübhə ilə yanaşan ilk tədqiqat deyil. Ötən il “Apple” tədqiqatçıları da oxşar nəticəyə gəlmiş, dil modellərinin real mənada “düşünmədiyini”, sadəcə düşündüyünə dair olduqca inandırıcı bir illüziya yaratdığını bildirmişdilər.
Süni intellektin yaradıcılıq sahəsindəki sərhədlərini yoxlayan testlər də indiyədək ümidverici nəticələr göstərməyib. Bir çox mütəxəssis hesab edir ki, bu modellər iş prinsiplərinə görə bizim anladığımız mənada heç vaxt “zeka”ya sahib ola bilməz. Sikkaların təqdim etdiyi sübutlar da bu mövqeyi dəstəkləyən ən güclü akademik sənədlərdən biri kimi qiymətləndirilir.
Mövcud məlumatlar fonunda süni intellektin “Elon Musk” kimi fiqurların iddia etdiyi kimi yaxın zamanda insan zəkasını üstələməsi elmi reallıqdan daha çox nikbin bir arzu təsiri bağışlayır. Görünən odur ki, süni intellekti daha ağıllı etməyin yolu təkcə daha çox məlumat yükləməkdən deyil, hesablamanın əsas məntiqini köklü şəkildə dəyişməkdən keçəcək.
Samir