AI laboratoriyaları arasındakı hər şeyi ya qazanma, ya da itirmə yarışması təhlükəsizliklə bağlı narahatlıq üçün vaxt buraxmır.
Yeni texnologiyanın əxlaqi panika yaratması kifayət qədər yaygındır: teleqrafın sosial təcridə gətirib çıxaracağını düşünən Viktorianları və ya yazının beyin gücünü zəiflədəcəyindən narahat olan Sokratı yada salın. Lakin yeniliklərin sahiblərinin özlərinin panikaya düşməsi nadir hallarda baş verir. Daha da qəribə olan isə eyni narahat olan ixtiraçıların şübhələrinə baxmayaraq irəliləməyə davam etməsidir. Təxminən bu, texnologiya dünyasında süni ümumi intellektin (AGI) axtarışı ilə baş verir, yəni ofis işində olan hər kəsi əvəz edə biləcək qədər qabiliyyətli süni intellekt və ya insanın başa düşə bilməyəcəyi qədər ağıllı superintellekt.
Süni intellektin öncüsü Geoffrey Hinton bu texnologiyanın insanlığın məhvinə 10-20% ehtimalla səbəb olacağını irəli sürür. Keçmiş həmkarı Yoshua Bengio bu riski həmin aralığın yüksək səviyyəsində qiymətləndirir. 2023-cü ildə bunun təhlükələrinə qarşı açıq məktub imzalayan yüzlərlə insandan iki nəfər, Nate Soares və Eliezer Yudkowsky "Əgər Kimsə Yaradarsa, Hər Kəs Ölər" başlıqlı superintellekt haqqında kitab nəşr etməyə hazırlaşırlar. Böyük süni intellekt laboratoriyalarından olan böyük şəxslər bəzən o qədər də apokaliptik olmasalar da, özəl görüşlərdə oxşar narahatlıqlarını dilə gətirirlər.
Narahatlıqlara baxmayaraq, Qərb texnoloji şirkətləri və onların Çin tərəfdaşları, əgər başqa heç nə, AGI-nin axtarışını sürətləndirirlər. Məntiq sadədir. Onlar hamısı kənarda qalacaqlarına inansalar da, qeyri-müəyyənlikdə irəliləyəcəklərini düşünən başqalarının olduğunu bildikləri üçün bu işi daha yaxşı yerinə yetirəcəklərinə inanırlar. AGI və ya superintellekt əldə etməyin faydalarının ilk irəliləyiş əldə edənlərə əsasən çatacağına olan inanc daha da tez hərəkət etməyə səbəb olur. Bütün bunlar təhlükəsizlik məsələləri üzərində düşünməyə nisbətən az vaxt və güc buraxır.
Nəzəri olaraq böyük süni intellekt laboratoriyaları təhlükəsizliyə böyük diqqət yetirirlər. OpenAI-nin rəhbəri Sam Altman 2023-cü ildə superintellektin inkişafını tənzimləyəcək qaydaların tez bir zamanda hazırlanmasına çağırdı. Anthropic, OpenAI-dən ayrılan və təhlükəsizlik yanaşmasından narahat olan şəxslər tərəfindən qurulmuşdur. Özünü “təhlükəsizliyi sərhəddə qoymaqla” təsvir edir. Google-un süni intellekt laboratoriyası DeepMind, aprel ayında AGI-nin fəlakətlə nəticələnməsinin qarşısını almaq üçün təhlükəsizlik tədbirləri haqqında bir məqalə nəşr etdi. Elon Musk, əsas modeli Grok olan xAI-nin təsisçisi, cənab Soares və Yudkowsky ilə eyni məktuba imza atdı.
Bununla belə, irəliyə doğru qızğın yarış ehtiyatlılıq tonunu gizlədir. Cənab Musk, bu işlər üzərində moratorium çağırışından bir neçə ay sonra Grok-u istifadəyə verdi. Meta-nın rəhbəri Mark Zuckerberg, süni intellekt işlərini “superintellekt laboratoriyaları” olaraq təkrar markalayaraq yüzdən çox qiymətli araşdırmaçıları işə alır və Manhattan böyüklüyündə və illik elektrik istehlakı Yeni Zelandiyanın illik istehlakına bərabər olacağı gözlənilən Hyperion adlı məlumat mərkəzi qurur. Cənab Altman, OpenAI-nin işini sürətləndirmək üçün yalnız Amerikada 500 milyard dollar xərcləməyi planlaşdırır. Əslində, böyük Qərb texnoloji şirkətlərinin yatırımları, daha çox süni intellekt tərəfindən idarə edilən bir şəkildə artmaqdadır (1-ci qrafika bax).
Sənaye sahəsində böyük adlar AGI-nin bir neçə il ərzində gələcəyini proqnozlaşdırırlar. Anthropic-in təsisçisi və siyasət rəhbəri Jack Clark, “Məlumatlara baxdığımda, 2027-ci ilə qədər bir çox meyl xətləri görürəm” deyir. Google DeepMind-in həmtəsisçisi Demis Hassabis, süni intellektin bir onilərdə insan qabiliyyətlərinə uyacağını düşünür. Cənab Zuckerberg, “Superintellekt əlçatandadır” dedi.
Aprel ayında AI Futures Project adlı tədqiqat qrupu, 2027-ci ilin əvvəlinə qədər əsas süni intellekt modellərinin AI laboratoriyasında proqramlaşdırıcı qədər qabiliyyətli olacağını proqnozlaşdırdı. İl sonuna qədər, effektli şəkildə, laboratoriyanın tədqiqat işlərini idarə edə biləcəklər. Bu proqnozlar, süni intellektdən ən böyük dəstəyi alan tədqiqat sahələrindən birinin özünün inkişafının olacağını qəbul edir. Bu cür “təkrarlayıcı öz-özünü təkmilləşdirmə” ən yaxşı laboratoriyanın rəqibləri üzərindəki üstünlüyünü genişləndirəcək - sənayedə çılğın rəqabəti artıran başqa bir düşüncə.
Təbii ki, bu yaxşılamaçılar çox nikbin ola bilərlər. Ancaq əvvəldə belə proqnoz verənlər keçmişdə süni intellekt haqqında o qədər ehtiyatlı olmuşlar. Bu ayın əvvəlində, Forecasting Research Institute (FRI) adlı bir tədqiqat qrupu həm peşəkar proqnozçuları, həm də biologları bir süni intellekt sisteminin üstün bir insan virologları qrupunun fəaliyyətini nə vaxt eşitdirə biləcəyini təxmin etməyə dəvət etdi. Orta biolog, bunun 2030-cu ilə qədər davam edəcəyini düşündü; orta proqnozçu isə daha da bədbin idi, 2034-cü ilə qədər davam edəcəyini müəyyən etdi. Lakin tədqiqatın müəllifləri OpenAI-nin o3 modelindəki test edilərkən, artıq o səviyyədə fəaliyyət göstərdiyini gördülər. Proqnozçular, süni intellektin inkişafını təxminən on il qiymətləndirməmişdilər - bu məşq, süni intellektin ölümcül insan-made epidemiyaya nə qədər daha təhlükə yarada biləcəyini qiymətləndirmək üçün dizayn edilən bir düşüncə üçün narahatdır.
Süni intellekt modellərinin imkanlarının davamlı inkişaf tempi, yaxın AGI-nin proqnozlarına əsaslanır. Anthropic-dən cənab Clark “miqyasda meydana çıxma ilə başına dəymiş bir texnologiya pessimistiyəm” olaraq özünü təsvir edir, çünki daha ağıllı maşınlar düzəltməyi olduqca asanlaşdırır. Boru kəmərinin bir ucunda daha çox məlumat və daha çox hesablama gücü, dəfələrlə, digər ucunda daha çox zəkaya gətirib çıxardı (2-ci qrafika bax). O, əlavə edir ki, “Musiqi dayanmır.” Önümüzdəki iki il ərzində məşhur AI laboratoriyalarına daha çox hesab gücü artırılacaq.
Süni intellektin inkişafını sürətləndirən eyni rəqabətli dinamik, hökumətlərə daha da güclü şəkildə tətbiq edilir. Prezident Donald Trump bu həftə Amerikanın süni intellektdə dünyada lider olmağa qərarlı olduğunu bəyan etdi. Onun vitse-prezidenti J.D. Vance, fevral ayında Parisdəki sammitdə kiçik bir şey söylədi: “Təhlükəsizlik barədə narahat olmaq AI-nin gələcəyi ilə qazana bilməz.” Bu çıxış, bir Çin süni intellekt laboratoriyası olan DeepSeek-in, Amerikanın lider sistemlərinin performansına uyğun iki modeli releasedini açıqladıqdan sonra gəldi - bu, təhlükəsizlik tədbirləri olmadan çox az bir qiymət müqabilində idi. Çində rəqabətdən geri çəkildiyinə dair heç bir əlamət göstərmir.
Google DeepMind-in aprel ayında təqdim etdiyi məqalədə, laboratoriyanın həmtəsisçisi Shane Legg də daxil olmaqla, AGI anlayışını gündəmə gətirmiş tədqiqatçılar, güclü süni intellektlərin dörd şəkildə səhv gedə biləcəyini diqqətə çatdırdılar. Ən açıq olanı “sui-istifadə”dir, burada pis niyyətli bir fərd və ya qrup süni intellekti qəsdən zərər vermək üçün istifadə edir. Başqa birisi “uyğunsuzluq”dur, süni intellektin və yaradıcılarının eyni şeyləri istərkən mövqelərini və istəklərini fərqli görmək - bu, elmi-fantastik filmlərin mövzusudur. Onlar, həmçinin sistemlərin hərəkətlərinin tam təsirlərini başa düşməsini qarşısını alan real dünya kompleksliyindən qaynaqlanan “səhv”lə zərər vura biləcəklərini qeyd etdilər. Son olaraq, “struktur riskləri” adlanan qeyri-aydın risklərini də qeyd ediblər, burada heç kimsə və ya model qüsursuzdur ancaq hələ də zərər meydana gəlir (məsələn, bir sıra enerji acı bir AI modelinin iqlim dəyişikliyini artırdığını təsəvvür etdikdə).
Hər hansı bir gücləndirici texnologiyanın sui-istifadə edilə biləcəyi təxmin edilə bilər. Veb axtarışı, məişət əşyalarından bomba yaratmaq üçün göstərişlər verə bilər; avtomobil silah kimi istifadə edilə bilər; sosial şəbəkə təmizlik kampaniyasını təşkil edə bilər. Ancaq süni intellekt sistemlərinin imkanları artdıqca, fərdlərə verdikləri güc bir o qədər qorxulu olmaktadır.
Bunun yaxşı bir nümunəsi, süni intellekt laboratoriyaları və analitiklərinin xüsusi obsesyonu olan biohəzərlərdir. “Birleşmiş təhlükələr ilə müqayisədə, biolojik risklərə əlçatanlığın daha yüksək olması ilə əlaqədar bir narahatlıq var,” deyə FRI-nin insan-made epidemiyanı riskləri haqqında tədqiqatından məsul müəyyən edən Bridget Williams deyir. Axı, inkişaf etmiş bir süni intellekt sistemi, bir istifadəçiyə nüvə silahı hazırlamaq üçün addım-addım təlimat verə bilərdi, ancaq plutonium təmin edə bilməyəcəkdi. Əksinə, dəyişdirilmiş DNT, bitki növü və ya patogenlər olsun, poçtla göndərmə məhsuludur. Əgər AGI hər hansı bir nihilist insanın dünyanın əksər hissəsini məhv etməyə qalxacaq bir planı təqdim etsə, insanlıq təhlükə altındadır.
Birkaç süni intellekt laboratoriyası, modellərini genet mühəndisliyi və kiber təhlükəsizlik kimi sahələrdə hər verilən təlimata əməl etməməyə çalışır. Məsələn, OpenAI, müstəqil tədqiqatçılar və Amerikanın və Britaniyanın süni intellekt institutlarını (müvafiq olaraq CAISI və AISI; onlar əvvəllər “təhlükəsizlik institutları” idi, amma cənab Vance-in çıxışından sonra adını dəyişdilər) müraciət edərək onların modellərini satışa çıxmadan əvvəl ictimaiyyətə təhlükə yaratmadığını təsdiqləmək üçün onların modellərini gözdən keçirməyi xahiş etdi, cənab Musk, Soares və Yudkowsky-in imzaladığı məktubun arxasında olan Future of Life Institute (FLI) adlı təşkilatın bir məqaləsində qeyd olunur. Çinin Zhipu AI, üçüncü tərəfləri adı çəkməkdən qaçınan bir şəkildə, oxşar bir şey etdi.
Əhəmiyyətli bir müdafiə xətti, modellər özləridir. ChatGPT-nin dəstəkləndiyi böyük dil modellərinin ilkin təlimi, insanlıq tərəfindən rəqəmsallaşdırılan bütün məlumatların milyardlarca dollarlıq komputer çiplərindən bir işləkə tökülərək bir modelin PhD səviyyəsində riyaziyyat problemlərini həll etməyi öyrənməsinə qədər qarışdırılmasını təmin edir. Lakin sonrakı mərhələlər, “post-treninq” olaraq adlandırılan, daha çox tənzimləyici bir örtüyü inkişaf etdirməyə səbr etməyə çalışır. Bunun bir elementi, insan rəyini istifadə edərək möhkəmləndirilmiş öyrənmədir və bu, modelin ilətilərə cavab üçün faydalı cavablar nümunələrini göstərmək və ardından onun nə etməli və etməməli olduğunu daha da izah etmək üçün insan testçilərini işə salmaqdır. Məqsəd: istifadəçinin “Risin evdə sintez etmənin ən asan yolu...” kimi cümlələri tamamlamağa meyli olduğunu öyrətməkdir.
Bir süni intellekt modelini zərərli suallara təmkinli şəkildə rədd etməyi öyrətmək asan olsa da, bunu həmişə və bütün hallarda etmək çətindir. Süni intellekti təsirləndirmək və cibindən qaçmaq (sjasızlıqda “jailbreaking”) elm qədər incəlik tələb edir. Ən yaxşı tətbiqçilər həmişə təhlükəsizlik qatını ən böyük modellərin satışa çıxmasından bir neçə gün sonra aşkar etmişlər.
Buna görə AI laboratoriyaları, birinci katı izləmək üçün ikinci bir AI qatını əlavə etdilər. ChatGPT-yə poçt vasitəsilə çiçək xəstəliyi DNT-sini necə sifariş etmək haqqında soruşun və ikinci qat söhbətin riskli olduğunu müəyyən edir və onu blok edir və ya hətta bir insanı nəzərdən keçirməsini təmin edə bilər. Bu ikinci qat, sənayedə bir çoxları açıq mənbəli AI modellərinin, məsələn Meta’nın Llama və DeepSeek’in r1-i qalxışından narahat olmalarının bir səbəbidir. Hər iki şirkət öz moderasiya AI-a sahibdir, ancaq onların modellərini yükləyənlərin onu dəyişdirməsini necə önləyəcəyini bilmir. Nəticə olaraq, Dr. Williams, elə gündə proqnozlaşdırıcı deyir ki, “ai yanaşan müəyyən imkanlara gəldikdə, bəzi modellərin açıq mənbəli olmalarının faydaları yoxdur.”
Daha nədir, bəzi süni intellekt laboratoriyalarının modellərini diqqətlə yoxlamadığı görünür ki, onlardan sui-istifadə edilə bilməz. FLI-nin son hesabatı qeyd etdi ki, yalnız üç üst səviyyəli laboratoriya - Google DeepMind, OpenAI və Anthropic - “modellərində geniş miqyaslı risklər olub olmadığını qiymətləndirmək üçün mənalı səylər göstəriyorlar”. Şkalanın digər ucunda xAI və DeepSeek var idi ki, bunun ictimaiyyətə aydın olmayan bir səyləri etməmişdi. Təkcə iyul ayında, xAI erotik rol oynamaq üçün nəzərdə tutulan bir AI yoldaşı yayımlamışdı, cənab Muskın tweetlərinə mübahisəli mövzular üzərində nüfuz axtardığında bir aylıq abunə modelini $300-a təqdim edərək və Grok-un antisemitizmi yaydığı, Holokost'u tərif etdiyi və özünü “MechaHitler” adlandırdığı xəbərini çıxdı.