AZ

AI laboratoriyaları arasındakı hər şeyi ya qazanma, ya da itirmə yarışması təhlükəsizliklə bağlı narahatlıq üçün vaxt buraxmır.

Yeni texnologiyanın etik panikaya səbəb olması kifayət qədər yaygındır: Viktorian dövründə teleqrafın sosial izolyasiyaya səbəb olacağını düşünənləri və ya yazının beynin gücünü zəiflədəcəyi ilə bağlı narahat olan Sokratı xatırlayaq. Lakin yeniliklərin yaradıcısı olanların özlərinin panikaya düşməsi nadir hallarda baş verir. Daha da qəribəsi, narahat olan ixtiraçılar öz şübhələrinə baxmayaraq irəliləməyə davam edirlər. Təxminən bu, texnologiya dünyasında süni ümumi intellektin (AGI) axtarışı ilə baş verir, yəni ofis işlərində hər kəsi əvəz edə biləcək qədər qabiliyyətli süni intellekt və ya insanın başa düşə bilməyəcəyi qədər ağıllı super-ağıllar.

Süni intellektin öncüsü Geoffrey Hinton bu texnologiyanın insanlığın məhv olma riskini 10-20% olaraq qiymətləndirir. Keçmiş həmkarı Yoshua Bengio bu riski həmin aralığın yüksək səviyyəsində qiymətləndirir. 2023-cü ildə texnologiyanın təhlükələrini açıq məktubla bildirmək üçün imza atan yüzlərlə insandan ikisi, Nate Soares və Eliezer Yudkowsky, "Əgər Kimsə Yaradarsa, Hər Kəs Ölər" başlıqlı superintellekt haqda kitabla çıxmağa hazırlaşırlar. Böyük süni intellekt laboratoriyalarından olan irəli gələn şəxslər bəzən apokaliptik olmasalar da, özəl görüşlərdə oxşar narahatlıqlarını dilə gətirirlər.

Narahatlıqlara baxmayaraq, Qərb texnoloji şirkətləri və onların Çin tərəfdaşları AGI-nin axtarışını sürətləndirirlər. Məntiq sadədir. Onlar hamısı kənarda qalacaqlarına inanmasalar da, bu qeyri-müəyyənlikdə irəliləyəcəklərini düşünən başqalarının olduğunu bildikləri üçün bu işdə üstünlük əldə etmək istəyirlər. AGI-nin və ya superintellektin əldə edilməsi faydalarının ilk olaraq irəliləyiş əldə edənlərə çatacağına olan inanc onları daha sürətli hərəkət etməyə vadar edir. Bütün bunlar daha az vaxt və səy təhlükəsizlik məsələlərini düşünməyə buraxır.

Teoriyada böyük süni intellekt laboratoriyaları təhlükəsizliyə böyük diqqət yetirirlər. OpenAI-nin rəhbəri Sam Altman 2023-cü ildə superintellektin inkişafını tənzimləyəcək qaydaların tez bir zamanda hazırlanmasına çağırdı. Anthropic, OpenAI-dən ayrılan və təhlükəsizlik yanaşmasından narahat olan şəxslər tərəfindən qurulmuşdur və özünü “təhlükəsizliyi ön planda tutmaq” devizi ilə təqdim edir. Google-un süni intellekt laboratoriyası DeepMind, aprel ayında AGI-nin fəlakətlə nəticələnməsinin qarşısını almaq üçün təhlükəsizlik tədbirləri haqqında bir məqalə nəşr etdi. Elon Musk, əsas modeli Grok olan xAI-nin təsisçisi, Soares və Yudkowsky ilə eyni məktuba imza atdı.

Bununla belə, irəlidəki bu qızğın rəqabət ehtiyatlı tonları gizlədir. Musk, bu işlər üzərində moratorium çağırışından bir neçə ay sonra Grok-u istifadəyə verdi. Meta-nın başçısı Mark Zuckerberg, süni intellekt işlərini “super ağıl laboratoriyaları” olaraq məşhurlaşdırır, yüzdən çox mühüm tədqiqatçını işə alır və Manhattan böyüklüyündə, illik elektrik istehlakı Yeni Zelandiyanın illik istehsalına bərabər olan Hyperion adlı məlumat mərkəzi qurur. Altman, yalnız Amerikada OpenAI-nin işini sürətləndirmək üçün 500 milyard dollar xərcləməyi planlaşdırır. Əslində, böyük Qərb texnoloji şirkətlərinin yatırımları, daha çox süni intellekt tərəfindən idarə edilən bir şəkildə artmaktadır.

Sənaye sahəsindəki böyük adlar AGI-nin bir neçə il ərzində gələcəyini proqnozlaşdırırlar. Anthropic-in təsisçisi və siyasət rəhbəri Jack Clark, “Məlumatlara baxdığımda, 2027-ci ilə qədər bir çox meyl xətləri görürəm” deyir. Google DeepMind-in həmtəsisçisi Demis Hassabis, süni intellektin bir onilərdə insan qabiliyyətlərinə uyacağını düşünür. Zuckerberg, “Superintellekt əlçatandır” deyir.

Aprel ayında AI Futures Project adlı tədqiqat qrupu, 2027-ci ilin əvvəlinə qədər əsas süni intellekt modellərinin AI laboratoriyasında proqramlaşdırıcı qədər qabiliyyətli olacağını proqnozlaşdırdı. İl sonuna qədər, effektiv şəkildə, laboratoriyanın tədqiqat işlərini idarə edə biləcəklər. Bu proqnozlar, süni intellektdən ən böyük dəstəyi alan tədqiqat sahələrindən birinin öz inkişafında olacağını qəbul edir. Bu təkrarlayıcı özünü təkmilləşdirmə ən yaxşı laboratoriyanın rəqibləri üzərindəki üstünlüyünü genişləndirəcək - sənayedə çılğın rəqabəti artıran başqa bir düşüncə.

Təbii ki, bu optimistlər çox nikbin ola bilərlər. Ancaq əvvəldə belə proqnoz verənlər keçmişdə süni intellekt haqqında o qədər ehtiyatlı olmuşlar. Bu ayın əvvəlində, Forecasting Research Institute (FRI) adlı bir tədqiqat qrupu həm peşəkar proqnozçuları, həm də biologları bir süni intellekt sisteminin üstün bir insan virologları qrupunun fəaliyyətini nə zaman üstələyəcəyini təxmin etməyə dəvət etdikdə, ortalama biolog 2030-cu ilə qədər davam edəcəyini düşündü; orta proqnozçu isə daha bədbin idi, 2034-cü ilə qədər davam edəcəyini müəyyən etdi. Lakin tədqiqatın müəllifləri OpenAI-nin sistemində test apararkən, artıq o səviyyədə fəaliyyət göstərdiyini gördülər. Proqnozçular, süni intellektin inkişafını təxminən on il qiymətləndirməmişdilər - bu süni intellektin ölümcül insan-made epidemiyaya nə qədər həssas olduğunu qiymətləndirmək üçün narahatlıq yaradır.

Süni intellekt modellərinin imkanlarının davamlı inkişaf tempi, yaxın AGI-nin proqnozlarına əsaslanır. Anthropic-in cənab Clark “miqyasda meydana gələn pessimistic texnologiya tənqidçisiyəm” olaraq özünü təsvir edir, çünki daha ağıllı maşınlar düzəltməyi olduqca asanlaşdırır. Boru kəmərinin bir ucunda daha çox məlumat və daha çox hesablama gücü, dəfələrlə, digər ucunda daha çox zəkaya gətirib çıxardı. O, əlavə edir ki, “Musiqi dayanmır.” Önümüzdəki iki il ərzində məşhur AI laboratoriyalarına daha çox hesablama gücü artırılacaq.

Süni intellektin inkişafını sürətləndirən eyni rəqabətli dinamik, hökumətlərə daha da güclü şəkildə tətbiq edilir. Prezident Donald Trump Amerikanın süni intellektdə dünya lideri olmaq istədiyini bəyan etdi. Vitse-prezidenti J.D. Vance, fevralda Parisdəki zirvə toplantısında "Təhlükəsizlik barədə narahat olmaq AI-nın gələcəyi ilə qazana bilməz" dedi. Bu çıxış, bir Çin süni intellekt laboratoriyası olan DeepSeek-in, Amerikanın lider sistemləri ilə performansda rəqabət edən iki modeli açıqladıqdan sonra gəldi - bu, çox az təhlükəsizlik tədbirləri ilə həyata keçirildi. Çində rəqabətdən geri çəkildiyi ilə bağlı heç bir əlamət göstərilmir.

Google DeepMind-in aprel ayında təqdim etdiyi məqalədə, laboratoriyanın həmtəsisçisi Shane Legg də daxil olmaqla, AGI anlayışını gündəmə gətirən tədqiqatçılar, güclü süni intellektlərin dörd şəkildə səhv gedə biləcəyini vurğuladılar. Ən açıq olanı “sui-istifadə”dir, burada pis niyyətli bir fərd və ya qrup süni intellekti qəsdən zərər vermək üçün istifadə edir. Başqa bir vəziyyət “uyğunsuzluq”dur və bu elmi fantastika mövzudur, burada süni intellekt və yaradıcılarının istəkləri ilə fərqli mövqeləri ola bilər. Onlar, həmçinin sistemlərin hərəkətlərinin tam təsirlərini başa düşməmədən real dünya kompleksliyindən qaynaqlanan “səhv”lə zərərli olacaqlarını da qeyd etdilər. Son olaraq, “struktur riskləri” adlanan qeyri-aydın riskləri də qeyd ediblər, burada heç kim və ya model mükəmməl deyil, ancaq yarana biləcək zərəri əvvəlcədən görmək çətindir.

Gücləndirici hər hansı bir texnologiyanın sui-istifadə edilməsi mümkündür. Veb axtarışları vasitəsilə ev əşyalarından bomba hazırlamaq üçün yollar tapıla bilər; avtomobil silah olaraq istifadə edilə bilər; və ya sosial şəbəkə olmaqla təmizlik kampaniyaları təşkil edilə bilər. Lakin süni intellekt sistemlərinin imkanları artdıqca, fərdlərə verdikləri güc daha qorxulu olur.

Buna yaxşı bir nümunə, süni intellekt laboratoriyalarının və analitiklərinin xüsusi obsesyonu olan biohəzərlərdir. “Birleşmiş təhlükələrlə müqayisədə, biolojik risklərin əlçatanlıq baxımından daha yüksək olması narahatlıq doğurur,” FRI-nin insan made epidemiyaların riskləri üzərinə tədqiqat aparan Bridget Williams deyir. Axı, inkişaf etmiş bir süni intellekt sistemi, bir istifadəçiyə nüvə silahı hazırlamaq üçün addım-addım təlimat verə bilərdi, ancaq plutoniumu təmin edə bilməzdi. Bunun əksinə, genetik dəyişikliyə uğramış DNT, bitki növləri və ya patogenlər poçtla göndərilə bilən məhsullardır. Əgər AGI hər hansı bir nihilist insanın dünya əksəriyyətini məhv etməyə çalışacağı bir plan təqdim etsə, insanlıq təhlükə altına düşər.

Bəzi süni intellekt laboratoriyaları, modellərini genetik mühəndislik və kiber təhlükəsizlik kimi sahələrdə hər təlimatı yerinə yetirməyə cəhd etməməyə öyrədir. Məsələn, OpenAI, müstəqil tədqiqatçılar və ABŞ və Britaniyanın süni intellekt institutlarını (müvafiq olaraq CAISI və AISI; əvvəl təhlükəsizlik institutları adlansa da, cənab Vance-in çıxışından sonra adlar dəyişdirildi) davet edərək, onların modellərini satışdan əvvəl ictimaiyyətə təhlükə yaratmadığını təsdiqləmələrini istəyir. Musk, Soares və Yudkowsky-in imzaladığı məktuba dəstək olan Life Institute (FLI) adlı təşkilatın bir məqaləsində də qeyd olunur. Çinli Zhipu AI oxşar bir şey etdi, üçüncü tərəfləri xüsusilə ad çəkmədən nəzərdən keçirdi.

Əhəmiyyətli bir müdafiə xətti, modellərin özləri ola bilər. ChatGPT-nin dəstəkləndiyi geniş dil modellərinin ilkin təlimindən insanlıq məlumatlarının rəqəmsal şəkildə toplanıb kompüter çiplərinə yüklənməsi nəticəsində əldə edilən biliklər vardır. Bütün məlumatların milyardlarla dollara başa gələn kompüter çiplərində yerləşdirilməsindən sonra bir modelin PhD səviyyəsində riyaziyyat problemlərini həll etməyi öyrənməsi qədər qarışdırılmasını həyata keçirir. Lakin sonrakı mərhələlər, “post-training” adlı mərhələlər, daha çox tənzimləyici bir örtük əlavə etməyə çalışır. Bu mərhələlər insan rəyi ilə möhkəmləndirilmiş öyrənmə təşkil edir. Modelə verilən mesajlara cavab olaraq faydalı cavablar verməsində insan testçilərinin köməyindən istifadə edərək modelin hansı hərəkətlərin düzgün olduğunu, hansının olmadığını izah etməkdir. Məqsəd: istifadəçiyə “Risin evdə sintez etmənin ən asan yolu...” kimi cümlələrin tamamlanmasına meylin çox riskli olduğunu öyrətməkdir.

Bir süni intellekt modelini zərərli sorğulara təmkinli şəkildə rədd etməyi öyrəndirmək asan olsa da, bunu hər zaman və bütün hallarda etmək çətindir. Süni intellekti təsirləndirmək və bundan uzaqlaşmaq (sayerizasyon “jailbreaking”) çox incəlik tələb edir. Ən yaxşı tester həmişə təhlükəsizlik qatını ən böyük modellərin buraxılışından bir neçə gün sonra kəşf edə bilmişdir.

Buna görə AI laboratoriyaları, əsas modeli izləyən ikinci bir AI qatını daxil edirlər. ChatGPT-yə poçt yolu ilə çiçək xəstəliyi DNT-sini necə sifariş etmək haqqında soruşsalar, ikinci qat bu danışığın riskli olduğunu müəyyən edərək onu blok edər və ya bu məsələni insanın nəzərdən keçirməsinə verir. Bu ikinci qat, sənayedə bir çoxları açıq mənbəli AI modellərinin nəzərdən keçirilməsindən narahat olmasının bir səbəbidir. Məcburi olaraq bu ikinci qat istifadə edilsə də, Meta’nın Llama və DeepSeek’in r1 kimi modelləri var, həm də onların əvəzinə birlikdə işləyərkən bir təhlükəsizlik sistemi qurub qurmadıqlarından əmin deyil. Müəyyən imkanlara yanaşarkən, izləyən analizcisi Dr. Williams “bəzi AI modellərin açıq mənbəsinə toksik çətinliklər yaratmadığından faydalı deyil” deyir.

Daha bir şey ondan ibarətdir ki, bəzi süni intellekt laboratoriyaları öz modellərini diqqətlə yoxlamadığına görə onlardan istismar edilə bilməz. FLI-nin son hesabatı göstərir ki, yalnız üç ən yaxşı laboratoriya - Google DeepMind, OpenAI və Anthropic - “modellərində geniş miqyaslı risklər olub olmadığını qiymətləndirmək üçün mənalı səylər göstərirlər”. Şkalanın digər ucunda xAI və DeepSeek var ki, bunlar məşhurların açıq şəkildə bir səy göstərmədiyi laboratoriyalardır.landır. İyul ayında xAI erotik rollar üçün nəzərdə tutulan bir AI yoldaşı buraxmışdı və cənab Muzeyin bölünük təsirləri üçün twitləri üzərinə nüfuz axtarmaq üçün axtardığı nüfuz aşkarına $300ılı abunə modeli təqdim etmişdir və Grok-un antisemitizmi yayımladığını, Holokost’ı tərif etdığını və özünü “MechaHitler” adlandırdığını xəbər verirdi.

Seçilən
202
22
neonews.az

10Mənbələr