AZ

Süni intellektdə TƏHLÜKƏ: Aparıcı şirkətlərdən XƏBƏRDARLIQ

OpenAI, Google DeepMind, Meta və Anthropic kimi süni intellekt sahəsində qabaqcıl tədqiqat laboratoriyalarını təmsil edən 40 nəfərlik tədqiqatçı qrupu süni intellektin şəffaflığı ilə bağlı ciddi xəbərdarlıq yayıb.

News24.az xəbər verir ki, Fortune-un yaydığı məlumata əsasən, bu qrup süni intellektin “düşüncə zənciri” (chain-of-thought) adlanan məntiqi qərarvermə proseslərinin izlənilməsinin vacibliyini vurğulayıb. Bildirilib ki, OpenAI-nin o1 modeli və ya DeepSeek-in R1-i kimi sistemlərdə bu proseslər süni intellektin “necə düşündüyünü” anlamağa imkan verir.

Tədqiqatçılar bu metodun süni intellektin qərarlarının daha şəffaf olmasına imkan yaratdığını və “pis niyyətli davranış meyillərinin” izlənməsində mühüm vasitəyə çevrildiyini qeyd ediblər. Lakin eyni zamanda bildirilib ki, texnologiya inkişaf etdikcə bu səviyyədə şəffaflığın davam edəcəyinə zəmanət yoxdur.

Sənədin müəllifləri, o cümlədən Elon Musk-ın qurduğu xAI şirkətindən təhlükəsizlik məsləhətçisi Dan Hendrycks, süni intellekt sistemlərinin gələcəkdə daha az anlaşılan və izlənməsi çətin struktura çevrilə biləcəyindən narahatlıqlarını ifadə ediblər. Onlar süni intellekt hazırlayan şirkətləri bu prosesləri daha diqqətlə izləməyə və izlənəbilən düşüncə zənciri strukturunu sabit təhlükəsizlik mexanizminə çevirməyə çağırıblar.

Xeyrənsə Piriyeva

Seçilən
63
news24.az

1Mənbələr