"OpenAI" şirkəti gələcək nəsil süni intellekt modellərinin, o cümlədən ChatGPT-nin bioloji silahların yaradılması riskini ciddi şəkildə artıra biləcəyi barədə xəbərdarlıq edib.
Valyuta.az bu barədə "Fortune" nəşrinə istinadən xəbər verir.
Şirkətin rəhbərliyi hesab edir ki, qarşıdakı dövrlərdə istifadəyə veriləcək modellər "OpenAI" tərəfindən daxili istifadə üçün hazırlanmış təhlükəsizlik risklərini qiymətləndirmə sisteminə əsasən "yüksək riskli" kateqoriyasına daxil olacaq. Təhlükəsizlik sistemləri üzrə bölmə rəhbəri Yoxannes Haydekenin fikrincə, bu səviyyəyə artıq cari mühakimə edən modelin (o3) varisləri çatacaq.
"OpenAI" öz bloqunda qeyd edib ki, bu riski azaltmaq məqsədilə təhlükəsizlik sınaqları daha da gücləndirilib. Şirkət xəbərdarlıq edir ki, müvafiq nəzarət tədbirləri görülməzsə, gələcəkdə bu modellər başlanğıc səviyyəli istifadəçilərin bilik səviyyəsini süni şəkildə artıra və bunun nəticəsində elmi təcrübəsi az olan şəxslər də təhlükəli silahların istehsalını reallaşdıra bilər.
Qeyd olunur ki, söhbət yeni və indiyədək məlum olmayan bioloji təhlükələrin yaradılmasından getmir. Əsas narahatlıq, mövcud və ekspertlərə yaxşı tanınan bioloji silahların texnologiyalarının yenidən istehsal imkanlarının asanlaşması ilə bağlıdır.
"OpenAI" bildirir ki, süni intellekt texnologiyalarının tibb sahəsində inqilabi yeniliklərə səbəb ola biləcək potensialı eyni zamanda sui-istifadə halları üçün də açıqdır. Bu səbəbdən şirkət təhlükəsizlik testlərinin praktiki olaraq qüsursuz olması zərurətini vurğulayır.
Paşa Məmmədli