Yüzlərlə alim süni intellekt təliminin dayandırılmasını təklif edib
Həyatın Gələcəyi İnstitutu tərəfindən yayımlanan məktubda süni intellekt modellərinin hazırlanmasında yarışın riskləri barədə xəbərdarlıq edilib və fəaliyyətlərin altı ay müddətinə dayandırılması tələb olunub.
Bu günkü proqramımızda Həyatın Gələcəyi İnstitutunun süni intellekt mövzusunda etdiyi xəbərdarlıq haqqında danışacağıq.
Sehiyye.info xəbər verir ki,İlon Maskın da aralarında olduğu mindən çox mütəxəssisin imzaladığı süni intellek təliminin (AI-Artificial Intelligence) dayandırılması ilə əlaqədar məktubda süni intellekt modellərinin hazırlanmasında olan yarışın riskləri barədə xəbərdarlıq edilib və fəaliyyətlərin 6 ay müddətinə dayandırılması tələb olunub.
“Güclü süni intellekt sistemləri yalnız onların təsirinin müsbət olacağına və risklərinin idarə oluna biləcəyinə əmin olduğumuz zaman inkişaf etdirilməlidir. Süni intellekt dəqiq, təhlükəsiz, şərh edilə bilən, şəffaf, möhkəm, uyğun və etibarlı olmalıdır'',- deyə İnstitut tərəfindən yayımlanan məktubda deyilir.
Məktubu imzalayanlar arasında İlon Mask, ''Apple'' kompaniyasının həmtəsisçisi Stiv Voznyak və transhumanist tarixçi Yuval Noah Harari də var.
Bəs məktubda süni intellekt haqqında nә deyilir?
Bildirilir ki, süni intellekt texnologiyalarının inkişafı üçün istifadə edilən GPT 4 və buna bənzər süni intellekt sistemləri ictimai və yoxlanıla bilən olmalıdır.
Məktubda deyilir: "Əgər bu fasilə tez bir zamanda tənzimlənə bilməzsə, hökumətlər sistemə müdaxilə etməli və dayandırmağa başlamalıdır".
İlon Mask süni intellektin təhlükələri barədə xəbərdarlıq edərək, maşın intellektinin 2025-ci ilə qədər insanlarınkini geridə qoyacağını və insanların superkompüterlərin ev heyvanlarına çevrilmə riski ilə üzləşəcəyini proqnozlaşdırır.
Həyatın Gələcəyi İnstitutu Londonda yerləşən Founders Pledge qrupu və Silikon Vadisi Fondu tərəfindən maliyyələşdirilir.//trt