Centar za sigurnost umjetne inteligencije (CAIS) nedavno je izdao priopćenje koje su potpisali istaknuti stručnjaci za AI upozoravajući na potencijalne rizike koje tehnologija predstavlja za čovječanstvo. Ovo upućuje na strah od umjetne inteligencije među vodećim znanstvenicima, odnosno strah od neobuzdanog razvoja tehnologije.
“Izgradnja zaštite od rizika izumiranja uzrokovanih AI-om trebala bi biti globalni prioritet, uz druge rizike na društvenoj razini poput pandemija i nuklearnog rata”, stoji u izjavi.
Među potpisnicima izjave nalaze se priznati istraživači i dobitnici Turingove nagrade poput Geofferyja Hintona i Yoshue Bengioa, kao i izvršni direktori tvrtki poput OpenAI i DeepMinda, poput Sama Altmana, Ilya Sutskevera i Demisa Hassabisa.
Cilj pisma CAIS-a je potaknuti rasprave o različitim hitnim rizicima povezanim s AI-om, a privuklo je podršku i kritike šire industrije. Ovo pismo slijedi drugo otvoreno pismo koje su potpisali Elon Musk, Steve Wozniak i preko 1000 drugih stručnjaka, a u kojem se traži prekid “nekontroliranog” razvoja AI-a.
Unatoč svojoj kratkoći, najnovija izjava ne pruža konkretne detalje o definiciji AI-a niti nudi konkretne strategije za smanjenje rizika. Međutim, CAIS je pojasnio u priopćenju za javnost da je njegov cilj uspostaviti mjere opreza i institucije kako bi se osiguralo učinkovito upravljanje rizicima AI-a.
Sam Altman, izvršni direktor OpenAI-a, aktivno se angažira s globalnim liderima i zagovara regulaciju AI-a. Tijekom nedavnog nastupa u Senatu, Altman je više puta pozvao zakonodavce da strogo reguliraju industriju. Izjava CAIS-a usklađena je s njegovim naporima podizanja svijesti o opasnostima AI-a.
Iako je otvoreno pismo privuklo pažnju, neki stručnjaci za etiku u AI-u kritiziraju trend izdavanja takvih izjava.
Dr. Sasha Luccioni, znanstvenica za istraživanje strojnog učenja, sugerira da spominjanje hipotetskih rizika AI-a uz konkretne rizike poput pandemija i klimatskih promjena povećava vjerodostojnost AI-a, istovremeno odvraćajući pažnju od trenutnih problema poput pristranosti, pravnih izazova i pristanka.
Daniel Jeffries, pisac i futurist, tvrdi da rasprava o rizicima AI-a postaje igra statusa u kojoj pojedinci prate trend bez dasnose stvarne troškove.
Kritičari smatraju da potpisivanje otvorenih pisama o budućim prijetnjama omogućuje onima odgovornima za trenutne štete AI-a da ublaže svoju krivicu, zanemarujući pritom etičke probleme koji su već prisutni u AI tehnologijama koje se već koriste.
Ipak, CAIS, neprofitna organizacija sa sjedištem u San Franciscu, usredotočena je na smanjenje rizika na društvenoj razini od AI-a kroz tehnička istraživanja i zagovaranje. Organizaciju su suosnovali stručnjaci s pozadinama u računalnoj znanosti i s velikim interesom za sigurnost AI-a.
I dok neki istraživači strahuju od pojave superinteligentne AI koja bi mogla nadmašiti ljudske sposobnosti i predstavljati egzistencijalnu prijetnju, drugi tvrde da potpisivanje otvorenih pisama o hipotetskim scenarijima propasti odvraća pažnju od postojećih etičkih dilema vezanih uz AI. Oni ističu potrebu za rješavanjem stvarnih problema koje AI danas predstavlja, poput nadzora, pristranih algoritama i kršenja ljudskih prava.
Balansiranje napretka AI-a s odgovornom primjenom i regulacijom ostaje ključni zadatak istraživača, donositelja politika i lidera industrije. Izjavu i potpisnike možete pronaći na stranici CAIS-a






