Posljednjih nekoliko mjeseci svjedočimo neprestanom rastu interesa za generativnu AI. Uslijed takvog enormnog rasta, potrebno je zastati i sagledati sve moguće implikacije upotrebe AI sustava. Etičke, moralne, legalne, sigurnosne implikacije su goleme, osobito za velike korporacije i privatne korisnike.
Jedna od najvećih zamjerki trenutnom načinu razvoja generativne AI je netransparentnost modela. Već smo pisali o rizicima upotrebe AI sustava, nelegalnom eksploatiranju intelektualnog vlasništva, i sličnim problemima. Netransparentnost je, sudeći po izjavama stručnjaka, ipak najveći problem jer onemogućuje znanstvena i druga istraživanja modela što pak limitira mogućnost pre emptivnog djelovanja u područjima visokog rizika.
Najbolji primjer netransparentnosti su svakako OpenAI-ev GPT i Google-ov Bard koji su razvijeni u potpunoj tajnosti a kompanije ne žele otkriti koji podatci su korišteni za trening modela.
Veliki problem bi moglo biti curenje informacija putem chat klijenata, kao što je bio slučaj sa Samsungom. Ovo je velik problem za privatne osobe i kompanije jer osjetljivi podatci mogu završiti u rukama konkurencije ili se koristiti za napade na računala i sustave.
Kako navode iz Oxylabsa, tvrtke specijalizirane za kibernetičku sigurnost, zaposlenici mogu i nehotice otkriti vrlo bitne tajne podatke dok koriste chat klijente poput ChatGPT 4 ili slične, što predstavlja ogroman sigurnosni rizik. Problem je što OpenAI, Google, i druge kompanije ne dozvoljavaju pregled svojih sustava kako bi eksperti za sigurnost mogli utvrditi potencijalne rizike i mane sustava, što pak utječe na iskoristivost sustava. Naime, niti jedna kompanija ne želi preuzeti rizik da će osjetljivi podatci biti spremljeni ili podijeljeni s osobama van organizacije, a nemaju načina da se osiguraju protiv tog rizika.
OpenAI je vrlo štur i ne pruža detaljne informacije o procesu rukovanja korisničkim podacima. To je izazov za sve koji žele smanjiti rizik od curenja informacija. Sve ovo znači da kompanije moraju ulagati sredstva u konstantno praćenje aktivnosti zaposlenika i implementaciju upozorenja za uporabu generativnih AI platformi.
Još jedan problem je učestalo haluciniranje modela. OpenAI je nedavno priznao da njihov GPT-4 još uvijek pruža netočne informacije na neke upite. Ako radite na problemu i tražite rješenje a GPT pruži informaciju koja je potpuno kriva, u odsutnosti pravilnih kontroli može doći do velike štete i posljedično rizika za kupce.
Posljedice prelaze interese tvrtki te se mogu gledati na nivou društva. Na primjer, Stack Overflow je zabranio korištenje ChatGPT-a zbog nepreciznosti, što je vodilo do loših rezultata za krajnje korisnike.
Korištenje AI rješenja nosi i značajan pravni rizik. Tako je GitHub-ov Copilot već suočen s tužbama zbog uključivanja zaštićenih kodova iz javnih i otvorenih repozitorija bez odobrenja autora.
Iako organizacije ne mogu postići potpunu kontrolu, svijest i odgovornost pojedinaca su ključni. Edukacija o potencijalnim rizicima povezanim s generativnim AI rješenjima je iznimno bitna za poboljšanje opće sigurnosti upotrebe.
Vodeći stručnjaci, organizacije i pojedinci moraju surađivati kako bi riješili probleme vezane uz privatnost podataka, točnost i pravne rizike generativne AI tehnologije na radnom mjestu.






