Svatko tko je zainteresiran za područje umjetne inteligencije zna da je to zahtjevno i vrlo široko polje. Bilo da Vas interesira sama tehnologija ili pak specifične mogućnosti primjene, potrebno je vrlo široko i duboko znanje kako bi se ispravno razumijelo što umjetna inteligencija jest, što nije, te kako će njena primjena utjecati na polje koje Vas zanima. Cilj, dakle, jest razumljiva umjetna inteligencija koja će i laicima omogućiti da ju koriste.
Razumljiva umjetna inteligencija
Uzmimo za primjer ChatGPT – chatbot koji je postao viralni hit u posljednjim mjesecima. On je sposoban generirati pisani tekst poput e-mailova, priča, blogova i pjesama tako visoke kvalitete da se čini kao da ih je napisao čovjek.
No, isto tako čini i neke vrlo smiješne pogreške i ponekad govori besmislice – tzv. hallucinating. Budući su algoritmi koji generiraju odgovore tako složeni (posljednja verzija njegovog jezičnog modela, poznata kao GPT-4, navodno je trenirana na preko bilijun parametara), nitko zapravo ne zna zašto se to događa. Mi bi otišli korak dalje i rekli da ima dosta konfuzije oko toga što toćno radi, čak i među stručnjacima u polju. Dakle, ono što se valja pitati jest, gdje ChatGPT griješi? Što je temeljni uzrok tih pogrešaka?
Iz ovih pitanja izniče čitavo novo polje čiji je glavni izazov stvaranje “objašnjive AI” (XAI). To je termin za AI sustave koji idu dalje od pružanja odgovora na pitanja koja im postavljamo. XAI sustav trebao bi moći pružiti jasna, lako razumljiva objašnjenja za svoje odluke i detalje faktora koje je uzeo u obzir prilikom donošenja tih odluka. Trenutno niti jedan AI sustav nema ovakvu razinu transparentnosti. U nedavnom članku smo pisali o potrebi regulacije AI, gdje se izričito naglašava transparentnost modela kao jedan od glavnih zahtjeva.
Zašto je ovo bitno?
Sjetite se vremena kad ste bili u školi, a učitelj bi očekivao da “pokažete svoje radove” – kako bi znao da ste razumijeli gradivo a ne samo kopirali sa susjednog školskog stola. Isti sistem bi trebao biti primjenjiv na AI!
Pogledajmo stoga neke od razloga zašto je to od vitalne važnosti za razvoj AI-a i zašto objašnjivi AI predstavlja najbintiji izazov kako bi UI ispunio svoj potencijal.
AI ima potencijal da iz temelja izmjeni gotovo sve industrijske grane, od zdravstva do financija. No da bi se to ostvarilo, moramo moći vjerovati podacima koje generira. Ne samo to – moramo biti iznimno uvjereni da razumijemo zašto preporučuje određeni tretman pacijentu ili kako zna da je dolazna transakcija od nekoliko milijuna dolara vrlo vjerojatno prijevara.
Algoritmi mogu davati odgovore koji su dobri koliko i podaci na kojima su trenirani. Ako su trenirani na netočnim ili pristranim podacima, takvi će biti odgovori. Ovo predstavlja problem, osobito ako želimo AI koristiti za donošenje odluka koje mogu utjecati na živote ljudi – na primjer u zdravstvu, zapošljavanju ili financijama – to može biti opasno i vrlo loše za društvo općenito.
Stara pošalica o računalnim algoritmima i obradi podataka glasi “loš ulaz = loš izlaz”. Ovo vrijedi dvostruko za algoritme u UI.
Na kraju dana, sve se svodi na povjerenje – iako UI ima potencijal da transformira društvo i poboljša ljudkse živote na nevjerojatne načine, to će se dogoditi samo ako društvo može vjerovati u točnost i istinitost informacija koje UI generira.
Rješavanje “problema crne kutije” – stvaranje objašnjive UI- je ključni dio zagonetke, jer ljudi će vjerovatno mnogo više vjerovati UI-u ako ga mogu razumjeti.
Objašnjiva UI je važan koncept i sa zakonodavnog stajališta. Kako se UI ukorjenjuje u društvu, vjerojatno će se pojaviti niz novih zakona i propisa koji će regulirati upotrebu UI. Najnoviji primjer bi bio Akt Europske unije o UI. Kako će se UI regulirati će uvelike ovisiti o načinu razvoja. Razumljivost UI sustava bi mogla imati važnu ulogu u određivanju načina na koji će se regulirati u budućnosti.
Izazovi razvoja objašnjive umjetne inteligencije
Prvi izazov proizlazi iz same složenosti UI-a. Kad danas govorimo o UI-u, općenito mislimo na strojno učenje. To se odnosi na algoritme koji progresivno postaju sve bolji u obavljanju određenih zadataka – od prepoznavanja slika do navođenja autonomnih vozila – kako im se pruža sve više podataka. To zahtijeva složene matematičke modele koje je gotovo nemoguće učiniti dovoljno jednostavnima za razumijevanje ljudima.
Još jedan problem je potreba ravnoteže s performansama – većina algoritama strojnog učenja programirana je na način da pružaju rezultat što je učinkovitije moguće, bez trošenja resursa na objašnjavanje onoga što rade. Budući je količina procesorske i grafičke snage potrebne za upravljanje UI ogromna, ovo ne iznenađuje.
Tu su također i komercijalna ograničenja. Detalji rada nekih od najčešće korištenih sustava strojnog učenja – poput Googleovih algoritama pretraživanja ili jezičnog modela ChatGPT – nisu javno dostupni. Ovo je nužno da bi otežalo konkurentima da ih kopiraju i ugroze komercijalnu prednost vlasnika.
Kako se suočiti s ovim izazovima?
Rješavanje izazova XAI vjerojatno će zahtijevati široku suradnju između svih zainteresiranih strana. To uključuje akademske i istraživačke organizacije u kojima se ostvaruju nova dostignuća, komercijalne entitete koji čine tehnologiju dostupnom i koriste je za generiranje profita, te vladine institucije koje će igrati ulogu u reguliranju i nadgledanju usvajanja od strane društva.
IBM je, primjerice, stvorio open-source platformu pod nazivom Ai Explainability 360 koji mogu koristiti kompanije koje razvijaju UI kako bi ugradili koncepte objašnjivosti u svoje projekte i aplikacije.
Mnoge akademske institucije, nevladine organizacije kao i privatne tvrtke osnovali su vlastite istraživačke institucije usmjerene na etičku UI, a transparentnost često čini fokus njihovih istraživanja.
Jedan prioritet je uspostava standardiziranih mjernih instrumenata koji se mogu koristiti za mjerenje objašnjivosti – što danas može značiti različite stvari za različite ljude. Dogovor o tome kako se to može procijeniti i kako se mogu promovirati aplikacije i projekti koji omogućavaju visok nivo objašnjivosti važan je dio ovog posla.
Može li sam AI pružiti odgovor?
Prirodnojezični alati poput ChatGPT-a već su pokazali da su sposobni anotirati računalni kod tako da objašnjava što radi ljudskim jezikom. Vjerojatno će buduće iteracije ove tehnologije biti dovoljno sofisticirane da mogu anotirati i AI algoritme.
Kada su jezični modeli GPT-3 i GPT-4 koji pokreću ChatGPT integrirani u Microsoftovu tražilicu Bing, dodana je funkcionalnost koja pokazuje (u ograničenoj mjeri) gdje algoritmi pronalaze podatke koji se koriste za pružanje odgovora na upite korisnika. To je korak naprijed u pogledu pružanja objašnjivosti – zasigurno u usporedbi s izvornom aplikacijom ChatGPT, koja ne pruža nikakve nagovještaje niti objašnjenja.
Kakva god rješenja bila primijenjena, možemo sa sigurnošću reći da će nastojanje da se pruži XAI igrati važnu ulogu u pripremi društva da u potpunosti iskoristi potencijal AI tehnologija, osiguravajući da AI radi za nas na transparentan i odgovoran način.






