Već smo nebrojeno puta pisali o strelovitom razvoju alata za stvaranje i manipulaciju slikama poput DALL-E, Stable Diffusion, i Midjourney. No, isto tako smo pisali o inherentnim rizicima korištenja AI tehnologije, poglavito vezano za etička pitanja poput zaštite intelektualnog vlasništva, ali i moguće primjene u kriminalu i drugim ilegalnim aktivnostima.
Upotreba AI sustava za manipulaciju i izmjenu fotografija se može smatrati jednim od najčešćih i vrlo vjerojatno najjednostavnijim načinom za razne ilegalne radnje, od ucjene do prodaje lažnih slika slavnih osoba medijima. Kako bi se spriječila zloupotreba fotografija, te njihovo korištenje za ilegalne svrhe, znanstvenici sa Sveučilišta MIT (Massachusetts Institute of Technology Computer Science & Artificial Intelligence Laboratory) su razvili PhotoGuard, sustav koji sprječava manipulaciju slikama uz pomoć AI.
Iako se čini paradoksalno, u stvarnosti jedino AI sustavi mogu parirati jedan drugom. Količina podataka i fotografija koje se stvore svakog dana je toliko velika da bi doslovno trebali milijuni ljudi da ručno modificiraju svaku pojedinačnu sliku. Zato su znanstvenici s MIT-a razvili AI alat koji sprječava modifikaciju postojećih fotografija.
U bunker čak i prije objave
Znanstvenici tvrde da PhotoGuard ima mogućnost detekcije oku nevidljivih promjena u vrijednostima piksela koje odaju da je fotografija modificirana. Također, PhotoGuard omogućava korisnicima da svoje slike učine neosvojivima za druge AI sustave prije nego li ih objave na internetu tako što svakoj fotografiji dodaje nevidljive distorzije unutar piksela koje onemogućuju druge AI sustave da ih očitaju i potom mijenjaju.
Jednostavnijim rječnikom rečeno, PhotoGuard koristi tehnologiju AI generatora slika protiv njih samih tako što im onemogućava da na sliku graftiraju nove vrijednosti. Ovo uključuje i difuziju te morfiranje modela koji korisnicima omogućavaju da, recimo, na sliku Alke Vujice učitaju glavu neke druge osobe te tako stvore krivu reprezentaciju stvarnosti.
Glavni mehanizam obrane
Kad AI sustav učita sliku koju je prethodno zaštitio PhotoGuard dolazi do potpunog raspada modela koji upravlja generatorom slika. Naravno, ovaj raspad se ne odnosi na čitav model već isključivo na proces generiranja jedne slike. Naime, PhotoGuard radi male promjene na pikselima koji služe za očitavanje podataka. Budući da ne može pravilno učitati sliku, generator izbacuje potpuno distorzirane rezultate.
O paradoksu s početka
Jasno je da obrana od AI sustava zahtijeva drugi AI sustav koji ima sposobnost kontriranja tehnologije. Dakle, PhotoGuard sprječava modifikaciju slika, a za vjerovati je da će u skoroj budućnosti doći i sustavi za ostale namjene – kao naprimjer za tekst, video, zvuk, i slično. Ono što je sigurno je da će AI u budućnosti biti korišten za zlonamjerne svrhe, kao uostalom i svaka druga tehnologija, s tim što je AI mnogo potentniji i predstavlja veću prijetnju.
Tehnologija obrane
PhotoGuard ni na koji način ne će utjecati na sposobnost generatora da stvaraju slike, kao što uostalom već i čine. Tehnologija koja omogućava PhotoGuardu da spriječi manipulaciju se bazira na činjenici da AI sustavi slike tretiraju kao kompleksne skupove matematičkih podataka koji određuju što se na slici nalazi, boje, raspored, i slično. Kada se u te skupove podataka dodaju promjene na nivou piksela, za ljudsko oko nema razlike. No, AI sustav analizom podataka dobiva potpuno iskrivljenu percepciju te ne može pravilno reproducirati podatke. Čak i ako sustav pokuša ispraviti greške ne može jer nema originalni set podataka, tako da je rezultat uvijek pogrešan.
Dok su razvijali PhotoGuard, znanstvenici su koristili kompleksan proces s više stupnjeva. No, kako bi sustav bio upotrebljiv na svim računalima i mobilnim uređajima, proces je pojednostavljen ali se pritom zadržalo dovoljno kompleksnosti kako slike ne bi mogle biti modificirane.






