Ako ste nedavno imali problema da otkrijete da li je slika neke osobe stvarna ili generisana pomoću veštačke inteligencije (AI), niste sami.
Nova studija istraživača Univerziteta Vaterlo otkrila je da su ljudi imali više poteškoća nego što se očekivalo da razlikuju ko je prava osoba, a ko je veštački stvoren. Studija „Viđenje više ne veruje: Istraživanje o stanju dubokih lažnjaka, ljudi generisanih veštačkom inteligencijom i drugih neproverenih medija“ pojavljuje se u časopisu Napredak u kompjuterskoj grafici.
Vaterlo studija je pokazala da je 260 učesnika dobilo 20 neoznačenih slika: od kojih je 10 bilo stvarnih ljudi dobijenih iz Google pretraga, a ostalih 10 generisanih pomoću Stable Diffusion ili DALL-E, dva najčešće korišćena AI programa koji generišu slike.
Učesnici su zamoljeni da svaku sliku označe kao stvarnu ili generisanu veštačkom inteligencijom i objasne zašto su doneli svoju odluku. Samo 61% učesnika moglo je da vidi razliku između ljudi generisanih veštačkom inteligencijom i stvarnih, daleko ispod praga od 85% koji su istraživači očekivali.
„Ljudi nisu toliko vešti u pravljenju razlike kao što misle da jesu“, rekla je Andreea Pocol, dr. kandidat za kompjuterske nauke na Univerzitetu Vaterlo i glavni autor studije.
Učesnici su obraćali pažnju na detalje kao što su prsti, zubi i oči kao mogući indikatori kada su tražili sadržaj generisan veštačkom inteligencijom – ali njihove procene nisu uvek bile tačne.
Pocol je primetio da je priroda studije omogućila učesnicima da detaljno pregledaju fotografije, dok većina korisnika interneta gleda slike u prolazu.
„Ljudi koji se samo vrte na propast ili nemaju vremena neće shvatiti ove znakove“, rekao je Pocol.
Pocol je dodao da izuzetno brza brzina kojom se AI tehnologija razvija posebno otežava razumevanje potencijala za zlonamerne ili zlonamerne akcije koje predstavljaju slike generisane veštačkom inteligencijom. Tempo akademskog istraživanja i zakonodavstva nije često u stanju da prati korak: slike generisane veštačkom inteligencijom postale su još realističnije otkako je studija počela krajem 2022.
Ove slike generisane veštačkom inteligencijom su posebno opasne kao političko i kulturno sredstvo, koje može videti da svaki korisnik stvara lažne slike javnih ličnosti u sramotnim ili kompromitujućim situacijama.
„Dezinformacije nisu nova, ali alati dezinformacija se stalno menjaju i razvijaju“, rekao je Pocol. „Možda će doći do tačke u kojoj će se ljudi, bez obzira na to koliko će biti obučeni, i dalje boriti da razlikuju stvarne slike od lažnih. Zato moramo da razvijemo alate za identifikaciju i suprotstavljanje tome. To je kao nova trka u naoružanju sa veštačkom inteligencijom.“