Društveni mediji su preplavljeni lažnim slikama modernog pape Franje, Elona Maska koji protestuje u Njujorku i Donalda Trampa koji se opire hapšenju.
Takve slike i video snimci generisani veštačkom inteligencijom, ili deepfakes, postaju sve dostupniji zbog napretka u veštačkoj inteligenciji. Kako se šire sofisticiranije izmišljene slike, korisnicima će biti sve teže da razlikuju prave od lažnih.
Deepfakes su dobili ime po tehnologiji koja se koristi za njihovo kreiranje: neuronske mreže sa dubokim učenjem. Kada se aktiviraju na skupu podataka, ovi algoritmi uče obrasce i mogu ih replicirati na nove – i ubedljive – načine.
Iako se ova tehnologija može koristiti za zabavu, ona takođe ima mračni potencijal, izazivajući društvene i etičke probleme.
Za razliku od jednostavnih priča ili memova koji se malo razlikuju od propagandnih tehnika koje koristi nacistička Nemačka i uređivanja fotografija od strane komunističke Rusije, deepfakes imaju visok stepen realizma. Njihova dostupnost javnosti i državama mogla bi narušiti naš osećaj stvarnosti.
Pored sve veće zabrinutosti da umetnost generisana veštačkom inteligencijom ugrožava ljudsku umetnost i umetnike, duboke lažne stvari se mogu koristiti kao neprovereni glasnogovornici organizacija i država.
Predvodeći put, kineski državni mediji eksperimentisali su sa voditeljem vesti sa veštačkom inteligencijom, po imenu Ren Ksiaorong. Ren, iako nije prvi AI voditelj vesti koje je razvio u Kini, ilustruje i posvećenost tehnologiji i postepeno povećanje realizma.
Druge zemlje kao što su Kuvajt i Rusija takođe su pokrenule sidra generisana veštačkom inteligencijom.
Kada gledamo ova sidra, mogli bismo prigovoriti da bi ih samo najnaivniji gledaoci pogrešili sa pravim ljudima, kao što je prva ruska robotska voditeljka vesti. Ipak, ove tehnologije su još uvek u povoju. Ne možemo ih odbaciti.
Kineska transparentnost u korišćenju vesti koje generiše veštačka inteligencija je u suprotnosti sa izmišljenim izveštavanjem u vestima u Venecueli. Venecuelanski državni mediji predstavili su povoljne izveštaje o napretku zemlje, koje su navodno kreirale međunarodne novinske kuće na engleskom jeziku. Međutim, priče i sidra su izmišljene.
Upotreba ovih video snimaka u Venecueli je posebno zabrinjavajuća jer se koriste kao spoljna validacija vladinih aktivnosti. Tvrdnjom da video dolazi izvan nečije zemlje, on pruža još jedan izvor za potkrepljivanje njihovih tvrdnji.
Venecuela nije jedina zemlja koja je usvojila ove metode. Izmišljeni video snimci ukrajinskog predsednika Vladimira Zelenskog kako razgovara o predaji Rusiji takođe su kružili tokom tekućeg sukoba između Rusije i Ukrajine.
Izmišljene slike i video snimci su samo vrh duboko lažnog ledenog brega. Rusija je 2021. godine optužena da koristi filtere za duboke lažne slike za simulaciju protivnika tokom intervjua sa međunarodnim političarima. Sposobnost oponašanja političkih ličnosti i interakcije sa drugima u realnom vremenu je zaista uznemirujući razvoj događaja.
Kako ove tehnologije postaju sve pristupačnije svima, od bezopasnih kreatora mema i potencijalnih društvenih inženjera, granice stvarnog i zamišljenog postaju sve više nerazlučive.
Proliferacija deepfakes-a nagoveštava svet post-istine, definisan polomljenim geopolitičkim pejzažom, odjekom mišljenja i uzajamnim nepoverenjem koje mogu da iskoriste vladine i nevladine organizacije.
Širenje dezinformacija zahteva da razumemo kako se ideje, inovacije ili ponašanje šire unutar društvene mreže, što se naziva društvena zaraza.
Kognitivna nauka se bavi „informacijama“ — svime što smanjuje našu nesigurnost u vezi sa stvarnim stanjem sveta. Dezinformacije imaju izgled informacije, osim što se nesigurnost smanjuje na račun tačnosti.
Zapažanja da se dezinformacije šire brže, te činjenice verovatno proizilaze iz činjenice da kada je poruka jednostavna, ona povećava naše samopouzdanje.
Dezinformacije se šire iz raznih razloga. Mora izgledati dovoljno blizu „istini“ da je uverljivo. Ako je nova „činjenica“ nespojiva sa onim što znamo, skloni smo da je odbacimo čak i ako je istinita. Ljudi ne vole osećaj nedoslednosti i nastoje da ga reše. Ljudi će takođe ignorisati strukturu i kvalitet argumenta i fokusirati se na verodostojnost njegovog zaključka.
Deepfakes nas pomera dalje od ubeđivanja zasnovanog na tekstu, jer slike čine poruku mnogo pamtljivijom — i ubedljivijom — nego sami apstraktni koncepti. Stoga je njegova upotreba u širenju dezinformacija daleko zabrinjavajuća.
Struktura životne sredine je takođe kritična. Ljudi obraćaju pažnju na dostupne informacije, fokusirajući se na informacije koje potvrđuju njihova prethodna uverenja. Povećanjem učestalosti slika, ideja i drugih medija, povećavamo poverenje ljudi u sopstveno znanje i iluziju konsenzusa.
Dok tražimo kredibilan izvor informacija — stručnjake ili kolege — naša memorija skladišti informacije odvojeno od njihovog izvora. Vremenom, ovaj neuspeh praćenja izvora dovodi do našeg preuzimanja informacija iz memorije sa razumevanjem njihovog porekla.
Putem plasmana proizvoda i algoritama koji kontrolišu našu izloženost medijima, trgovci i vlade koriste ove tehnike generacijama. Nedavno su influenseri društvenih medija bili plaćeni da šire dezinformacije.
Uvođenje veštačke inteligencije samo će ubrzati ovaj proces dozvoljavajući čvršću kontrolu informacionog okruženja kroz mračne obrasce dizajna.
Proizvodnja, upravljanje i širenje informacija daje ljudima autoritet i moć. Kada informacioni ekosistemi postanu preplavljeni dezinformacijama, istina postaje ponižena.
Optužba za „lažne vesti“ postala je taktika kojom se diskredituje svaki argument. Deepfakes su varijacije na ovu temu. Korisnici društvenih mreža već su lažno tvrdili da su pravi video snimci američkog predsednika Džoa Bajdena i bivšeg predsednika SAD Donalda Trampa lažni.
Društveni pokreti kao što su Black Lives Matter ili tvrdnje o tretmanu Ujgura u Kini oslanjaju se na ubedljive kvalitete video zapisa.
Jednom kada formiramo uverenje, teško ga je suprotstaviti. Vreme potrebno za verifikaciju – posebno ako je prepušteno korisniku – omogućava širenje dezinformacija. Privatne i javne veb stranice za proveru činjenica mogu pomoći. Ali potreban im je legitimitet da bi podstakli poverenje.
Brazil pruža nedavnu demonstraciju takvog pokušaja. Nakon što je vlada pokrenula veb stranicu za verifikaciju, kritičari su je optužili za provladinu pristrasnost. Međutim, vladini zvaničnici su primetili da sajt nije trebalo da zameni privatne inicijative.
Ne postoji jednostavno rešenje za demaskiranje deepfakesa. Umesto da smo pasivni konzumenti medija, moramo aktivno da izazovemo sopstvena uverenja.
Jedini način za borbu protiv štetnih oblika veštačke inteligencije je negovanje ljudske inteligencije.