AI predstavlja političku opasnost za 2024.

AI predstavlja političku opasnost za 2024.

Kompjuterski inženjeri i politikolozi naklonjeni tehnologiji već godinama upozoravaju da će jeftini, moćni alati veštačke inteligencije uskoro omogućiti svima da kreiraju lažne slike, video i audio zapise koji su dovoljno realni da zavaraju glasače i možda utiču na izbore.

Sintetičke slike koje su se pojavile često su bile grube, neuverljive i skupe za proizvodnju, posebno kada su druge vrste dezinformacija bile tako jeftine i lako se širile na društvenim medijima. Pretnja koju predstavljaju veštačka inteligencija i takozvani deepfakes uvek su izgledali za godinu ili dve.

Sofisticirani generativni AI alati sada mogu da kreiraju klonirane ljudske glasove i hiperrealistične slike, video zapise i audio zapise za nekoliko sekundi, uz minimalne troškove. Kada je vezan za moćne algoritme društvenih medija, ovaj lažni i digitalno kreiran sadržaj može da se proširi daleko i brzo i cilja na veoma specifičnu publiku, potencijalno podižući prljave trikove kampanje na novi nivo.

Implikacije za kampanje i izbore 2024. su onoliko velike koliko i zabrinjavajuće: generativna AI ne samo da može brzo da proizvede ciljane mejlove za kampanju, tekstove ili video zapise, već bi se takođe mogla koristiti da obmane birače, lažno predstavlja kandidate i podriva izbore u velikom obimu i na brzina koja još nije viđena.

„Nismo spremni za ovo“, upozorio je A.J. Neš, potpredsednik obaveštajne službe kompanije za sajber bezbednost ZeroFok. „Za mene, veliki korak napred su audio i video mogućnosti koje su se pojavile. Kada to možete da uradite u velikom obimu i distribuirate na društvenim platformama, to će imati veliki uticaj.“

Stručnjaci za veštačku inteligenciju mogu brzo da otkriju brojne alarmantne scenarije u kojima se generativna veštačka inteligencija koristi za stvaranje sintetičkih medija u svrhu zbunjivanja glasača, klevetanja kandidata ili čak podsticanja nasilja.

Evo nekoliko: automatizovane poruke automatizovanog poziva, glasom kandidata, koje upućuju glasače da glasaju na pogrešan datum; audio snimci kandidata koji navodno priznaje zločin ili izražava rasističke stavove; video snimak koji prikazuje nekoga kako drži govor ili intervju koji nikada nije održao. Lažne slike dizajnirane da izgledaju kao lokalni izveštaji, lažno tvrdeći da je kandidat ispao iz trke.

„Šta ako vas Elon Musk lično pozove i kaže da glasate za određenog kandidata?“ rekao je Oren Ecioni, osnivački izvršni direktor Allen instituta za veštačku inteligenciju, koji se povukao prošle godine da bi pokrenuo neprofitnu organizaciju AI2. „Mnogi ljudi bi slušali. Ali to nije on.”

Bivši predsednik Donald Tramp, koji se kandiduje 2024. godine, delio je sadržaje generisane veštačkom inteligencijom sa svojim pratiocima na društvenim mrežama. Manipulisani video voditelja CNN-a Andersona Kupera koji je Tramp podelio na svojoj platformi Truth Social u petak, a koji je iskrivio Kuperovu reakciju na CNN-ovu gradsku većnicu prošle nedelje sa Trampom, kreiran je pomoću alata za kloniranje glasa veštačke inteligencije.

Distopijska kampanja koju je prošlog meseca objavio Republički nacionalni komitet nudi još jedan uvid u ovu digitalno manipulisanu budućnost. Oglas na mreži, koji se pojavio nakon što je predsednik Džo Bajden najavio svoju kampanju za reizbor, a počinje čudnom, pomalo izobličenom slikom Bajdena i tekstom „Šta ako je najslabiji predsednik kojeg smo ikada imali ponovo izabran?“

Sledi niz slika generisanih veštačkom inteligencijom: Tajvan pod napadom; začepljeni izlozi u Sjedinjenim Državama dok se ekonomija raspada; vojnici i oklopna vojna vozila koja patroliraju lokalnim ulicama dok tetovirani kriminalci i talasi imigranata stvaraju paniku.

„Pogled u moguću budućnost zemlje generisan veštačkom inteligencijom ako Džo Bajden bude ponovo izabran 2024. godine“, stoji u opisu oglasa iz RNC-a.

RNC je priznao da koristi veštačku inteligenciju, ali drugi, uključujući podle političke kampanje i strane protivnike, neće, rekao je Petko Stojanov, globalni tehnološki direktor Forcepoint, kompanije za sajber bezbednost sa sedištem u Ostinu u Teksasu. Stojanov je predvideo da će grupe koje žele da se mešaju u američku demokratiju koristiti veštačku inteligenciju i sintetičke medije kao način da naruše poverenje.

„Šta se dešava ako se međunarodni subjekt — sajber kriminalac ili nacionalna država — lažno predstavlja. Kakav je uticaj? Imamo li pribegavanje?“ rekao je Stojanov. „Videćemo mnogo više dezinformacija iz međunarodnih izvora.

Političke dezinformacije generisane veštačkom inteligencijom već su postale viralne na internetu uoči izbora 2024. godine, od izmišljenog videa Bajdena koji se čini da drži govor u kojem napada transrodne ljude do slika dece koja se navodno uče satanizmu u bibliotekama generisane veštačkom inteligencijom.

Slike veštačke inteligencije na kojima se čini da se vidi Trampov snimak takođe su prevarile neke korisnike društvenih medija, iako bivši predsednik nije snimio nijednu kada je osuđen i optužen na krivičnom sudu na Menhetnu zbog falsifikovanja poslovnih zapisa. Druge slike generisane veštačkom inteligencijom pokazuju da se Tramp opire hapšenju, iako je njihov tvorac brzo priznao njihovo poreklo.

Zakonodavstvo koje bi od kandidata zahtevalo da označavaju reklame za kampanju kreirane pomoću veštačke inteligencije unela je u Dom poslanika Ivet Klark iz D.N.J., koja je takođe sponzorisala zakon koji bi zahtevao da svako ko kreira sintetičke slike doda vodeni žig koji ukazuje na tu činjenicu.

Neke države su ponudile sopstvene predloge za rešavanje zabrinutosti u vezi sa dubokim lažnjacima.

Klark je rekla da je njen najveći strah da bi generativna veštačka inteligencija mogla da se koristi pre izbora 2024. za stvaranje video ili audio snimka koji podstiče nasilje i okreće Amerikance jedni protiv drugih.

„Važno je da držimo korak sa tehnologijom“, rekao je Klark za Asošijeted pres. „Moramo da postavimo neke zaštitne ograde. Ljudi se mogu prevariti, a za to je potreban samo delić sekunde. Ljudi su zauzeti svojim životima i nemaju vremena da provere svaku informaciju. Budući da je veštačka inteligencija naoružana, u političkoj sezoni, to bi moglo biti izuzetno ometajuće.“

Ranije ovog meseca, trgovinsko udruženje političkih konsultanata u Vašingtonu osudilo je upotrebu deepfakesa u političkom oglašavanju, nazvavši ih „prevarom“ kojoj „nema mesta u legitimnim, etičkim kampanjama“.

Drugi oblici veštačke inteligencije su godinama bili karakteristika političke kampanje, koristeći podatke i algoritme za automatizaciju zadataka kao što su ciljanje birača na društvenim medijima ili praćenje donatora. Stratezi kampanje i tehnološki preduzetnici se nadaju da će najnovije inovacije ponuditi neke pozitivne rezultate i u 2024.

Mike Nellis, izvršni direktor progresivne digitalne agencije Authentic, rekao je da koristi ChatGPT „svakog dana“ i podstiče svoje osoblje da ga takođe koristi, sve dok se bilo koji sadržaj napravljen pomoću alata pregleda ljudskim očima nakon toga.

Nellisov najnoviji projekat, u partnerstvu sa Higher Ground Labs, je AI alat pod nazivom Kuiller. Pisaće, slati i procenjivati efikasnost e-poruka za prikupljanje sredstava – sve tipično zamorne zadatke u kampanjama.

„Ideja je da svaki demokratski strateg, svaki demokratski kandidat ima kopilota u džepu“, rekao je on.