Mnogi sistemi veštačke inteligencije (AI) su već naučili kako da prevare ljude, čak i sistemi koji su obučeni da budu korisni i pošteni. U preglednom članku objavljenom u časopisu Obrasci 10. maja, istraživači opisuju rizike obmane od strane sistema veštačke inteligencije i pozivaju vlade da razviju snažne propise za rešavanje ovog pitanja što je pre moguće.
„Programeri AI nemaju pouzdano razumevanje o tome šta uzrokuje nepoželjna ponašanja veštačke inteligencije kao što je obmana“, kaže prvi autor Peter S. Park, postdoktorski saradnik za AI egzistencijalnu bezbednost na MIT-u. „Ali generalno govoreći, mislimo da prevara AI nastaje zato što se pokazalo da je strategija zasnovana na obmani najbolji način da se dobro izvrši zadatak obuke datog AI. Obmana im pomaže da postignu svoje ciljeve.“
Park i njegove kolege analizirali su literaturu fokusirajući se na načine na koje sistemi veštačke inteligencije šire lažne informacije — putem naučene obmane, u kojoj sistematski uče da manipulišu drugima.
Najupečatljiviji primer AI prevare koji su istraživači otkrili u svojoj analizi bio je Metin CICERO, sistem veštačke inteligencije dizajniran da igra igru Diplomaci, koja je igra osvajanja sveta koja uključuje izgradnju saveza. Iako Meta tvrdi da je obučila CICERO-a da bude „u velikoj meri iskren i od pomoći“ i da „nikada namerno ne zadaje nož u leđa“ svojim ljudskim saveznicima dok su igrali igru, podaci koje je kompanija objavila zajedno sa svojim naučnim dokumentom otkrivaju da CICERO nije igrao fer.
„Otkrili smo da je Metina veštačka inteligencija naučila da bude majstor prevare“, kaže Park. „Dok je Meta uspela da obuči svoju veštačku inteligenciju da pobedi u igri diplomatije — CICERO se našao u prvih 10% ljudskih igrača koji su igrali više od jedne igre — Meta nije uspela da obuči svoju veštačku inteligenciju da pošteno pobedi.“
Drugi sistemi veštačke inteligencije pokazali su sposobnost da blefiraju u igri teksaškog hold’em pokera protiv profesionalnih ljudskih igrača, da lažiraju napade tokom strateške igre Starcraft II kako bi pobedili protivnike i lažno predstavili njihove preferencije kako bi dobili prednost u ekonomskih pregovora.
Iako može izgledati bezopasno ako sistemi veštačke inteligencije varaju u igricama, to može dovesti do „proboja u obmanjujućim sposobnostima veštačke inteligencije“ koji u budućnosti mogu prerasti u naprednije oblike AI obmane, dodao je Park.
Neki sistemi veštačke inteligencije su čak naučili da varaju testove dizajnirane da procene njihovu bezbednost, otkrili su istraživači. U jednoj studiji, AI organizmi u digitalnom simulatoru su se „izigrali mrtvi“ kako bi prevarili test napravljen da eliminiše AI sisteme koji se brzo repliciraju.
„Sistematskim varanjem bezbednosnih testova koje su mu nametnuli programeri i regulatori, varljiva veštačka inteligencija može nas ljude dovesti do lažnog osećaja sigurnosti“, kaže Park.
Glavni kratkoročni rizici lažne veštačke inteligencije uključuju olakšavanje neprijateljskim akterima da počine prevaru i manipulišu izborima, upozorava Park. Na kraju, ako ovi sistemi mogu da poboljšaju ovaj uznemirujući skup veština, ljudi bi mogli izgubiti kontrolu nad njima, kaže on.
„Nama kao društvu treba što više vremena da se pripremimo za naprednije obmane budućih AI proizvoda i modela otvorenog koda“, kaže Park. „Kako obmanjujuće mogućnosti sistema veštačke inteligencije budu naprednije, opasnosti koje oni predstavljaju za društvo postaće sve ozbiljnije.
Dok Park i njegove kolege ne misle da društvo još uvek ima pravu meru za rešavanje obmane sa veštačkom inteligencijom, ohrabreni su što su kreatori politike počeli ozbiljno da shvataju ovo pitanje kroz mere kao što su Zakon o veštačkoj inteligenciji EU i Izvršna naredba predsednika Bajdena o veštačkoj inteligenciji. Ali ostaje da se vidi, kaže Park, da li se politike dizajnirane za ublažavanje obmane AI mogu striktno sprovoditi s obzirom na to da programeri veštačke inteligencije još uvek nemaju tehnike da drže ove sisteme pod kontrolom.
„Ako je zabrana AI obmane politički neizvodljiva u ovom trenutku, preporučujemo da se obmanjujući sistemi AI klasifikuju kao visokorizični“, kaže Park.