Verovatno znate da sve što čet-bot sa veštačkom inteligencijom (AI) kaže, uzimate sa rezervom, pošto oni često samo neselektivno stružu podatke, bez znanja da utvrdi njihovu istinitost.
Ali možda postoji razlog da budete još oprezniji. Mnogi sistemi veštačke inteligencije, pokazalo je novo istraživanje, već su razvili sposobnost da namerno daju lažne informacije ljudskom korisniku. Ovi podmukli botovi su savladali umetnost prevare.
„Programeri AI nemaju pouzdano razumevanje o tome šta uzrokuje neželjena ponašanja veštačke inteligencije kao što je obmana“, kaže matematičar i kognitivni naučnik Piter Park sa Masačusetskog instituta za tehnologiju (MIT).
„Ali generalno govoreći, mislimo da prevara AI nastaje zato što se pokazalo da je strategija zasnovana na obmani najbolji način da se dobro izvrši zadatak obuke datog AI. Obmana im pomaže da postignu svoje ciljeve.“
Jedna arena u kojoj se sistemi veštačke inteligencije pokazuju posebno vešti u prljavim neistinama su igre. Tri su zapažena primera u radu istraživača. Jedan je Metin CICERO, dizajniran da igra igru na ploči Diplomatija, u kojoj igrači traže svetsku dominaciju kroz pregovore. Meta je nameravao da njegov bot bude od pomoći i pošten; u stvari, bio je suprotan slučaj.
„Uprkos Metinim naporima, CICERO se pokazao kao stručnjak za lažove“, otkrili su istraživači. „Ne samo da je izdao druge igrače, već je takođe bio uključen u prevaru sa predumišljajem, planirajući unapred da izgradi lažni savez sa ljudskim igračem kako bi prevarila tog igrača da se ostavi nebranjenog za napad.
AI se pokazao tako dobrom u lošem stanju da se svrstao u prvih 10 procenata ljudskih igrača koji su igrali više utakmica. Šta. Kreten.
Ali to je daleko od jedinog prestupnika. DeepMind-ov AlphaStar, sistem veštačke inteligencije dizajniran da igra StarCraft II, u potpunosti je iskoristio mehaničku maglu rata u igri za finto, navodeći ljude da misle da ide u jednom smeru, dok stvarno ide u drugom. A Metin Pluribus, dizajniran za igranje pokera, bio je u stanju da uspešno blefira ljudske igrače da odustanu.
To izgleda kao mali krompir, i tako je. Ulozi nisu posebno visoki za igru diplomatije protiv gomile kompjuterskog koda. Ali istraživači su primetili i druge primere koji nisu bili tako benigni.
AI sistemi obučeni da izvode simulirane ekonomske pregovore, na primer, naučili su kako da lažu o svojim preferencijama da bi dobili prednost. Drugi sistemi veštačke inteligencije dizajnirani da uče iz povratnih informacija ljudi kako bi poboljšali svoje performanse naučili su da prevare svoje recenzente da ih pozitivno ocene, tako što su lagali o tome da li je zadatak obavljen.
I, da, to su i chatbotovi. ChatGPT-4 je prevario čoveka da pomisli da je chatbot čovek sa oštećenim vidom kako bi dobio pomoć u rešavanju CAPTCHA.
Možda je najzabrinjavajući primer bio AI sistem koji je naučio da vara testove bezbednosti. U testu dizajniranom da otkrije i eliminiše verzije AI koje se brže repliciraju, AI je naučio da glumi mrtav, čime je obmanuo test bezbednosti o stvarnoj stopi replikacije AI.
„Sistematskim varanjem bezbednosnih testova koje su mu nametnuli programeri i regulatori, varljiva veštačka inteligencija može nas ljude dovesti do lažnog osećaja bezbednosti“, kaže Park.
Pošto se u nekim slučajevima čini da je sposobnost prevare u suprotnosti sa namerama ljudskih programera, sposobnost da naučimo da lažemo predstavlja problem za koji nemamo uredno rešenje. Neke politike počinju da se primenjuju, kao što je Zakon Evropske unije o veštačkoj inteligenciji, ali da li će se one pokazati efikasnim ostaje da se vidi.
„Nama kao društvu potrebno je onoliko vremena koliko možemo da dobijemo da se pripremimo za naprednije obmane budućih AI proizvoda i modela otvorenog koda. Kako obmanjujuće mogućnosti sistema AI budu naprednije, opasnosti koje predstavljaju za društvo će postajati sve više ozbiljno“, kaže Park.
„Ako je zabrana AI obmane politički neizvodljiva u ovom trenutku, preporučujemo da se obmanjujući sistemi AI klasifikuju kao visokorizični.
