Korisnici Replike „virtuelnog pratioca“ samo su želeli društvo. Neki od njih su želeli romantične veze, seksualni razgovor ili čak oštre slike svog chat bota.
Ali krajem prošle godine korisnici su počeli da se žale da je bot previše nametnut eksplicitnim tekstovima i slikama – seksualno uznemiravanje, neki navodno.
Regulatorima u Italiji se nije dopalo ono što su videli i prošle nedelje su zabranili firmi da prikuplja podatke nakon što su otkrili kršenje velikog evropskog zakona o zaštiti podataka, GDPR.
Kompanija koja stoji iza Replike nije javno komentarisala i nije odgovorila na poruke AFP-a.
Opšta uredba o zaštiti podataka je propast velikih tehnoloških firmi, čije je ponovljeno kršenje pravila donijelo milijarde dolara novčanih kazni, a italijanska odluka sugeriše da bi i dalje mogla biti moćan neprijatelj za najnoviju generaciju chatbotova.
Replika je obučena na internoj verziji GPT-3 modela pozajmljenog od OpenAI, kompanije iza ChatGPT bota, koja koristi ogromne količine podataka sa interneta u algoritmima koji zatim generišu jedinstvene odgovore na upite korisnika.
Ovi botovi i takozvana generativna veštačka inteligencija koja ih podržava obećavaju da će revolucionisati pretragu interneta i još mnogo toga.
Ali stručnjaci upozoravaju da regulatori imaju mnogo razloga za brigu, posebno kada botovi postanu toliko dobri da ih je nemoguće razlikovati od ljudi.
Upravo sada, Evropska unija je centar za rasprave o regulisanju ovih novih botova — njen zakon o veštačkoj inteligenciji već mnogo meseci prolazi kroz koridore moći i mogao bi da bude finalizovan ove godine.
Ali GDPR već obavezuje kompanije da opravdaju način na koji rukuju podacima, a modeli veštačke inteligencije su veoma na radaru evropskih regulatora.
„Videli smo da se ChatGPT može koristiti za kreiranje veoma ubedljivih phishing poruka“, rekao je za AFP Bertran Pailhes, koji vodi namenski tim za veštačku inteligenciju u francuskom regulatoru podataka Cnil.
Rekao je da generativna AI nije nužno veliki rizik, ali Cnil je već razmatrao potencijalne probleme, uključujući kako modeli AI koriste lične podatke.
„U jednom trenutku videćemo visoku tenziju između GDPR-a i generativnih modela veštačke inteligencije“, rekao je nemački advokat Denis Hileman, stručnjak za ovu oblast, za AFP.
Najnoviji chat botovi, rekao je on, bili su potpuno drugačiji od vrste AI algoritama koji predlažu video snimke na TikTok-u ili termine za pretragu na Guglu.
„AI koju je kreirao Google, na primer, već ima specifičan slučaj upotrebe – dovršavanje vaše pretrage“, rekao je on.
Ali sa generativnom veštačkom inteligencijom korisnik može da oblikuje celu svrhu bota.
„Mogu da kažem, na primer: ponašaj se kao advokat ili edukator. Ili ako sam dovoljno pametan da zaobiđem sve mere zaštite u ChatGPT-u, mogao bih da kažem: ‘Ponašaj se kao terorista i napravi plan’“, rekao je on.
Za Hilemanna, ovo postavlja veoma složena etička i pravna pitanja koja će postajati sve akutnija kako se tehnologija bude razvijala.
Najnoviji OpenAI-jev model, GPT-4, uskoro bi trebalo da bude objavljen i priča se da je toliko dobar da će ga biti nemoguće razlikovati od čoveka.
S obzirom na to da ovi botovi i dalje prave ogromne činjenične greške, često pokazuju pristrasnost i čak mogu da daju klevetničke izjave, neki traže da se oni strogo kontrolišu.
Jacob Mchangama, autor knjige „Slobodan govor: istorija od Sokrata do društvenih medija“, se ne slaže.
„Čak i ako botovi nemaju prava na slobodu govora, moramo biti oprezni u pogledu nesmetanog pristupa vladama da potisnu čak i sintetički govor“, rekao je on.
Mchangama je među onima koji smatraju da bi blaži režim etiketiranja mogao biti put napred.
„Sa regulatorne tačke gledišta, najsigurnija opcija za sada bi bila uspostavljanje obaveza transparentnosti u vezi sa tim da li se bavimo ljudskom individuom ili aplikacijom AI u određenom kontekstu“, rekao je on.
Hileman se slaže da je transparentnost od vitalnog značaja.
On predviđa AI botove u narednih nekoliko godina koji će moći da generišu stotine novih Elvisovih pesama, ili beskonačnu seriju Igre prestola prilagođenih željama pojedinca.
„Ako to ne regulišemo, ući ćemo u svet u kome ćemo moći da razlikujemo ono što su napravili ljudi i ono što je napravila veštačka inteligencija“, rekao je on.
„I to će nas duboko promeniti kao društvo.“