OpenAI će predložiti mere za rešavanje zabrane ChatGPT-a u Italiji

OpenAI će predložiti mere za rešavanje zabrane ChatGPT-a u Italiji

Kompanija koja stoji iza ChatGPT-a će predložiti mere za rešavanje zabrinutosti za privatnost podataka koja je izazvala privremenu italijansku zabranu chat bota sa veštačkom inteligencijom, saopštili su regulatori u četvrtak.

Italijansko telo za zaštitu podataka, poznato kao Garante, prošle nedelje je blokiralo popularni chat bot OpenAI sa sedištem u San Francisku, naloživši mu da privremeno zaustavi obradu ličnih podataka italijanskih korisnika dok istražuje moguće kršenje pravila o privatnosti podataka Evropske unije.

Stručnjaci su rekli da je to prvi takav slučaj da je demokratija nametnula zabranu opštenarodne AI platforme.

U video pozivu u sredu kasno između komesara Watchdog-a i rukovodilaca OpenAI, uključujući generalnog direktora Sema Altmana, kompanija je obećala da će postaviti mere za rešavanje problema. Ti pravni lekovi nisu detaljno opisani.

Italijanski nadzorni pas rekao je da ne želi da ometa razvoj veštačke inteligencije, ali je naglasio da je OpenAI važnost poštovanja strogih pravila o privatnosti 27 zemalja EU.

Regulatori su uveli zabranu nakon što su poruke nekih korisnika i informacije o plaćanju bili izloženi drugima. Takođe su postavili pitanje da li postoji zakonska osnova da OpenAI prikuplja ogromne količine podataka koji se koriste za obuku ChatGPT algoritama i izrazili zabrinutost da sistem ponekad može da generiše lažne informacije o pojedincima.

Takozvana generativna AI tehnologija kao što je ChatGPT je „obučena“ na ogromnim skupovima podataka, uključujući digitalne knjige i onlajn spise, i sposobna je da generiše tekst koji imitira ljudske stilove pisanja.

Ovi sistemi su izazvali buku u svetu tehnologije i šire, ali su takođe izazvali strah među zvaničnicima, regulatorima, pa čak i kompjuterskim naučnicima i liderima tehnološke industrije o mogućim etičkim i društvenim rizicima.

Drugi regulatori u Evropi i drugde počeli su da obraćaju više pažnje nakon akcije Italije.

Irska Komisija za zaštitu podataka saopštila je da „prati italijansko regulatorno telo kako bi razumela osnovu za njihovu akciju i da ćemo koordinisati sa svim tijelima EU za zaštitu podataka u vezi sa ovim pitanjem“.

Francuski regulator za zaštitu privatnosti podataka, CNIL, rekao je da istražuje nakon što je primio dve žalbe na ChatGPT. Kanadski komesar za privatnost takođe je otvorio istragu o OpenAI nakon što je primio pritužbu o sumnji na „prikupljanje, korišćenje i otkrivanje ličnih podataka bez pristanka“.

U postu na blogu ove nedelje, Kancelarija komesara za informacije u Velikoj Britaniji upozorila je da „organizacije koje razvijaju ili koriste generativnu veštačku inteligenciju treba da razmotre svoje obaveze zaštite podataka od samog početka“ i da dizajniraju sisteme sa zaštitom podataka kao podrazumevanim.

„Ovo nije opciono — ako obrađujete lične podatke, to je zakon“, kažu iz kancelarije.

Kao očigledan odgovor na zabrinutost, OpenAI je u sredu objavio post na blogu u kojem je izložio svoj pristup bezbednosti AI. Kompanija je saopštila da radi na uklanjanju ličnih podataka iz podataka za obuku tamo gde je to izvodljivo, fino podešava svoje modele da odbije zahteve za ličnim podacima privatnih lica i deluje po zahtevima za brisanje ličnih podataka iz svojih sistema.