OpenAI je u petak otkrio alatku za kloniranje glasa koju planira da drži pod strogom kontrolom dok se ne uspostave zaštitne mere za sprečavanje lažnih audio snimaka namenjenih zavaravanju slušalaca.
Model koji se zove „Voice Engine“ može u suštini da duplira nečiji govor na osnovu audio uzorka od 15 sekundi, navodi se u postu na OpenAI blogu koji deli rezultate malog testa alata.
„Shvatamo da stvaranje govora koji liči na glasove ljudi nosi ozbiljne rizike, koji su posebno na prvom mestu u izbornoj godini“, saopštila je kompanija sa sedištem u San Francisku.
„Sarađujemo sa američkim i međunarodnim partnerima iz različitih vlada, medija, zabave, obrazovanja, civilnog društva i šire kako bismo osigurali da ugradimo njihove povratne informacije dok gradimo.
Istraživači dezinformacija strahuju od masovne zloupotrebe aplikacija koje pokreće veštačka inteligencija u ključnoj izbornoj godini zahvaljujući rastućim alatima za kloniranje glasa, koji su jeftini, laki za upotrebu i teško ih je ući u trag.
Priznajući ove probleme, OpenAI je rekao da „preduzima oprezan i informisan pristup širem izdanju zbog potencijala za zloupotrebu sintetičkog glasa“.
Oprezno otkrivanje usledilo je nekoliko meseci nakon što je politički konsultant koji je radio za dugotrajnu predsedničku kampanju demokratskog rivala Džoa Bajdena priznao da stoji iza robotskog poziva u kome se lažno predstavlja američki lider.
Poziv generisan veštačkom inteligencijom, zamisao operativca kongresmena Minesote Dina Filipsa, sadržao je nešto što je zvučalo kao Bajdenov glas koji poziva ljude da ne glasaju na januarskim predizborima u Nju Hempširu.
Incident je izazvao uzbunu među stručnjacima koji strahuju od poplave lažnih dezinformacija koje pokreće veštačka inteligencija u trci za Belu kuću 2024. kao i na drugim ključnim izborima širom sveta ove godine.
OpenAI je rekao da su se partneri koji su testirali Voice Engine složili sa pravilima uključujući zahtevanje izričitog i informisanog pristanka svake osobe čiji je glas dupliran pomoću alata.
Takođe, publici mora biti jasno kada se glasovi koje čuju generišu veštačkom inteligencijom, dodala je kompanija.
„Sproveli smo skup bezbednosnih mera, uključujući vodeni žig da bismo pratili poreklo bilo kog zvuka koji generiše Voice Engine, kao i proaktivno praćenje načina na koji se koristi“, rekao je OpenAI.