Brzi razvoj veštačke inteligencije (AI) donosi i mnoge prednosti, ali i značajne rizike. Jedan od zabrinjavajućih trendova je zloupotreba kloniranja glasa, tehnologije koja omogućava prevarantima da u veoma kratkom vremenu repliciraju glasove i prevare ljude da veruju da je prijatelju ili članu porodice hitno potreban novac. Ove vrste prevara postaju sve prisutnije, sa potencijalom da utiču na milione ljudi širom sveta.
Kloniranje glasa je vrsta deepfake tehnologije koja omogućava kreiranje digitalnih replika nečijeg glasa analizom njihovih govornih obrazaca, akcenta i disanja iz samo nekoliko sekundi audio uzorka. U nekim slučajevima, prevaranti mogu klonirati glas koristeći samo tri sekunde snimka. Kada se govori o kloniranju, kraće fraze poput „zdravo, ima li nekoga?“ mogu biti dovoljno da započnu prevaru, dok duži razgovori omogućavaju prevarantima da uhvate više vokalnih detalja.
Iako kloniranje glasa ima svoje dragocene primene u industrijama poput zabave i zdravstvene zaštite, izaziva ozbiljnu zabrinutost u pogledu privatnosti i bezbednosti. Sajber kriminalci često koriste ovu tehnologiju da se lažno predstavljaju kao poznate ličnosti, vlasti ili obični ljudi kako bi prevarili žrtve.
Prevaranti često koriste hitnost kako bi stekli poverenje žrtava i traže novac putem poklon kartica, bankovnih transfera ili kriptovaluta. Proces obično počinje prikupljanjem audio uzoraka iz javno dostupnih izvora kao što su YouTube i TikTok, a zatim se koristi AI za generisanje novih snimaka. Jedan od poznatih slučajeva uključuje kloniranje glasa direktora kompanije u Ujedinjenim Arapskim Emiratima, što je dovelo do pljačke od 51 milion dolara.
U Australiji, prevaranti su koristili klonirani glas premijera Kvinslenda, Stivena Majlsa, da bi pokušali da prevare ljude da ulažu u Bitcoin. Takođe, deca su takođe postala meta; u jednom slučaju, glas tinejdžerke je kloniran kako bi se njeni roditelji manipulirali da ispune zahteve za otkupninu.
Nedavna istraživanja pokazuju da se 28% odraslih u Ujedinjenom Kraljevstvu suočilo sa prevarama u kloniranju glasa, a 46% nije znalo da takve prevare postoje. U Australiji, skoro 240.000 ljudi je prijavilo da su postali žrtve ovakvih prevara, uz gubitak od 568 miliona dolara.
Rizici koje predstavlja kloniranje glasa zahtevaju sveobuhvatan pristup zaštiti. Kampanje za podizanje svesti i edukacija o ovom problemu su ključne. Takođe, korišćenje biometrijske sigurnosti sa detekcijom živosti može pomoći u razlikovanju stvarnog glasa od kloniranog. Višefaktorska autentifikacija može dodatno povećati sigurnost.
Organi za sprovođenje zakona takođe igraju ključnu ulogu u jačanju istražnih kapaciteta protiv kloniranja glasa, a neophodni su i tačni, ažurirani propisi koji će regulisati ovu oblast. Australijski zakoni sada uključuju nove obaveze za sprečavanje, otkrivanje i prijavljivanje prevara, usmerene prema organizacijama kao što su banke i telekomunikacije.
Kako se veštačka inteligencija i njene primene šire, tako raste i potreba za proaktivnim merama zaštite. Ljudi, organizacije i vlade moraju ostati na oprezu i raditi zajedno na podizanju svesti o rizicima koje donosi kloniranje glasa i druge sajber prevare. Samo tako možemo smanjiti rizik od viktimizacije i zaštititi naše lične podatke i finansije.