Lažna pornografija mogla bi biti sve veći problem usred AI trke

Lažna pornografija mogla bi biti sve veći problem usred AI trke

Veštačka inteligencija može da se koristi za kreiranje umetnosti, isprobavanje odeće u virtuelnim svlačionicama ili pomoć u dizajniranju reklamnih kampanja.

Ali stručnjaci strahuju da bi tamnija strana lako dostupnih alata mogla da pogorša nešto što prvenstveno šteti ženama: pornografiju bez pristanka.

Deepfakes su video snimci i slike koje su digitalno kreirane ili izmenjene pomoću veštačke inteligencije ili mašinskog učenja. Pornografija stvorena pomoću ove tehnologije prvi put je počela da se širi internetom pre nekoliko godina kada je korisnik Reddita podelio klipove koji su lica ženskih slavnih ličnosti postavili na ramena porno glumaca.

Od tada, kreatori deepfake-a su širili slične video snimke i slike koji ciljaju na onlajn influensere, novinare i druge sa javnim profilom. Hiljade video snimaka postoje na mnoštvu veb lokacija. A neki nude korisnicima mogućnost da kreiraju sopstvene slike – u suštini omogućavajući svima da pretvaraju koga god žele u seksualne fantazije bez njihovog pristanka, ili da koriste tehnologiju da nanesu štetu bivšim partnerima.

Problem je, kažu stručnjaci, rastao kako je postalo lakše praviti sofisticirane i vizuelno ubedljive deepfake. I kažu da bi se moglo pogoršati razvojem generativnih alata AI koji se obučavaju na milijardama slika sa interneta i izbacuju novi sadržaj koristeći postojeće podatke.

„Realnost je da će tehnologija nastaviti da se širi, da će nastaviti da se razvija i da će nastaviti da postaje nekako jednostavno kao pritiskanje dugmeta“, rekao je Adam Dodž, osnivač EndTAB, grupe koja pruža obuku o zloupotrebi omogućenom tehnologijom. . „I sve dok se to dešava, ljudi će nesumnjivo… nastaviti da zloupotrebljavaju tu tehnologiju da naškode drugima, prvenstveno putem seksualnog nasilja na mreži, lažne pornografije i lažnih golih slika.

Noel Martin iz Perta, Australija, iskusila je tu stvarnost. Ova 28-godišnjakinja je pre 10 godina pronašla lažnu pornografiju o sebi kada je jednog dana iz radoznalosti koristila Gugl da pretraži svoju sliku. Martin do danas kaže da ne zna ko je napravio lažne slike ili video snimke njenog upuštanja u seksualne odnose koje će kasnije pronaći. Ona sumnja da je neko verovatno snimio sliku objavljenu na njenoj stranici na društvenim mrežama ili negde drugde i pretvorio je u pornografiju.

Užasnut, Martin je godinama kontaktirao različite veb stranice u pokušaju da skine slike. Neki nisu odgovorili. Drugi su ga skinuli, ali ona ga je ubrzo ponovo našla.

„Ne možete pobediti“, rekao je Martin. „Ovo je nešto što će uvek biti tamo. Kao da vas je zauvek uništilo.“

Što je više govorila, rekla je, problem je više eskalirao. Neki ljudi su joj čak rekli da je način na koji se oblači i postavlja slike na društvenim mrežama doprineo uznemiravanju – u suštini okrivljujući nju za slike umesto kreatora.

Na kraju, Martin je skrenula pažnju na zakone, zalažući se za nacionalni zakon u Australiji koji bi kaznio kompanije sa 555.000 australijskih dolara (370.706 dolara) ako se ne pridržavaju obaveštenja o uklanjanju takvog sadržaja od regulatora za bezbednost na mreži.

Ali upravljanje internetom je skoro nemoguće kada zemlje imaju svoje zakone za sadržaj koji se ponekad pravi na pola sveta. Martin, trenutno advokat i pravni istraživač na Univerzitetu Zapadne Australije, kaže da veruje da se problem mora kontrolisati kroz neku vrstu globalnog rešenja.

U međuvremenu, neki modeli veštačke inteligencije kažu da već ograničavaju pristup eksplicitnim slikama.

OpenAI kaže da je uklonio eksplicitan sadržaj iz podataka koji se koriste za obuku alata za generisanje slika DALL-E, što ograničava mogućnost korisnika da kreiraju te vrste slika. Kompanija takođe filtrira zahteve i kaže da blokira korisnike da kreiraju AI slike poznatih ličnosti i istaknutih političara. Midjournei, drugi model, blokira upotrebu određenih ključnih reči i podstiče korisnike da moderatorima označe problematične slike.

U međuvremenu, startup Stabiliti AI je u novembru izbacio ažuriranje koje uklanja mogućnost kreiranja eksplicitnih slika pomoću svog generatora slika Stable Diffusion. Te promene su usledile nakon izveštaja da su neki korisnici pomoću tehnologije kreirali golišave slike inspirisane slavnim ličnostima.

Portparol AI za stabilnost, Motez Bišara, rekao je da filter koristi kombinaciju ključnih reči i drugih tehnika kao što je prepoznavanje slika za otkrivanje golotinje i vraća zamućenu sliku. Ali moguće je da korisnici manipulišu softverom i generišu ono što žele pošto kompanija objavljuje svoj kod javnosti. Bišara je rekao da se licenca Stabiliti AI „proširuje na aplikacije trećih strana izgrađene na Stable Diffusion“ i striktno zabranjuje „svaku zloupotrebu u nezakonite ili nemoralne svrhe“.

Neke kompanije društvenih medija takođe su pooštrile svoja pravila kako bi bolje zaštitile svoje platforme od štetnih materijala.

TikTok je prošlog meseca rekao da svi deepfakes ili izmanipulisani sadržaji koji prikazuju realistične scene moraju biti označeni da bi ukazali da su lažni ili izmenjeni na neki način, i da deepfakes privatnih ličnosti i mladih ljudi više nisu dozvoljeni. Ranije je kompanija zabranila seksualno eksplicitan sadržaj i duboke lažne stvari koje obmanjuju gledaoce o događajima u stvarnom svetu i nanose štetu.

Platforma za igre Tvitch je takođe nedavno ažurirala svoje politike u vezi sa eksplicitnim deepfake slikama nakon što je otkriveno da popularni strimer po imenu Atrioc ima otvorenu deepfake porno veb stranicu u svom pretraživaču tokom live strima krajem januara. Sajt je sadržao lažne slike drugih Tvitch strimera.

Tvitch je već zabranio eksplicitne deepfake-e, ali sada pokazujući uvid u takav sadržaj — čak i ako ima za cilj da izrazi gnev — „biće uklonjen i rezultiraće prinudom“, napisala je kompanija u postu na blogu. A namerno promovisanje, kreiranje ili deljenje materijala je osnova za trenutnu zabranu.

Druge kompanije su takođe pokušale da zabrane deepfake sa svojih platformi, ali njihovo zadržavanje zahteva marljivost.

Apple i Google su nedavno rekli da su uklonili aplikaciju iz svojih prodavnica aplikacija koja je prikazivala seksualno sugestivne duboke lažne video snimke glumica kako bi reklamirali proizvod. Istraživanja duboke lažne pornografije nisu preovlađujuća, ali jedan izveštaj koji je 2019. objavila AI firma DeepTrace Labs otkrio je da je gotovo u potpunosti naoružan protiv žena i da su najviše ciljane osobe bile zapadne glumice, a zatim južnokorejske K-pop pevačice.

Ista aplikacija koju su uklonili Gugl i Epl prikazivala je oglase na platformi Mete, koja uključuje Fejsbuk, Instagram i Mesindžer. Portparol kompanije Meta Dani Lever rekao je u saopštenju da politika kompanije ograničava sadržaj za odrasle koji generiše veštačku inteligenciju i sadržaj koji nije napravljen od veštačke inteligencije i da je ograničila oglašavanje stranice aplikacije na njenim platformama.

U februaru, Meta, kao i sajtovi za odrasle, poput OnlyFans i Pornhub, počeli su da učestvuju u onlajn alatu pod nazivom Take It Down, koji omogućava tinejdžerima da prijave eksplicitne slike i video zapise o sebi sa interneta. Sajt za izveštavanje radi za obične slike i sadržaj generisan veštačkom inteligencijom, što je postalo sve veća briga grupa za bezbednost dece.

„Kada ljudi pitaju naše više rukovodstvo za koje smo stene koje se spuštaju niz brdo zbog čega smo zabrinuti? Prvo je enkripcija od kraja do kraja i šta to znači za zaštitu dece. A drugo je veštačka inteligencija i posebno deepfakes“, rekao je Gavin Portnoj, portparol Nacionalnog centra za nestalu i eksploatisanu decu, koji upravlja alatom Take It Down.

„Nismo… još uvek bili u stanju da formulišemo direktan odgovor na to“, rekao je Portnoj.