OpenAI glad za podacima izaziva zabrinutost za privatnost

OpenAI glad za podacima izaziva zabrinutost za privatnost

Prošlog meseca, OpenAI se protivio tek usvojenom kalifornijskom zakonu koji ima za cilj da postavi osnovne bezbednosne standarde za programere velikih modela veštačke inteligencije (AI). Ovo je bila promena stava za kompaniju, čiji je izvršni direktor Sem Altman ranije govorio u prilog regulaciji veštačke inteligencije.

Bivša neprofitna organizacija, koja je postala istaknuta 2022. godine objavljivanjem ChatGPT-a, sada se procenjuje na 150 milijardi dolara. Ostaje na čelu razvoja veštačke inteligencije, sa prošlonedeljnim izdavanjem novog modela „rasuđivanja“ dizajniranog za rešavanje složenijih zadataka.

Kompanija je napravila nekoliko poteza poslednjih meseci što ukazuje na sve veći apetit za prikupljanje podataka. Ovo nije samo tekst ili slike koji se koriste za obuku trenutnih generativnih AI alata, već mogu uključivati i intimne podatke koji se odnose na ponašanje na mreži, lične interakcije i zdravlje.

Nema dokaza da OpenAI planira da spoji ove različite tokove podataka, ali bi to ponudilo snažne komercijalne koristi. Čak i mogućnost pristupa tako širokim informacijama postavlja značajna pitanja o privatnosti i etičkim implikacijama centralizovane kontrole podataka.

Ove godine, OpenAI je potpisao višestruka partnerstva sa medijskim kompanijama, uključujući Time magazin, Financial Times, Akel Springer, Le Monde, Prisa Media, a nedavno i Conde Nast, vlasnika poput Voguea, The Nev Iorker-a, Vaniti Faira i Vireda.

Partnerstva daju OpenAI pristup velikim količinama sadržaja. OpenAI proizvodi se takođe mogu koristiti za analizu ponašanja korisnika i metrike interakcije kao što su navike čitanja, preferencije i obrasci angažovanja na različitim platformama.

Ako bi OpenAI dobio pristup ovim podacima, kompanija bi mogla da stekne sveobuhvatno razumevanje o tome kako se korisnici angažuju sa različitim vrstama sadržaja, koji bi se mogli koristiti za dubinsko profilisanje i praćenje korisnika.

OpenAI je takođe investirao u pokretanje veb kamere pod nazivom Opal. Cilj je da se kamere poboljšaju naprednim AI mogućnostima.

Video snimci prikupljeni veb kamerama sa veštačkom inteligencijom mogli bi da se prevedu na osetljivije biometrijske podatke, kao što su izrazi lica i pretpostavljena psihološka stanja.

U julu su OpenAI i Thrive Global pokrenuli Thrive AI Health. Kompanija kaže da će koristiti veštačku inteligenciju za „hiperpersonalizaciju i skalu promene ponašanja“ u zdravlju.

Iako Thrive AI Health kaže da će imati „robusne ograde za privatnost i sigurnost“, nejasno je kako će to izgledati.

Prethodni zdravstveni projekti sa veštačkom inteligencijom uključivali su obimnu deljenje ličnih podataka, kao što je partnerstvo između Microsoft-a i Providence Health-a u Sjedinjenim Državama i drugog između Google DeepMind-a i Fondacije Roial Free London NHS Foundation u Ujedinjenom Kraljevstvu. U poslednjem slučaju, DeepMind se suočio sa sudskim procesom zbog korišćenja privatnih zdravstvenih podataka.

Altman takođe ulaže u druge poduhvate koji su gladni podataka, posebno u kontroverzni projekat kriptovaluta pod nazivom VorldCoin (koji je suosnivač). VorldCoin ima za cilj stvaranje globalne finansijske mreže i sistema identifikacije koristeći biometrijsku identifikaciju, posebno skeniranje šarenice.

Kompanija tvrdi da je već skenirala očne jabučice više od 6,5 miliona ljudi u skoro 40 zemalja. U međuvremenu, više desetina jurisdikcija je ili suspendovalo njegove operacije ili je pažljivo pregledalo obradu podataka.

Bavarske vlasti trenutno razmatraju da li je Vorldcoin u skladu sa evropskim propisima o privatnosti podataka. Negativna presuda bi mogla da dovede do zabrane poslovanja kompanije u Evropi.

Glavni problemi koji se istražuju uključuju prikupljanje i skladištenje osetljivih biometrijskih podataka.

Postojeći AI modeli kao što je OpenAI-jev vodeći GPT-4o su uglavnom obučeni na javno dostupnim podacima sa interneta. Međutim, budućim modelima će biti potrebno više podataka—i sve je teže doći do njih.

Prošle godine, kompanija je rekla da želi da modeli veštačke inteligencije „duboko razumeju sve teme, industrije, kulture i jezike“, što bi zahtevalo „što je moguće širi skup podataka za obuku“.

U ovom kontekstu, težnja OpenAI-a za medijskim partnerstvima, ulaganja u tehnologije prikupljanja biometrijskih i zdravstvenih podataka i veze izvršnog direktora sa kontroverznim projektima kao što je Vorldcoin, počinju da slikaju zabrinjavajuću sliku.

Dobijanjem pristupa ogromnim količinama korisničkih podataka, OpenAI se pozicionira da izgradi sledeći talas AI modela – ali privatnost može biti žrtva.

Rizici su višestruki. Velike zbirke ličnih podataka su podložne kršenju i zloupotrebi, kao što je povreda podataka Medisecure u kojoj je skoro polovina Australaca ukrala svoje lične i medicinske podatke.

Potencijal za konsolidaciju podataka velikih razmera takođe izaziva zabrinutost u vezi sa profilisanjem i nadzorom. Opet, nema dokaza da OpenAI trenutno planira da se uključi u takve prakse.

Međutim, OpenAI-ove politike privatnosti bile su manje nego savršene u prošlosti. Tehnološke kompanije u širem smislu takođe imaju dugu istoriju upitne prakse podataka.

Nije teško zamisliti scenario u kojem bi centralizovana kontrola nad mnogim vrstama podataka omogućila OpenAI da izvrši značajan uticaj na ljude, kako u ličnom tako iu javnom domenu.

Nedavna istorija OpenAI-a malo pomaže u ublažavanju zabrinutosti za bezbednost i privatnost. U novembru 2023., Altman je privremeno smenjen sa mesta glavnog izvršnog direktora, navodno zbog unutrašnjih sukoba oko strateškog pravca kompanije.

Altman je bio snažan zagovornik brze komercijalizacije i primene AI tehnologija. On je navodno često davao prednost rastu i prodoru na tržište u odnosu na mere bezbednosti.

Altmanovo uklanjanje sa uloge bilo je kratko, nakon čega je usledilo brzo vraćanje na posao i značajna promena upravnog odbora OpenAI-a. Ovo sugeriše da rukovodstvo kompanije sada podržava njegov agresivan pristup primeni AI, uprkos potencijalnim rizicima.

U tom kontekstu, implikacije nedavnog protivljenja OpenAI-a kalifornijskom zakonu sežu dalje od jednog neslaganja o politici. Stav protiv regulacije ukazuje na zabrinjavajući trend.