Četiri godine, Džejkob Hilton je radio za jedan od najuticajnijih startapa u oblasti zaliva — OpenAI. Njegovo istraživanje je pomoglo u testiranju i poboljšanju istinitosti AI modela kao što je ChatGPT. On veruje da veštačka inteligencija može da koristi društvu, ali takođe prepoznaje ozbiljne rizike ako se tehnologija ne kontroliše.
Hilton je bio među 13 sadašnjih i bivših zaposlenih u OpenAI i Google-u koji su ovog meseca potpisali otvoreno pismo u kojem su pozvali na veću zaštitu uzbunjivača, navodeći široke sporazume o poverljivosti kao problematične.
„Osnovna situacija je da zaposleni, ljudi koji su najbliži tehnologiji, oni su i oni koji najviše gube od osvete zbog toga što su govorili“, kaže Hilton, 33, sada istraživač u neprofitnom istraživačkom centru za Alignment, koji živi u Berkliju u Kaliforniji.
Kalifornijski zakonodavci žure da reše takve probleme kroz otprilike 50 zakona koji se odnose na veštačku inteligenciju, od kojih mnogi imaju za cilj postavljanje zaštitnih mehanizama oko tehnologije koja se brzo razvija, za koju zakonodavci kažu da bi mogla da nanese štetu društvu.
Međutim, grupe koje predstavljaju velike tehnološke kompanije tvrde da bi predloženi zakon mogao da uguši inovacije i kreativnost, uzrokujući da Kalifornija izgubi svoju konkurentsku prednost i dramatično promeni način na koji se AI razvija u državi.
Efekti veštačke inteligencije na zapošljavanje, društvo i kulturu su široki, a to se ogleda u broju predloga zakona koji kruže u zakonodavnom telu. Oni pokrivaju niz strahova u vezi sa veštačkom inteligencijom, uključujući zamenu posla, bezbednost podataka i rasnu diskriminaciju.
Jedan od zakona, čiji su sponzori Teamsters, ima za cilj da naloži ljudski nadzor nad teškim kamionima bez vozača. Predlog zakona koji podržava Međunarodna unija službenika pokušava da zabrani automatizaciju ili zamenu poslova sistemima veštačke inteligencije u pozivnim centrima koji pružaju usluge javne koristi, kao što je Medi-Cal. Drugi zakon, koji je napisao senator Skot Viner, D-San Francisko, zahtevao bi od kompanija koje razvijaju velike AI modele da urade bezbednosno testiranje.
Mnoštvo zakona dolazi nakon što su političari kritikovani da nisu dovoljno oštro obračunali kompanije društvenih medija dok nije bilo prekasno. Tokom Bajdenove administracije, savezne i državne demokrate postale su agresivnije u pokušaju da se jure za velikim tehnološkim firmama.
„Videli smo kod drugih tehnologija da ništa ne radimo sve dok ne dođe do velikog problema“, rekao je Viener. „Društveni mediji su doprineli mnogo dobrih stvari društvu… ali znamo da je bilo značajnih nedostataka društvenih medija, i nismo uradili ništa da smanjimo ili ublažimo te štete. A sada igramo nadoknađivanje. Više volim da ne da igram nadoknadu“.
Potisak dolazi kako AI alati brzo napreduju. Čitaju deci priče za laku noć, razvrstavaju porudžbine na mestima brze hrane i pomažu u snimanju muzičkih spotova. Dok su neki tehnološki entuzijasti oduševljeni potencijalnim prednostima veštačke inteligencije, drugi se plaše gubitka posla i bezbednosnih problema.
„Skoro sve je iznenadilo, uključujući mnoge stručnjake, koliko brzo (tehnologija) napreduje“, rekao je Dan Hendriks, direktor neprofitnog Centra za AI bezbednost sa sedištem u San Francisku. „Ako samo odložimo i ne uradimo ništa nekoliko godina, onda ćemo možda čekati dok ne bude prekasno.
Vinerov zakon, SB1047, koji podržava Centar za bezbednost veštačke inteligencije, poziva kompanije koje prave velike AI modele da sprovedu bezbednosno testiranje i da imaju mogućnost da isključe modele koje direktno kontrolišu.