SAD: Najambiciozniji pokušaj kontrole veštačke inteligencije do sada

SAD: Najambiciozniji pokušaj kontrole veštačke inteligencije do sada

U ponedeljak je američki predsednik Džo Bajden objavio široku i ambicioznu izvršnu naredbu o veštačkoj inteligenciji (AI) – katapultirajući SAD na čelo razgovora o regulisanju veštačke inteligencije.

Čineći to, SAD preskaču druge države u trci da vladaju veštačkom inteligencijom. Evropa je prethodno prednjačila svojim Zakonom o veštačkoj inteligenciji, koji je Evropski parlament usvojio u junu 2023., ali koji će u potpunosti stupiti na snagu 2025. godine.

Predsednička izvršna naredba je skup inicijativa za regulisanje veštačke inteligencije – od kojih su neke dobre, a druge koje deluju prilično polovično. Cilj mu je da se pozabavi štetama u rasponu od trenutnih, kao što su AI generisane deepfakes, preko srednjih šteta, kao što je gubitak posla, do dugoročnih šteta kao što je toliko sporna egzistencijalna pretnja koju veštačka inteligencija može da predstavlja za ljude.

Američki Kongres je sporo doneo značajnu regulativu velikih tehnoloških kompanija. Ova predsednička izvršna naredba je verovatno i pokušaj da se zaobiđe Kongres koji je često u ćorsokaku, kao i da se pokrene akcija. Na primer, naredba poziva Kongres da donese dvopartijski zakon o privatnosti podataka.

Izvršna naredba će se navodno sprovoditi u naredna tri meseca do godinu dana. Pokriva osam oblasti:

  1. Sigurnosni i sigurnosni standardi za AI
  2. Zaštita privatnosti
  3. Pravosuđe i građanska prava
  4. Prava potrošača
  5. Poslovi
  6. Inovacije i konkurencija
  7. Međunarodno vođstvo
  8. AI upravljanje.

S jedne strane, naredba pokriva mnoge brige akademika i javnosti. Na primer, jedna od njegovih direktiva je izdavanje zvaničnih uputstava o tome kako sadržaj generisan veštačkom inteligencijom može biti označen vodenim žigom da bi se smanjio rizik od dubokog lažiranja.

Takođe zahteva od kompanija koje razvijaju AI modele da dokažu da su bezbedni pre nego što mogu da budu predstavljeni za širu upotrebu. Predsednik Bajden je rekao:

to znači da kompanije moraju da kažu vladi o velikim sistemima veštačke inteligencije koje razvijaju i da podele rigorozne nezavisne rezultate testova kako bi dokazali da ne predstavljaju rizik za nacionalnu bezbednost ili bezbednost za američki narod.

Istovremeno, naredba ne rešava niz hitnih pitanja. Na primer, ne govori se direktno o tome kako se nositi sa robotima veštačke inteligencije ubice, što je uznemirujuća tema o kojoj se raspravljalo u poslednje dve nedelje na Generalnoj skupštini Ujedinjenih nacija.

Ovu zabrinutost ne treba zanemariti. Pentagon razvija niz jeftinih autonomnih dronova u okviru svog nedavno najavljenog programa Replicator. Slično tome, Ukrajina je razvila domaće dronove za napade sa veštačkom inteligencijom koji mogu da identifikuju i napadaju ruske snage bez ljudske intervencije.

Možemo li završiti u svetu u kome mašine odlučuju ko živi ili umire? Izvršna naredba samo traži od vojske da etički koristi veštačku inteligenciju, ali ne propisuje šta to znači.

A šta je sa zaštitom izbora od oružja masovnog ubeđivanja koje pokreće veštačka inteligencija? Brojni mediji su izvestili o tome kako su na nedavne izbore u Slovačkoj možda uticali deepfakes. Mnogi stručnjaci, uključujući i mene, takođe su zabrinuti zbog zloupotrebe veštačke inteligencije na predstojećim predsedničkim izborima u SAD.

Ukoliko se ne sprovedu stroge kontrole, rizikujemo da živimo u dobu u kome se ničemu što vidite ili čujete na mreži ne može verovati. Ako ovo zvuči kao preterivanje, uzmite u obzir da je američka republikanska partija već objavila reklamu za kampanju koja izgleda u potpunosti generisana od strane veštačke inteligencije.

Mnoge inicijative u izvršnoj naredbi bi mogle i trebale da se repliciraju na drugim mestima, uključujući Australiju. I mi bi trebalo da, kako naredba zahteva, damo uputstva vlasnicima, vladinim programima i vladinim izvođačima o tome kako da osiguramo da se algoritmi veštačke inteligencije ne koriste za diskriminaciju pojedinaca.

Takođe bismo, kako to nalog zahteva, trebalo da se pozabavimo algoritamskom diskriminacijom u sistemu krivičnog pravosuđa gde se veštačka inteligencija sve više koristi u okruženjima sa visokim ulozima, uključujući izricanje kazne, uslovni otpust i uslovni otpust, pretpretresno puštanje i pritvor, procenu rizika, nadzor i policiju sa predviđanjem , da pomenemo samo neke.

AI je kontroverzno korišćen za takve aplikacije iu Australiji, kao što je Plan upravljanja sumnjivim ciljanjem koji se koristi za praćenje mladih u Novom Južnom Velsu.

Možda je najkontroverzniji aspekt izvršnog naloga onaj koji se bavi potencijalnom štetom najmoćnijih takozvanih „graničnih“ AI modela. Neki stručnjaci veruju da ovi modeli – koje razvijaju kompanije kao što su Open AI, Google i Anthropic – predstavljaju egzistencijalnu pretnju čovečanstvu.

Drugi, uključujući mene, veruju da su takve brige prenaglašene i da bi mogle da odvrate pažnju od neposrednijih šteta, kao što su dezinformacije i nejednakost, koje već nanose štetu društvu.

Bajdenova naredba poziva se na vanredna ratna ovlašćenja (posebno na Zakon o odbrambenoj proizvodnji iz 1950. uveden tokom korejskog rata) da se od kompanija zahteva da obaveste saveznu vladu kada obučavaju takve granične modele. Takođe zahteva da dele rezultate bezbednosnih testova „crvenog tima“, u kojima interni hakeri koriste napade da ispitaju softver za greške i ranjivosti.

Rekao bih da će biti teško, a možda i nemoguće, nadgledati razvoj graničnih modela. Gore navedene direktive neće sprečiti kompanije da razvijaju takve modele u inostranstvu, gde američka vlada ima ograničenu moć. Zajednica otvorenog koda takođe može da ih razvija na distribuiran način – koji čini svet tehnologije „bez granica“.

Uticaj izvršne naredbe će verovatno imati najveći uticaj na samu vladu i način na koji ona koristi veštačku inteligenciju, a ne na preduzeća.

Ipak, to je dobrodošla akcija. Samit o AI bezbednosti premijera Velike Britanije Rišija Sunaka, koji se održava u naredna dva dana, sada izgleda kao fest diplomatskog razgovora u poređenju sa njim.