Da bi ispitao globalno stanje etike veštačke inteligencije, tim istraživača iz Brazila je izvršio sistematski pregled i meta-analizu globalnih smernica za upotrebu veštačke inteligencije. Objavljujući 13. oktobra u časopisu Patterns, istraživači su otkrili da, dok većina smernica vrednuje privatnost, transparentnost i odgovornost, vrlo malo njih vrednuje istinitost, intelektualnu svojinu ili prava deteta. Pored toga, većina smernica opisuje etičke principe i vrednosti bez predlaganja praktičnih metoda za njihovu primenu i bez pritiska na pravno obavezujuću regulativu.
„Uspostavljanje jasnih etičkih smernica i struktura upravljanja za primenu veštačke inteligencije širom sveta je prvi korak ka promovisanju poverenja, ublažavanju rizika i obezbeđivanju da se njegove koristi pravedno raspodeljuju“, kaže društveni naučnik i koautor Džejms Vilijam Santos sa Papskog katoličkog univerziteta Rio Grande do Sul.
„Prethodni rad se uglavnom fokusirao na severnoameričke i evropske dokumente, što nas je podstaklo da aktivno tražimo i uključujemo perspektive iz regiona kao što su Azija, Latinska Amerika, Afrika i šire“, kaže glavni autor Nikolas Kluge Korea sa Papskog katoličkog univerziteta Rio Grande do Sul i Univerziteta u Bonu.
Da bi utvrdili da li postoji globalni konsenzus u vezi sa etičkim razvojem i upotrebom veštačke inteligencije i da bi pomogli u vođenju takvog konsenzusa, istraživači su sproveli sistematski pregled politike i etičkih smernica objavljenih između 2014. i 2022.
Iz ovoga su identifikovali 200 dokumenata koji se odnose na etiku i upravljanje veštačkom inteligencijom iz 37 zemalja i šest kontinenata i napisani ili prevedeni na pet različitih jezika (engleski, portugalski, francuski, nemački i španski). Ovi dokumenti su uključivali preporuke, praktične vodiče, okvire politike, pravne orijentire i kodekse ponašanja.
Zatim je tim sproveo meta-analizu ovih dokumenata kako bi identifikovao najčešće etičke principe, ispitao njihovu globalnu distribuciju i procenio pristrasnosti u smislu vrste organizacija ili ljudi koji proizvode ove dokumente.
Istraživači su otkrili da su najčešći principi transparentnost, bezbednost, pravda, privatnost i odgovornost, koji se pojavljuju u 82,5%, 78%, 75,5%, 68,5% i 67% dokumenata, respektivno.
Najmanje uobičajeni principi su radnička prava, istinitost, intelektualna svojina i prava dece/adolescenata, koji se pojavljuju u 19,5%, 8,5%, 7% i 6% dokumenata, a autori ističu da ovi principi zaslužuju veću pažnju. Na primer, istinitost — ideja da AI treba da pruži istinite informacije — postaje sve relevantnija sa izdavanjem generativnih AI tehnologija kao što je ChatGPT. A pošto AI ima potencijal da raseli radnike i promeni način na koji radimo, praktične mere su da se izbegne masovna nezaposlenost ili monopoli.
Većina (96%) smernica su bile „normativne“—opisujući etičke vrednosti koje treba uzeti u obzir tokom razvoja i upotrebe veštačke inteligencije—dok je samo 2% preporučilo praktične metode implementacije AI etike, a samo 4,5% je predložilo pravno obavezujuće oblike regulacije AI.
„Uglavnom se radi o dobrovoljnim obavezama koje govore „ovo su neki principi koje smatramo važnim“, ali im nedostaje praktična primena i pravni zahtevi“, kaže Santos. „Ako pokušavate da izgradite AI sisteme ili ako koristite AI sisteme u svom preduzeću, morate da poštujete stvari kao što su privatnost i korisnička prava, ali način na koji to radite je siva zona koja se ne pojavljuje u ovim smernicama. “
Istraživači su takođe identifikovali nekoliko predrasuda u pogledu toga gde su ove smernice proizvedene i ko ih je proizveo. Istraživači su primetili rodni disparitet u pogledu autorstva. Iako 66% uzoraka nije imalo podatke o autorstvu, autori preostalih dokumenata češće su imali muška imena (549 = 66% muških, 281 = 34% ženskih).
Geografski, većina smernica dolazi iz zemalja Zapadne Evrope (31,5%), Severne Amerike (34,5%) i Azije (11,5%), dok je manje od 4,5% dokumenata nastalo iz Južne Amerike, Afrike i Okeanije zajedno. Neke od ovih neravnoteža u distribuciji mogu biti posledica jezika i ograničenja javnog pristupa, ali tim kaže da ovi rezultati sugerišu da su mnogi delovi globalnog juga nedovoljno zastupljeni u globalnom diskursu o etici veštačke inteligencije.
U nekim slučajevima, ovo uključuje zemlje koje su u velikoj meri uključene u istraživanje i razvoj veštačke inteligencije, kao što je Kina, čiji se učinak istraživanja u vezi sa veštačkom inteligencijom povećao za preko 120% između 2016. i 2019.
„Naše istraživanje pokazuje i pojačava naš poziv da se globalni jug probudi i molbu globalnom severu da bude spreman da nas sasluša i poželi dobrodošlicu“, kaže koautor Kamila Galvao sa Papskog katoličkog univerziteta Rio Grande do Sul. „Ne smemo zaboraviti da živimo u pluralnom, nejednakom i raznolikom svetu. Moramo da se setimo glasova koji do sada nisu imali priliku da tvrde svoje preferencije, objasne svoje kontekste i možda nam kažu nešto što mi još uvek ne znam.“
Osim što će uključiti više glasova, istraživači kažu da bi se budući napori trebali fokusirati na to kako praktično implementirati principe etike AI. „Sledeći korak je izgradnja mosta između apstraktnih principa etike i praktičnog razvoja AI sistema i aplikacija“, kaže Santos.