Kada ljudi razmišljaju o veštačkoj inteligenciji (AI), možda imaju vizije budućnosti. Ali AI je već ovde. U svojoj osnovi, to je rekreacija aspekata ljudske inteligencije u kompjuterizovanom obliku. Kao i ljudska inteligencija, ima široku primenu.
Lični asistenti koji se upravljaju glasom kao što su Siri, automobili koji se sami voze i generatori teksta i slika koriste veštačku inteligenciju. Takođe upravlja našim fidovima na društvenim mrežama. Pomaže kompanijama da otkriju prevare i zaposle zaposlene. Koristi se za upravljanje stokom, povećanje prinosa useva i pomoć u medicinskim dijagnozama.
Pored svoje rastuće moći i potencijala, AI postavlja moralna i etička pitanja. Tehnologija je već bila u centru višestrukih skandala: kršenja zakona i prava, kao i rasne i rodne diskriminacije. Ukratko, dolazi sa nizom etičkih rizika i dilema.
Ali šta su tačno ovi rizici? I po čemu se razlikuju među zemljama? Da bih to saznao, preduzeo sam tematski pregled literature iz bogatijih zemalja kako bih identifikovao šest univerzalnih tema visokog etičkog rizika. Zatim sam intervjuisao stručnjake koji su uključeni ili povezani sa AI industrijom u Južnoj Africi i procenio kako se njihova percepcija rizika od veštačke inteligencije razlikuje od tih tema ili rezonuje sa njima.
Nalazi odražavaju značajne sličnosti u rizicima od veštačke inteligencije između globalnog severa i Južne Afrike kao primera globalne južne nacije. Ali postojale su neke važne razlike. Ovo odražava nejednako društvo u Južnoj Africi i činjenicu da se nalazi na periferiji razvoja, korišćenja i regulacije veštačke inteligencije.
Druge zemlje u razvoju koje dele slične karakteristike – ogroman digitalni jaz, visoka nejednakost i nezaposlenost i nisko kvalitetno obrazovanje – verovatno imaju sličan profil rizika kao u Južnoj Africi.
Poznavanje etičkih rizika koje se mogu pojaviti na nivou zemlje je važno jer može pomoći kreatorima politike i organizacijama da u skladu s tim prilagode svoje politike i prakse upravljanja rizikom.
Šest univerzalnih tema o etičkom riziku koje sam izvukao iz pregleda literature o globalnom severu su:
Odgovornost: Nije jasno ko je odgovoran za rezultate AI modela i sistema.
Pristrasnost: Nedostaci algoritama, podataka ili oba ukorenjena pristrasnost.
Transparentnost: AI sistemi rade kao „crna kutija“. Programeri i krajnji korisnici imaju ograničenu mogućnost razumevanja ili provere rezultata.
Autonomija: Ljudi gube moć da donose sopstvene odluke.
Socio-ekonomski rizici: AI može dovesti do gubitka posla i pogoršanja nejednakosti.
Zlonamjernost: Mogli bi ga koristiti kriminalci, teroristi i represivna državna mašinerija.
Zatim sam intervjuisao 16 stručnjaka koji su uključeni ili povezani sa južnoafričkom industrijom veštačke inteligencije. Oni su uključivali akademike, istraživače, dizajnere proizvoda vezanih za veštačku inteligenciju i ljude koji su se nalazili u ovim kategorijama. Uglavnom, šest tema koje sam već identifikovao rezoniralo je sa njima.
Ali učesnici su takođe identifikovali pet etičkih rizika koji odražavaju karakteristike Južne Afrike na nivou zemlje. To su bili:
Strani podaci i modeli: podaci o padobranstvu i AI modeli sa drugih mesta.
Ograničenja podataka: Nedostatak skupova podataka koji predstavljaju, odražavaju lokalne uslove.
Pogoršanje nejednakosti: AI bi mogla produbiti i učvrstiti postojeće društveno-ekonomske nejednakosti.
Neinformisane zainteresovane strane: Većina javnosti i kreatora politike ima samo grubo razumevanje AI.
Odsustvo politike i propisa: Trenutno ne postoje posebni zakonski zahtevi ili sveobuhvatni vladini stavovi o veštačkoj inteligenciji u Južnoj Africi.
Dakle, šta nam ovi nalazi govore?
Prvo, univerzalni rizici su uglavnom tehnički. Oni su povezani sa karakteristikama AI i imaju tehnička rešenja. Na primer, pristrasnost se može ublažiti preciznijim modelima i sveobuhvatnim skupovima podataka.
Većina rizika specifičnih za Južnu Afriku je više socio-tehnički, manifestujući okruženje u zemlji. Odsustvo politike i propisa, na primer, nije inherentna karakteristika AI. To je simptom da se zemlja nalazi na periferiji razvoja tehnologije i formulisanja srodne politike.
Južnoafričke organizacije i kreatori politike stoga ne bi trebalo da se fokusiraju samo na tehnička rešenja, već i da pažljivo razmotre socio-ekonomske dimenzije AI.
Drugo, nizak nivo svesti među stanovništvom sugeriše da postoji mali pritisak na južnoafričke organizacije da pokažu posvećenost etičkoj veštačkoj inteligenciji. Nasuprot tome, organizacije na globalnom severu moraju da pokažu poznavanje etike veštačke inteligencije, jer su njihove zainteresovane strane više usklađene sa svojim pravima u odnosu na digitalne proizvode i usluge.
Konačno, dok EU, UK i SAD imaju nova pravila i propise u vezi sa veštačkom inteligencijom, Južna Afrika nema propise i ograničene zakone relevantne za veštačku inteligenciju.
Južnoafrička vlada takođe nije uspela da oda mnogo priznanja širem uticaju i etičkim implikacijama veštačke inteligencije. Ovo se razlikuje čak i od drugih tržišta u razvoju kao što su Brazil, Egipat, Indija i Mauricijus, koja imaju nacionalne politike i strategije koje podstiču odgovornu upotrebu veštačke inteligencije.
AI za sada može izgledati daleko od preovlađujućih društveno-ekonomskih izazova Južne Afrike. Ali to će postati sveprisutno u narednim godinama. Južnoafričke organizacije i kreatori politike treba da proaktivno upravljaju etičkim rizicima AI.
Ovo počinje priznavanjem da veštačka inteligencija predstavlja pretnje koje se razlikuju od onih na globalnom severu i kojima treba upravljati. Upravni odbori bi trebalo da dodaju etiku veštačke inteligencije u svoje programe, a kreatori politike i članovi upravnih odbora bi trebalo da se obrazuju o tehnologiji.
Pored toga, etički rizici od veštačke inteligencije trebalo bi da se dodaju korporativnim i vladinim strategijama upravljanja rizicima – slično klimatskim promenama, kojima je pre 15 ili 20 godina bilo malo pažnje, ali su sada istaknute.
Možda najvažnije, vlada bi trebalo da gradi na nedavnom pokretanju Instituta za veštačku inteligenciju u Južnoj Africi i uvede prilagođenu nacionalnu strategiju i odgovarajuću regulativu kako bi se obezbedila etička upotreba veštačke inteligencije.