Odgovornost i  veštačka inteligencija

Odgovornost i veštačka inteligencija

Veštačka inteligencija (AI) je trenutno veoma popularna. ChatGPT, DALL-E i druge platforme vođene veštačkom inteligencijom pružaju nam potpuno nove načine rada. Generativna AI stvara sve, od propratnih pisama do strategija kampanje i stvara impresivne slike od nule.

Na stranu smešne slike, međunarodni regulatori, svetski lideri, istraživači i tehnološka industrija postavljaju prava pitanja o rizicima koje predstavlja veštačka inteligencija.

AI pokreće velika etička pitanja, delimično zato što su ljudi pristrasna stvorenja. Ova pristrasnost se može pojačati kada treniramo AI. Loše izvori ili vođeni podaci kojima nedostaje različita zastupljenost mogu dovesti do aktivne AI diskriminacije. Videli smo pristrasnost u policijskim sistemima za prepoznavanje lica, koji mogu pogrešno identifikovati obojene osobe, ili u procenama stambenih kredita koje nesrazmerno odbijaju određene manjinske grupe. Ovo su primeri stvarne štete od veštačke inteligencije, gde odgovarajuće provere i ravnoteže veštačke inteligencije nisu procenjene pre lansiranja.

Dezinformacije koje generiše veštačka inteligencija, kao što su halucinacije i duboke lažne stvari, takođe su na prvom mestu za vlade, svetske lidere i korisnike tehnologije. Niko ne želi da se njegovo lice ili glas imitiraju na mreži. Veliko pitanje je: kako možemo iskoristiti AI za dobro, a da istovremeno sprečimo štetu?

Liming Zhu i Kinghua Lu su lideri u proučavanju odgovorne veštačke inteligencije u CSIRO-u i koautori knjige „Odgovorna AI: Najbolje prakse za stvaranje pouzdanih AI sistema“. Oni definišu odgovornu veštačku inteligenciju kao praksu razvoja i korišćenja AI sistema na način koji pruža koristi pojedincima, grupama i širem društvu, dok se rizik od negativnih posledica minimizira.

U konsultaciji sa zajednicama, vladom i industrijom, naši istraživači su razvili osam dobrovoljnih etičkih principa AI. Oni su namenjeni da pomognu programerima i organizacijama da kreiraju i primene veštačku inteligenciju koja je sigurna, bezbedna i pouzdana.

Ovaj princip objašnjava da tokom svog životnog ciklusa sistemi veštačke inteligencije treba da budu od koristi pojedincima, društvu i životnoj sredini. Od upotrebe veštačke inteligencije za poboljšanje dijagnoze rendgenskih snimaka grudnog koša, do alata za otkrivanje smeća od veštačke inteligencije za zaštitu naših plovnih puteva — postoji mnogo primera veštačke inteligencije zauvek. Da bi sprečili štetu, programeri veštačke inteligencije moraju da razmisle o potencijalnim uticajima svoje tehnologije – pozitivnim i negativnim – kako bi im se mogli dati prioriteti i njima se upravlja.

Sistemi veštačke inteligencije treba da poštuju ljudska prava, različitost i autonomiju pojedinaca. Ovo stvara transparentne i objašnjive AI sisteme ugrađene u ljudske vrednosti. Naši istraživači su otkrili da je ovo vredno truda za kompanije: negativne kritike su povezane sa ignorisanim ljudskim vrednostima kao što su uživanje u životu ili poslušnost za korisnike Amazonovog Aleka-a.

Ali to nije uvek lako, pošto različite grupe korisnika imaju različite potrebe. Uzmite Microsoft-ov Seeing AI, koji koristi kompjuterski vid da pomogne ljudima sa oštećenjem vida. Prema izveštaju kompanije, najtraženija karakteristika ove grupe korisnika bila je mogućnost prepoznavanja ljudi na javnim mestima. Zbog principa privatnosti, ova funkcija je odbijena.

Sistemi veštačke inteligencije treba da budu inkluzivni i dostupni. Njihova upotreba ne bi trebalo da uključuje ili rezultira nepravednom diskriminacijom pojedinaca, zajednica ili grupa. Amazonova tehnologija za prepoznavanje lica kritikovana je zbog svog potencijala da se koristi za masovno praćenje, rasno profilisanje i za manje precizno identifikovanje obojenih i žena nego belaca. Treba uzeti u obzir društveni uticaj AI. Ulaz i smernice treba tražiti od zajednica na koje će veštačka inteligencija uticati pre nego što potencijalno kontroverzna tehnologija postane stvarnost.

Sistemi veštačke inteligencije treba da poštuju i podržavaju prava privatnosti. Vaše lične podatke treba tražiti i prikupljati samo kada je to neophodno i moraju se pravilno čuvati i čuvati od napada. Nažalost, programeri to nisu uvek poštovali. Utvrđeno je da je Clearviev AI prekršio australijske zakone o privatnosti tako što je izvukao biometrijske informacije sa veba bez pristanka i koristio ih u svom alatu za prepoznavanje lica.

Sistemi veštačke inteligencije treba da pouzdano rade u skladu sa njihovom namenom. Dobar način da kompanije spreče štetu je da sprovedu pilot studije sa predviđenim korisnicima u sigurnim prostorima pre nego što tehnologija bude puštena u javnost. Ovo pomaže da se izbegnu situacije kao što je zloglasni chatbot Tai. Tej je na kraju generisao rasistički i seksistički govor mržnje zbog nepredviđene i stoga neproverene ranjivosti u sistemu.

Upotreba AI treba da bude transparentna i jasno obelodanjena. Ljudi bi trebalo da budu u stanju da razumeju uticaje i ograničenja alata koji koriste. Na primer, kompanije bi mogle da razjasne da njihovi chat botovi mogu ‘halucinirati’ tako što generišu netačne ili besmislene odgovore. Korisnici se takođe mogu podstaći da provere činjenice koje dobiju.

Sistemi veštačke inteligencije mogu značajno uticati na osobu, zajednicu, grupu ili okruženje. U takvim slučajevima, trebalo bi da postoji pravovremeni proces koji će ljudima omogućiti da osporavaju upotrebu ili rezultate AI sistema. Ovo može uključivati obrazac za prijavu ili dugme za prigovor, pitanje ili prijavu neodgovorne veštačke inteligencije.

Ljudi odgovorni za sve delove veštačke inteligencije — od razvoja do primene — trebalo bi da budu prepoznatljivi i odgovorni, a da ljudi održavaju nadzor nad sistemima veštačke inteligencije. Potražite alate koje su razvili oni koji promovišu i nagrađuju etičko i odgovorno ponašanje veštačke inteligencije u kompanijama, posebno na nivou rukovodstva.

Iako AI može biti odličan kao opšte sredstvo, korišćenje AI algoritama za određivanje situacija sa visokim ulozima za određene pojedince nije sjajna ideja. U primeru iz Amerike, duža zatvorska kazna je određena pojedincu na osnovu algoritamske odluke.

„Sistemi veštačke inteligencije crne kutije kao što su ovi sprečavaju korisnike i pogođene strane da razumeju i budu u mogućnosti da prigovore na način na koji su donete odluke koje utiču na njih“, rekao je Ćinghua.

„S obzirom na složenost i autonomiju AI, nije uvek moguće u potpunosti proveriti usklađenost sa svim odgovornim principima veštačke inteligencije pre primene“, upozorio je Liming.

„Ovo čini praćenje AI od strane korisnika kritičnim. Pozivamo sve korisnike da pozovu i prijave bilo kakvo kršenje dobavljača usluga ili vlasti i da provajdere usluga i proizvoda AI pozovemo na odgovornost kako bi nam pomogli da izgradimo našu najbolju moguću budućnost AI.“