Možemo li veštačku inteligenciju osloboditi pristrasnosti?

Možemo li veštačku inteligenciju osloboditi pristrasnosti?

Veštačka inteligencija izgrađena na planinama potencijalno pristrasnih informacija stvorila je stvarni rizik od automatizacije diskriminacije, ali postoji li način da se mašine preobrazuju?

Pitanje za neke je izuzetno hitno. U ovoj ChatGPT eri, AI će generisati sve više i više odluka za pružaoce zdravstvenih usluga, zajmodavce banaka ili advokate, koristeći sve što je pronađeno sa interneta kao izvorni materijal.

Inteligencija koja leži u osnovi veštačke inteligencije je, dakle, dobra onoliko koliko je dobar svet iz kog je došao, jer je verovatno da će biti ispunjena duhovitošću, mudrošću i korisnošću, kao i mržnjom, predrasudama i praznim pričama.

„Opasno je jer ljudi prihvataju i usvajaju softver veštačke inteligencije i zaista zavise od njega“, rekao je Džošua Viver, direktor Teksaškog inkubatora mogućnosti i pravde, pravne konsultantske kuće.

„Možemo da uđemo u ovu petlju povratnih informacija gde pristrasnost u nama samima i kulturi informiše pristrasnost u AI i postaje neka vrsta petlje za jačanje“, rekao je on.

Potruditi se da tehnologija preciznije odražava ljudsku raznolikost nije samo politički izbor.

Druge upotrebe AI, poput prepoznavanja lica, dovele su do toga da su kompanije bačene u vruću vodu sa vlastima zbog diskriminacije.

To je bio slučaj protiv Rite-Aid-a, američkog lanca apoteka, gde su kamere u prodavnicama lažno označavale potrošače, posebno žene i obojene ljude, kao kradljivce, prema Federalnoj komisiji za trgovinu.

Generativna AI u stilu ChatGPT-a, koja može da stvori privid rasuđivanja na nivou čoveka za samo nekoliko sekundi, otvara nove mogućnosti da se stvari pogreše, brinu stručnjaci.

Divovi veštačke inteligencije su dobro svesni problema, plašeći se da njihovi modeli mogu da se loše ponašaju ili da previše odražavaju zapadno društvo kada je njihova korisnička baza globalna.

„Imamo ljude koji postavljaju pitanja iz Indonezije ili SAD“, rekao je izvršni direktor Gugla Sundar Pichai, objašnjavajući zašto će zahtevi za slike lekara ili advokata nastojati da odražavaju rasnu raznolikost.

Ali ova razmatranja mogu dostići apsurdne nivoe i dovesti do ljutih optužbi za preteranu političku korektnost.

Ovo se dogodilo kada je Gugl-ov generator slika Gemini izbacio sliku nemačkih vojnika iz Drugog svetskog rata na kojoj su apsurdno bili crnac i Azijatkinja.

„Očigledno, greška je bila u tome što smo se prekomerno primenili… tamo gde nikada nije trebalo da se primeni. To je bila greška i pogrešili smo“, rekao je Pichai.

Ali Saša Lučoni, naučnik u Hugging Face-u, vodećoj platformi za AI modele, upozorio je da „razmišljanje da postoji tehnološko rešenje za pristrasnost na neki način već ide pogrešnim putem“.

Generativna AI se u suštini odnosi na to da li izlaz „odgovara onome što korisnik očekuje“ i to je uglavnom subjektivno, rekla je ona.

Ogromni modeli na kojima je izgrađen ChatGPT „ne mogu da razmisle o tome šta je pristrasno, a šta nije, tako da ne mogu ništa da urade povodom toga“, upozorio je Džejden Zigler, šef proizvoda u Alembic Technologies.

Barem za sada, na ljudima je da osiguraju da AI generiše sve što je prikladno ili ispunjava njihova očekivanja.

Ali s obzirom na ludnicu oko veštačke inteligencije, to nije lak zadatak.

Hugging Face ima oko 600.000 modela AI ili mašinskog učenja dostupnih na svojoj platformi.

„Svakih nekoliko nedelja izlazi novi model i mi se nekako trudimo da samo procenimo i dokumentujemo pristrasnosti ili nepoželjna ponašanja“, rekao je Lučoni.

Jedna od metoda u razvoju je nešto što se zove algoritamska degorgementacija koja bi omogućila inženjerima da izdvoje sadržaj, a da pritom ne unište ceo model.

Ali postoje ozbiljne sumnje da ovo zaista može da funkcioniše.

Drugi metod bi „ohrabrio“ model da ide u pravom smeru, „fino ga podesio“, „nagrađujući za dobro i pogrešno“, rekao je Ram Sriharsha, glavni tehnološki direktor kompanije Pinecone.

Pinecone je specijalista za proširenu generaciju preuzimanja (ili RAG), tehniku gde model preuzima informacije iz fiksnog pouzdanog izvora.

Za Vivera iz Teksaškog inkubatora prilika i pravde, ovi „plemeniti“ pokušaji da se popravi pristrasnost su „projekcije naših nada i snova o tome kako može izgledati bolja verzija budućnosti“.

Ali pristrasnost je „takođe inherentna onome što znači biti čovek i zbog toga je takođe uklopljena u AI“, rekao je on.