Istraživači iznenađeni rodnim stereotipima u ChatGPT-u

Istraživači iznenađeni rodnim stereotipima u ChatGPT-u

Student DTU-a je analizirao ChatGPT i otkrio da je onlajn usluga izuzetno stereotipna kada su u pitanju rodne uloge. Analiza je prvi korak ka pružanju alata za AI programere za testiranje protiv svih vrsta diskriminatorne pristrasnosti.

To je izazvalo veliku pometnju kada je ChatGPT pokrenut 2022. godine, dajući svima koji imaju pristup internetu priliku da koriste veštačku inteligenciju za kreiranje tekstova i odgovaranje na pitanja. Ne samo zato što se ChatGPT „ponaša“ kao čovek i pruža odgovore koje bi kolega ili prijatelj mogao napisati.

Tokom studija na DTU, Sara Sterlie se fokusirala na veštačku inteligenciju i brzo se zainteresovala za istraživanje pristrasnosti u ChatGPT-u u vezi sa rodnim stereotipima. Možda zvuči jednostavno, ali da bi to uradila, prvo je morala da razvije metod za izvođenje relevantnih eksperimenata.

„Kada mi se Sara obratila sa svojim idejama za svoj projekat, odmah sam se zainteresovao i pristao da budem njen supervizor. Već radim sa pristrasnošću u veštačkoj inteligenciji, ali ranije nisam radila sa jezičkim modelima kao što je ChatGPT“, kaže profesorka Aasa Feragen, koja prvenstveno radi sa pristrasnošću u veštačkoj inteligenciji koja se koristi za obradu medicinske slike.

Kao svoju polaznu tačku, Sara Sterlie je izabrala Kriterijume nediskriminacije — priznati metod za analizu pristrasnosti u drugom tipu modela veštačke inteligencije koji klasifikuje materijal, na primer, za procenu medicinskih slika. Lako je obučiti taj model da zna razliku između rendgenskih snimaka koji pokazuju zdrava ili bolesna pluća, na primer. Tada je moguće izmeriti da li model klasifikacije predstavlja previše netačnih odgovora, na primer, u zavisnosti od toga da li je slika muškarca ili žene.

„ChatGPT se razlikuje po tome što ne pruža predvidljive odgovore koji se uredno uklapaju u kategorije. Štaviše, kada modelu postavimo pitanje, ne postoji uvek inherentno istinit odgovor, kao u zadacima klasifikacije. Metode koje se obično koriste za merenje pristrasnosti su stoga nije direktno primenljivo na modele kao što je ChatGPT. Želela sam čvrstu osnovu za svoju istragu i odlučila sam da razvijem metode reinterpretacijom kriterijuma nediskriminacije“, objašnjava Sara Sterli.

Sara Sterlie je odlučila da razvije pojednostavljene metode da bi se uzeli u obzir samo muški i ženski rod. Definisala je statističke zahteve i dizajnirala eksperimentalna pitanja ili uputstva, kako se oni zovu, sa fokusom na rodnu pristrasnost, koje je testirala na GPT modelima.

„Prvi je bio niz strukturiranih uputstava, fokusirajući se na stereotipe o zanimanjima. Želeo sam da testiram koji pol je model povezivao sa različitim poslovima. Moj prvi eksperiment traži od modela da precizira posao osobe kojoj je dato muško ili žensko ime“, kaže Sara Sterlie.

Rezultat je bila daleko stereotipnija distribucija u odnosu na pol nego što imamo u današnjem društvu, pri čemu su ženama uglavnom dodeljivane nazive poslova kao što su grafički dizajner, modni dizajner ili medicinska sestra, a muškarcima dodeljivana zvanja kao što su softverski inženjer, arhitekta i izvršni direktor.

Druga vrsta obaveštenja bavila se tipičnim poslovima u profesijama koje blisko sarađuju, na primer, lekari i medicinske sestre ili piloti i stjuardese. Rezultati stotina eksperimenata koje je Sara Sterlie sprovela za svaki upit pokazali su da ChatGPT teško povezuje muške zamenice sa medicinskim sestrama i još teže pušta ženske zamenice da se bave pilotskim obavezama pripremanja aviona za sletanje.

Štaviše, Sara Sterlie je takođe sprovela eksperimente sa nestrukturiranim upitima, tražeći od ChatGPT-a da opiše hobije određenog broja srednjoškolaca sa imenima za dečake i devojčice. Sterlie je zatim analizirao odgovore, ispitujući koliko se često, između ostalog, reč ili fraza pojavljuje u tekstu. Postalo je sasvim jasno da je među 400 odgovora neobično veliki broj studentica koje su se bavile volonterskim radom sa životinjama, dok su studenti bili posebno zainteresovani za tehniku i nauku.

„Svi moji eksperimenti su jednoglasno pokazali da ChatGPT pokazuje jasnu rodnu pristrasnost, i kada se pita na strukturisan i nestrukturiran način“, kaže Sara Sterlie.

Sara Sterlie i njene dve supervizore, Aasa Feragen i Nina Veng, koje takođe rade sa obradom medicinskih slika, delimično su predvidele ishod eksperimenata.

„Očekivali smo neku rodnu pristrasnost, pošto je ChatGPT obučen na materijalu sa interneta koji u izvesnoj meri odražava rodne stereotipe koje poznajemo dugi niz godina. Ali bio sam veoma iznenađen kada sam video stepen pristrasnosti, posebno u vezi sa Veza između pola i tipova posla. To je daleko u poređenju sa distribucijom u modernom društvu“, kaže Nina Veng.

Sara Sterlie i njeni supervizori trenutno rade na završetku naučnog članka o svojim nalazima.

„Koliko znam, mi smo prvi koji su uradili ovu vrstu analize. Naš dugoročni cilj kao istraživača je da razvijemo metode i alate koje mogu da koriste programeri koji stoje iza jezičkih modela kao što je ChatGPT kako bi sprečili pristrasnost u pogledu pola, rase, nacionalnosti itd. Još nismo tu, ali Sarini eksperimenti su prvi korak“, kaže Nina Veng.

Aasa Feragen dodaje da očekuje da će metode Sare Sterlie pokrenuti globalnu diskusiju o tome kako izbeći pristrasnost u veštačkoj inteligenciji.

Biti zainteresovan za otkrivanje i izbegavanje pristrasnosti u ChatGPT-u i sličnim modelima generativne veštačke inteligencije nije kritikovanje nove tehnologije, kažu Sara Sterlie i Nina Veng, koje obe koriste ChatGPT, na primer, da sumiraju glavne tačke u tekstu. Umesto toga, oni su strastveni u obezbeđivanju pravičnosti u tekstovima ili slikama koje generiše jezički model i drugi modeli generativne veštačke inteligencije.

„Sve veća upotreba veštačke inteligencije za kreiranje tekstova ili slika uticaće na našu percepciju sveta oko nas. AI poput ChatGPT-a su obučeni za velike količine podataka i isporučuju odgovore koji liče na obrasce u podacima o obuci. To znači da ako ne Ako se ne uklapate u norme prosečne osobe u pogledu seksualnosti, tipa porodice ili ličnih preferencija, koje obično dominiraju u podacima o obuci, obično nećete biti predstavljeni u člancima itd. koje proizvode ovi modeli veštačke inteligencije“, objašnjava Sara Sterlie.