Veliki jezički modeli generišu pristrasan sadržaj, upozoravaju istraživači

Veliki jezički modeli generišu pristrasan sadržaj, upozoravaju istraživači

Novi izveštaj koji predvode istraživači sa UCL otkriva da najpopularniji alati veštačke inteligencije (AI) diskriminišu žene i ljude različitih kultura i seksualnosti.

Studija, koju je naručio i objavio UNESCO, ispitala je stereotipe u velikim jezičkim modelima (LLM). Ovi alati za obradu prirodnog jezika podržavaju popularne generativne AI platforme, uključujući Open AI GPT-3.5 i GPT-2 i META Llama 2.

Nalazi su pokazali jasne dokaze o pristrasnosti prema ženama u sadržaju koji je generisao svaki od proučavanih modela velikih jezika. Ovo je uključivalo snažne stereotipne asocijacije između ženskih imena i reči kao što su „porodica“, „deca“ i „muž“ koje su u skladu sa tradicionalnim rodnim ulogama. Nasuprot tome, muška imena su se češće povezivala sa rečima poput „karijera“, „rukovodioci“, „menadžment“ i „biznis“.

Autori su takođe pronašli dokaze o rodno zasnovanim stereotipnim pojmovima u generisanom tekstu, uključujući negativne stereotipe u zavisnosti od kulture ili seksualnosti.

Deo studije merio je raznovrsnost sadržaja u tekstovima generisanim veštačkom inteligencijom koji su se fokusirali na niz ljudi širom spektra polova, seksualnosti i kulturnog porekla, uključujući i traženje od platformi da „napišu priču“ o svakoj osobi. LLM otvorenog koda posebno su težili da muškarcima dodeljuju raznovrsnije poslove sa visokim statusom, kao što su „inženjer“ ili „doktor“, dok žene često prebacuju na uloge koje su tradicionalno potcenjene ili stigmatizovane, kao što su „domaće sluge“, „ kuvarica“ i „prostitutka“.

Llama 2 generisane priče o dečacima i muškarcima u kojima dominiraju reči „blago“, „šuma“, „more“, „avanturistički“, „odlučan“ i „pronađen“, dok su priče o ženama najčešće koristile reči „bašta“. ,“ „ljubav“, „osećaj“, „nežan“ i „muž“. Takođe je opisano da žene rade u domaćim ulogama četiri puta češće od muškaraca u sadržaju koji je producirao Llama 2.

Dr Maria Perez Ortiz, autorka izveštaja sa UCL Computer Science i član UNESKO katedre za veštačku inteligenciju na UCL timu, rekla je: „Naše istraživanje otkriva duboko ukorenjene rodne predrasude u velikim jezičkim modelima i poziva na etičku reviziju u Kao žena u tehnologiji, zalažem se za AI sisteme koji odražavaju bogatu tapiseriju ljudske raznolikosti, osiguravajući da podižu, a ne potkopavaju rodnu ravnopravnost.

Tim UNESCO-a za AI u UCL-u će raditi sa UNESCO-om kako bi pomogao u podizanju svesti o ovom problemu i doprineo razvoju rešenja tako što će voditi zajedničke radionice i događaje koji uključuju relevantne zainteresovane strane: naučnike i programere veštačke inteligencije, tehnološke organizacije i kreatore politike.

Profesor John Shave-Tailor, vodeći autor izvještaja sa UCL Computer Science i UNESCO katedre za AI na UCL, rekao je: „Nadgledajući ovo istraživanje kao predsjedavajući UNESCO-a za AI, jasno je da rješavanje rodnih pristrasnosti izazvanih AI zahtijeva usklađenu, globalnu napori Ova studija ne samo da baca svetlo na postojeće nejednakosti, već i utire put za međunarodnu saradnju u stvaranju AI tehnologija koje poštuju ljudska prava i rodnu ravnopravnost.

Izveštaj su 6. marta 2024. godine u sedištu Uneska predstavili profesor Drobnjak, profesor Shave-Tailor i dr Daniel van Niekerk na Uneskovom sastanku dijaloga o digitalnoj transformaciji 6. marta 2024. godine. Prof

Profesorka Ivana Drobnjak, autorka izveštaja sa UCL Computer Science i član UNESKO katedre za veštačku inteligenciju na UCL tima, rekla je: „AI uči iz interneta i istorijskih podataka i donosi odluke na osnovu tog znanja, koje je često pristrasno. Samo zato što žene nisu bile toliko prisutne u nauci i inženjerstvu u prošlosti, na primer, ne znači da su one manje sposobni naučnici i inženjeri. Moramo da vodimo ove algoritme da bismo naučili o jednakosti, jednakosti i ljudskosti prava, pa da donose bolje odluke“.