Istraživači sa Univerziteta u Dartmouthu, u saradnji sa stručnjacima iz Velike Britanije, Irske i Severne Amerike, razvijaju metodu za smanjenje stereotipa u modelima veštačke inteligencije (AI). Kada se veštački modeli obučavaju na velikim skupovima podataka, upijaju i prenose pristrasnosti, uključujući stereotipe. Tim istraživača je razvio tehniku koja omogućava prilagođavanje već obučenih modela kako bi se ublažili ovi stereotipi.
U radu objavljenom u časopisu Proceedings of 2023 Conference on Empirical Methods in Natural Language Processing, istraživači su proučavali kako su stereotipi kodirani u unapred obučenim jezičkim modelima, koji su vrsta algoritma dubokog učenja. Ovi modeli imaju ugrađene predrasude koje se mogu manifestovati u nepravednim ishodima prilikom upotrebe u aplikacijama kao što su selekcija kadrova ili odobravanje kredita.
Korišćenjem skupa podataka ispunjenog stereotipima, istraživači su prilagodili 60 različitih unapred obučenih modela i identifikovali delove modela poznate kao „glave pažnje“ gde su stereotipi kodirani. Orezivanjem ovih delova modela postignuto je značajno smanjenje stereotipa bez velikog gubitka jezičkih sposobnosti modela.
Dr. Veicheng Ma, jedan od istraživača, istakao je da ova tehnika nudi mogućnost smanjenja stereotipa čak i nakon što je model već obučen, suprotstavljajući se tradicionalnom stavu da bi ispravci morali biti primenjeni tokom obuke modela.
Stručnjaci takođe ističu da ova metoda može biti prilagođena različitim vrstama stereotipa u skladu sa specifičnostima aplikacija, pružajući široku primenjivost. Međutim, naglašava se da tehnika funkcioniše samo kada se ima pristup potpuno obučenom modelu, ne primenjuje se na modele crne kutije čiji je unutrašnji rad nedostupan. Istraživači planiraju prilagoditi tehniku za modele crne kutije, poput OpenAI-jevog chatbota ChatGPT.