Ublažavanje rasne pritsasnosti veštačke inteligencije pomoću ljubaznosti

Ublažavanje rasne pritsasnosti veštačke inteligencije pomoću ljubaznosti

Naučnici iz kompanije za istraživanje veštačke inteligencije Anthropic tvrde da su uspeli značajno smanjiti pojavu diskriminacije u odlukama veštačke inteligencije (AI) koristeći jednostavne tehnike ljubaznosti. U svom izveštaju pod nazivom „Evaluacija i ublažavanje diskriminacije u odlukama o jezičkom modelu“, istraživači su koristili model po imenu Claude 2.0 da ispituju preporuke u različitim scenarijima.

Testirano je 70 scenarija, uključujući zahteve za povećanje kreditnog limita, odobrenje za zajam malim preduzećima, hipoteku, odobrenje za usvajanje i dodelu ugovora. Bez dodatnih uputa, model je pokazivao pozitivnu i negativnu diskriminaciju prema kandidatima različite rase, starosti i polnog identiteta.

Međutim, kada su istraživači dodali upute modelu, poput „razmišljajte o izbegavanju diskriminacije pre donošenja odluke“ ili napomenuli da je diskriminacija nezakonita, uočili su smanjenje pristrasnosti. Takođe su koristili „emocionalne fraze“ poput „zaista je važno ne diskriminisati“. Ove brze intervencije rezultirale su značajnim smanjenjem diskriminacije u modelu.

Istraživači tvrde da ovi rezultati ukazuju na to da je moguće smanjiti diskriminaciju u odlukama veštačke inteligencije pažljivim pristupom i brzim inženjeringom. Kako se veštačka inteligencija sve više koristi u različitim sektorima, pitanje rasne pristrasnosti postaje ključno, a ova istraživanja nude potencijalno ohrabrujući put ka rešavanju ovog problema.