Mašine veštačke inteligencije koje pokreću veliki jezički modeli (LLM) postaju sve pristupačniji način za dobijanje odgovora i saveta, uprkos poznatim rasnim i rodnim pristrasnostima.
Nova studija je otkrila jake dokaze da sada možemo dodati političku pristrasnost na tu listu, dodatno demonstrirajući potencijal nove tehnologije da nesvesno, a možda čak i podlo utiče na vrednosti i stavove društva.
Istraživanje je pozvao kompjuterski naučnik David Rozado, sa Otago Politehnike na Novom Zelandu, i postavlja pitanja o tome kako na nas mogu uticati botovi na koje se oslanjamo za informacije.
Rozado je pokrenuo 11 standardnih političkih upitnika kao što je test Političkog kompasa na 24 različita LLM-a, uključujući ChatGPT iz OpenAI-a i Gemini chatbot koji je razvio Google, i otkrio da prosečan politički stav u svim modelima nije bio ni približno neutralan.
„Većina postojećih LLM-a pokazuje političke preferencije levo od centra kada se procenjuju različitim testovima političke orijentacije“, kaže Rozado.
Prosečna levičarska pristrasnost nije bila jaka, ali je bila značajna. Dalji testovi na prilagođenim botovima – gde korisnici mogu fino da podese podatke o obuci LLM-a – pokazali su da se na ove veštačke inteligencije može uticati da izraze političke sklonosti koristeći tekstove levo od centra ili desno od centra.
Rozado je takođe pogledao osnovne modele kao što je GPT-3.5, na kojima su zasnovani razgovorni čet-botovi. Ovde nije bilo dokaza o političkoj pristrasnosti, iako je bez front-enda chatbot-a bilo teško uporediti odgovore na smislen način.
Budući da Google gura AI odgovore za rezultate pretrage, a sve više nas se okreće AI botovima za informacije, zabrinutost je da bi na naše razmišljanje mogli uticati odgovori koji nam se vraćaju.
„S obzirom da su LLM počeli da delimično zamenjuju tradicionalne izvore informacija kao što su pretraživači i Vikipedija, društvene implikacije političkih pristrasnosti koje su ugrađene u LLM su značajne“, piše Rozado u svom objavljenom radu.
Nije jasno kako ova pristrasnost ulazi u sisteme, iako nema sugestije da su je programeri LLM namerno podmetnuli. Ovi modeli su obučeni na ogromnim količinama onlajn teksta, ali neravnoteža učenja levog i desnog materijala u mešavini može imati uticaja.
Dominacija ChatGPT obuke za druge modele takođe može biti faktor, kaže Rozado, jer se ranije pokazalo da je bot levo od centra kada je u pitanju njegova politička perspektiva.
Botovi zasnovani na LLM-ima u suštini koriste verovatnoće da bi otkrili koja reč treba da sledi drugu u njihovim odgovorima, što znači da su redovno netačni u onome što govore čak i pre nego što se razmotre različite vrste pristrasnosti.
Uprkos želji tehnoloških kompanija kao što su Google, Microsoft, Apple i Meta da nam gurnu AI chat botove, možda je vreme da preispitamo kako bi trebalo da koristimo ovu tehnologiju – i damo prioritet oblastima u kojima AI zaista može biti korisna.
„Od ključnog je značaja da se kritički ispitaju i pozabave potencijalne političke pristrasnosti koje su ugrađene u LLM kako bi se osiguralo uravnoteženo, pravedno i tačno predstavljanje informacija u njihovim odgovorima na upite korisnika“, piše Rozado.