Lansiranje sve sposobnijih velikih jezičkih modela (LLM) kao što je GPT-3.5 izazvalo je veliko interesovanje u poslednjih šest meseci. Međutim, poverenje u ove modele je opalo kako su korisnici otkrili da mogu da prave greške i da, baš kao i mi, nisu savršeni.
LLM koji izbacuje netačne informacije naziva se „halucinacija“, i sada postoji sve više istraživačkih napora usmerenih ka smanjenju ovog efekta. Ali dok se borimo sa ovim zadatkom, vredi razmisliti o našoj sopstvenoj sposobnosti za pristrasnost i halucinaciju – i kako to utiče na tačnost LLM-ova koje stvaramo.
Razumevanjem veze između potencijala halucinacije veštačke inteligencije i našeg sopstvenog, možemo početi da stvaramo pametnije AI sisteme koji će na kraju pomoći u smanjenju ljudske greške.
Kako ljudi haluciniraju
Nije tajna da ljudi izmišljaju informacije. Ponekad to radimo namerno, a ponekad nenamerno. Ovo drugo je rezultat kognitivnih pristrasnosti ili „heuristika“: mentalnih prečica koje razvijamo kroz prethodna iskustva.
Ove prečice često nastaju iz nužnosti. U svakom trenutku, možemo obraditi samo ograničen broj informacija koje preplavljuju naša čula i zapamtiti samo deo svih informacija sa kojima smo ikada bili izloženi.
Kao takvi, naši mozgovi moraju koristiti naučene asocijacije da popune praznine i brzo odgovore na pitanje ili dilemu koja nam je postavljena. Drugim rečima, naši mozgovi nagađaju koja je ispravan odgovor na osnovu ograničenog znanja. To se naziva „konfabulacija“ i primer je ljudske pristrasnosti.
Naše pristrasnosti mogu dovesti do lošeg prosuđivanja. Uzmimo za primer pristrasnost automatizacije, koja je naša sklonost da favorizujemo informacije koje generišu automatizovani sistemi (poput ChatGPT) u odnosu na informacije iz neautomatizovanih izvora. Ova pristrasnost može nas dovesti do propuštanja grešaka i čak delovanja na osnovu lažnih informacija.
Još jedna relevantna heuristika je efekat aure, pri kojem naš prvi utisak o nečemu utiče na naše dalje interakcije s tim. I pristrasnost u tečnom mišljenju, koja opisuje kako favorizujemo informacije predstavljene na lak način za čitanje.
Suština je da ljudsko razmišljanje često obojava sopstvene kognitivne pristrasnosti i iskrivljenja, a ove „halucinacijske“ tendencije uglavnom se javljaju van naše svesti.
Kako veštačka inteligencija halucinira
U kontekstu LLM-a, halucinacija je drugačija. LLM ne pokušava da štedi ograničene mentalne resurse kako bi efikasno shvatio svet. „Halucinacija“ u ovom kontekstu samo opisuje neuspešan pokušaj predviđanja odgovora na ulaz.
Ipak, postoji neka sličnost između toga kako ljudi i LLM-ovi haluciniraju, budući da i LLM-ovi to rade kako bi „popunili praznine“.
LLM-ovi generišu odgovor predviđanjem reči koja je najverovatnija da će se pojaviti sledeća u sekvenci, na osnovu onoga što je prethodilo i asocijacija koje je sistem naučio tokom obuke.
Kao i ljudi, LLM-ovi pokušavaju da predvide najverovatniji odgovor. Za razliku od ljudi, oni to rade bez razumevanja onoga što govore. To je razlog zbog kojeg mogu da izbace besmislice.
Što se tiče razloga zbog kojih LLM-ovi haluciniraju, postoji niz faktora. Glavni faktor je obuka na podacima koji su nedovoljni ili pogrešni. Drugi faktori uključuju način na koji je sistem programiran da uči iz tih podataka i kako se taj programiranje ojačava kroz daljnju obuku pod nadzorom ljudi.
Postizanje boljih rezultata zajedno
Dakle, ako su i ljudi i LLM-ovi podložni halucinacijama (iako iz različitih razloga), koji je lakše popraviti?
Čini se da je popravljanje podataka za obuku i procesa koji podržavaju LLM-ove lakše od popravljanja nas samih. Ali ovo ne uzima u obzir ljudske faktore koji utiču na AI sisteme (i predstavlja primer još jedne ljudske pristrasnosti poznate kao fundamentalna atribucijska greška).
Stvarnost je da su naši nedostaci i nedostaci naše tehnologije nerazdvojno povezani, pa će popravljanje jednog pomoći u popravljanju drugog. Evo nekoliko načina na koje to možemo postići.
- Odgovorno upravljanje podacima. Poreklo pristrasnosti u veštačkoj inteligenciji često potiče od pristrasnih ili ograničenih podataka za obuku. Načini za rešavanje ovoga uključuju osiguravanje raznovrsnih i reprezentativnih podataka za obuku, izgradnju algoritama koji prepoznaju pristrasnost i upotrebu tehnika poput balansiranja podataka kako bi se uklonili iskrivljeni ili diskriminatorski obrasci.
- Transparentnost i razumljiva veštačka inteligencija. Bez obzira na prethodne mere, pristrasnost u veštačkoj inteligenciji može ostati i teško ju je otkriti. Proučavanjem načina na koje pristrasnost ulazi u sistem i širi se unutar njega, možemo bolje objasniti prisustvo pristrasnosti u rezultatima. Ovo je osnova „razumljive veštačke inteligencije“, koja ima za cilj da procese odlučivanja veštačkih inteligentnih sistema učini transparentnijima.
- Stavljanje interesa javnosti u prvi plan. Prepoznavanje, upravljanje i učenje iz pristrasnosti u veštačkoj inteligenciji zahteva ljudsku odgovornost i integraciju ljudskih vrednosti u veštačke inteligentne sisteme. Postizanje ovoga znači osiguravanje da zainteresovane strane budu predstavnici ljudi različitih pozadina, kultura i perspektiva.
Radom zajedno na ovaj način, moguće je izgraditi pametnije sisteme veštačke inteligencije koji mogu pomoći da se kontrolišu sve naše halucinacije.
Na primer, veštačka inteligencija se koristi u zdravstvu za analizu ljudskih odluka. Ovi sistemi mašinskog učenja otkrivaju neskladnosti u ljudskim podacima i daju upozorenja koja skreću pažnju kliničara na njih. Na taj način se mogu poboljšati dijagnostičke odluke uz održavanje ljudske odgovornosti.
U kontekstu društvenih medija, veštačka inteligencija se koristi za obuku ljudskih moderatora pri pokušaju identifikacije zloupotrebe, kao što je projekat „Troll Patrol“ koji ima za cilj suzbijanje nasilja na internetu protiv žena.
U drugom primeru, kombinacija veštačke inteligencije i satelitskih snimaka može pomoći istraživačima da analiziraju razlike u osvetljenosti tokom noći u različitim regionima i koriste to kao pokazatelj relativne siromaštva nekog područja (pri čemu je veće osvetljenje povezano sa manjim siromaštvom).
Važno je da, dok obavljamo bitan posao poboljšanja tačnosti LLM-ova, ne zanemarimo činjenicu da njihova trenutna sposobnost greške ogleda našu vlastitu.