Veliki jezički modeli (LLM), poput onih koje koristi chatbot ChatGPT, imaju moć da revolucionišu naučni sistem. Ovo je zaključak Delphi studije koju je sproveo Institut za internet i društvo Aleksandra fon Humbolt (HIIG), koja obuhvata opsežnu anketu 72 međunarodna stručnjaka specijalizovana za oblasti veštačke inteligencije i istraživanja digitalizacije.
Ispitanici ističu da su pozitivni efekti na naučnu praksu jasno veći od negativnih. Istovremeno, oni naglašavaju hitan zadatak nauke i politike da se aktivno bore protiv mogućih dezinformacija od strane LLM kako bi se očuvao kredibilitet naučnog istraživanja. Stoga pozivaju na proaktivnu regulativu, transparentnost i nove etičke standarde u korišćenju generativne AI.
Studija „Prijatelj ili neprijatelj? Istraživanje implikacija velikih jezičkih modela na naučni sistem“ je sada dostupna kao preprint na arKsiv serveru.
Pozitivni efekti su, smatraju stručnjaci, najizraženiji u tekstualnoj sferi akademskog rada. Veliki jezički modeli će u budućnosti povećati efikasnost istraživačkih procesa automatizacijom različitih zadataka koji se odnose na pisanje i objavljivanje radova. Isto tako, oni mogu ublažiti naučnike od sve većeg administrativnog izveštavanja i procedura predlaganja istraživanja koje su značajno porasle poslednjih godina.
Kao rezultat, oni stvaraju dodatno vreme za kritičko razmišljanje i otvaraju puteve za nove inovacije, jer istraživači mogu da se ponovo fokusiraju na svoj istraživački sadržaj i efikasno ga prenesu široj publici.
Iako priznaje neosporne koristi, studija naglašava važnost rešavanja mogućih negativnih posledica. Prema mišljenju ispitanika, LLM imaju potencijal da generišu lažne naučne tvrdnje koje se na prvi pogled ne razlikuju od pravih nalaza istraživanja. Ove dezinformacije bi se mogle širiti u javnim debatama i uticati na političke odluke, imajući negativan uticaj na društvo. Slično, pogrešni podaci o obuci iz velikih jezičkih modela mogu ugraditi različite rasističke i diskriminatorne stereotipe u proizvedene tekstove.
Ove greške bi mogle da se infiltriraju u naučne debate ako istraživači u svoj svakodnevni rad ugrade sadržaj koji je generisao LLM bez temeljne provere.
Da bi prevazišli ove izazove, istraživači moraju steći nove veštine. Ovo uključuje sposobnost kritičke kontekstualizacije rezultata LLM-a. U vreme kada su dezinformacije iz velikih jezičkih modela u porastu, istraživači treba da iskoriste svoju stručnost, autoritet i reputaciju kako bi unapredili objektivan javni diskurs. Oni se zalažu za strožiju zakonsku regulativu, povećanu transparentnost podataka o obuci, kao i za negovanje odgovorne i etičke prakse u korišćenju generativne veštačke inteligencije u sistemu nauke.
Dr Benedikt Fecher, vodeći istraživač u istraživanju, komentariše: „Rezultati ukazuju na transformativni potencijal velikih jezičkih modela u naučnim istraživanjima. Iako njihove ogromne koristi nadmašuju rizike, mišljenja stručnjaka iz oblasti AI i digitalizacije pokazuju kako važno je da se konkretno pozabavimo izazovima u vezi sa dezinformacijama i gubitkom poverenja u nauku. Ako odgovorno koristimo LLM i pridržavamo se etičkih smernica, možemo ih koristiti da maksimiziramo pozitivan uticaj i minimiziramo potencijalnu štetu.“