Istraživači sa Univerziteta u Oksfordu, u saradnji sa međunarodnim stručnjacima, objavili su novu studiju u Nature Machine Intelligence koja se bavi složenim etičkim pitanjima koja okružuju odgovornost za rezultate koje generiše veliki jezički modeli (LLM).
Studija otkriva da LLM poput ChatGPT-a postavljaju ključna pitanja u vezi sa pripisivanjem kredita i prava za generisanje korisnog teksta, odstupajući od tradicionalnih debata o odgovornosti AI koje su se prvenstveno fokusirale na štetne posledice.
„LLM-ovi kao što je ChatGPT izazivaju hitnu potrebu za ažuriranjem našeg koncepta odgovornosti“, kažu Sebastijan Porsdam Man i Brajan D. Erp, zajednički prvi autori studije.
Ključni nalaz istraživanja, prema koautorima Svena Niholma i Džona Danahera, „je da, iako ljudski korisnici ovih tehnologija ne mogu u potpunosti preuzeti zasluge za pozitivne rezultate koje generiše LLM, i dalje se čini prikladnim smatrati ih odgovornim za štetnu upotrebu , kao što je generisanje dezinformacija ili nemarnost u proveravanju tačnosti“ generisanog teksta.
Ovo može dovesti do situacije koju su Niholm i Danaher, nadovezujući se na prethodni rad, nazvali „prazninom u postignućima“: „Radi se koristan posao, ali ljudi ne mogu dobiti onoliko zadovoljstva ili priznanja za njega kao nekada.“
Julian Savulescu, stariji autor rada, dodaje: „Potrebne su nam smernice o autorstvu, zahtevima za obelodanjivanje, obrazovnoj upotrebi i intelektualnoj svojini, oslanjajući se na postojeće normativne instrumente i slične relevantne debate, kao što je unapređenje čoveka. Norme koje zahtevaju transparentnost su posebno važne, nastavlja Savulesku, „da se prati odgovornost i pravilno dodeljuje pohvala i krivica“.
Studija, čiji je koautor interdisciplinarni tim stručnjaka za pravo, bioetiku, mašinsko učenje i srodna polja, bavi se potencijalnim uticajem LLM-a u kritičnim oblastima kao što su obrazovanje, akademsko izdavaštvo, intelektualna svojina i stvaranje pogrešnih i dezinformacije.
Obrazovanju i izdavaštvu je posebno potrebna brza akcija u vezi sa smernicama za korišćenje LLM i odgovornost. „Preporučujemo da podnesci članaka uključuju izjavu o korišćenju LLM-a, zajedno sa relevantnim dodatnim informacijama“, navode koautori Džon Mekmilan i Danijel Rodžer. „Otkrivanje za LLM bi trebalo da bude slično ljudskim doprinosima, uz priznavanje značajnih doprinosa.“
U radu se ističe da LLM mogu biti od pomoći u obrazovanju, ali upozorava da su skloni greškama i da prekomerna upotreba može uticati na veštine kritičkog razmišljanja. Institucije, pišu autori, treba da razmotre prilagođavanje stilova ocenjivanja, preispitivanje pedagogije i ažuriranje uputstava o nedoličnom ponašanju kako bi se efikasno bavile upotrebom LLM.
Prava u generisanom tekstu, kao što su prava intelektualne svojine i ljudska prava, čine još jednu oblast u kojoj se moraju brzo razraditi implikacije korišćenja LLM, primećuje koautorka Monika Ploca. „Prava intelektualne svojine i ljudska prava predstavljaju izazove jer se oslanjaju na pojmove rada i kreativnosti koji su uspostavljeni imajući na umu ljude. Moramo da razvijemo ili prilagodimo okvire kao što je ‘doprinos’ da bismo se nosili sa ovom tehnologijom koja se brzo razvija, istovremeno štiteći prava kreatora i korisnika .“
Nisu sve predvidljive upotrebe LLM benigne. „LLM-ovi se mogu koristiti za stvaranje štetnog sadržaja, uključujući velike pogrešne i dezinformacije“, upozorava koautor Džulijan Koplin. „Zato moramo da držimo ljude odgovornim za tačnost teksta generisanog LLM-om koji koriste, uz napore da edukujemo korisnike i poboljšamo politike moderiranja sadržaja kako bi se umanjili rizici.“
Da bi se pozabavili ovim i drugim rizicima vezanim za LLM, kažu koautori Nikolaj Møller i Peter Treit, programeri LLM bi mogli da slede primer samoregulacije u oblastima kao što je biomedicina. „Izgradnja i zasluživanje poverenja je ključno za dalji razvoj LLM-a. Promovisanjem transparentnosti i uključivanjem u otvorene diskusije, LLM programeri mogu da pokažu svoju posvećenost odgovornoj i etičkoj praksi.“