ChatGPT i drugi veliki jezički modeli (LLM) ne mogu samostalno da uče ili steknu nove veštine, što znači da ne predstavljaju egzistencijalnu pretnju čovečanstvu, prema novom istraživanju Univerziteta u Batu i Tehničkog univerziteta u Darmštatu u Nemačkoj.
Studija, objavljena danas kao deo zbornika 62. godišnjeg sastanka Udruženja za računarsku lingvistiku (ACL 2024) – prvenstvene međunarodne konferencije o obradi prirodnog jezika – otkriva da LLM imaju površnu sposobnost da prate uputstva i da se ističu u veštini u jezika, međutim, nemaju potencijal da ovladaju novim veštinama bez eksplicitnih instrukcija. To znači da oni ostaju inherentno kontrolisani, predvidljivi i sigurni.
Istraživački tim je zaključio da LLM, koji se obučavaju za sve veće skupove podataka, mogu nastaviti da se primenjuju bez zabrinutosti za bezbednost, iako se tehnologija i dalje može zloupotrebiti.
Sa rastom, ovi modeli će verovatno generisati sofisticiraniji jezik i postati bolji u praćenju eksplicitnih i detaljnih uputstava, ali je malo verovatno da će steći složene veštine rezonovanja.
„Preovlađujući narativ da je ova vrsta veštačke inteligencije pretnja čovečanstvu sprečava široko usvajanje i razvoj ovih tehnologija, a takođe skreće pažnju sa stvarnih pitanja koja zahtevaju naš fokus“, rekao je dr Hariš Tajar Madabuši, kompjuterski naučnik na Univerzitetu. Bath-a i koautor nove studije o „emergentnim sposobnostima“ LLM-a.
Zajednički istraživački tim, predvođen profesorkom Irinom Gurevič sa Tehničkog univerziteta u Darmštatu u Nemačkoj, sproveo je eksperimente kako bi testirao sposobnost LLM-a da završe zadatke na koje modeli nikada ranije nisu naišli – takozvane emergentne sposobnosti.
Ilustracije radi, LLM mogu odgovoriti na pitanja o društvenim situacijama, a da nikada nisu bili eksplicitno obučeni ili programirani da to rade. Dok su prethodna istraživanja sugerisala da je ovo proizvod modela koji „znaju“ o društvenim situacijama, istraživači su pokazali da je to u stvari rezultat modela koji koriste dobro poznatu sposobnost LLM-a da završe zadatke na osnovu nekoliko primera koji su im predstavljeni, poznatih. kao „učenje u kontekstu“ (ICL).
Kroz hiljade eksperimenata, tim je pokazao da kombinacija sposobnosti LLM-a da prati uputstva (ICL), pamćenja i lingvističkog znanja može da objasni i mogućnosti i ograničenja koja pokazuju LLM.
Dr Tajar Madabuši je rekao: „Strah je bio da će, kako modeli budu sve veći i veći, moći da reše nove probleme koje trenutno ne možemo da predvidimo, što predstavlja pretnju da bi ovi veći modeli mogli da steknu opasne sposobnosti uključujući rasuđivanje i planiranje.
„Ovo je izazvalo mnogo diskusija – na primer, na Samitu o AI bezbednosti prošle godine u Blečli parku, za koji smo zamoljeni za komentar – ali naša studija pokazuje da strah da će model nestati i učiniti nešto potpuno neočekivano, inovativan i potencijalno opasan nije validan.
„Zabrinutost zbog egzistencijalne pretnje koju predstavljaju LLM nisu ograničena samo na nestručnjake i izrazili su je neki od vrhunskih istraživača veštačke inteligencije širom sveta.
Međutim, dr Madabuši smatra da je ovaj strah neosnovan, jer su testovi istraživača jasno pokazali odsustvo novih kompleksnih sposobnosti rasuđivanja u LLM.
„Iako je važno pozabaviti se postojećim potencijalom za zloupotrebu veštačke inteligencije, kao što je stvaranje lažnih vesti i povećan rizik od prevare, bilo bi preuranjeno donositi propise zasnovane na uočenim egzistencijalnim pretnjama“, rekao je on.
„Važno je da to znači za krajnje korisnike da će oslanjanje na LLM da tumače i izvršavaju složene zadatke koji zahtevaju složeno rezonovanje bez eksplicitnih instrukcija verovatno biti greška. Umesto toga, korisnici će verovatno imati koristi od eksplicitnog preciziranja šta od modela zahtevaju da urade i pružanje primera gde je to moguće za sve osim najjednostavnijih zadataka.“
Profesor Gurevich je dodao: „Naši rezultati ne znače da veštačka inteligencija uopšte nije pretnja. Umesto toga, pokazujemo da navodna pojava složenih veština razmišljanja povezanih sa specifičnim pretnjama nije podržana dokazima i da možemo da kontrolišemo proces učenja LLM-a. na kraju krajeva, buduća istraživanja trebalo bi da se fokusiraju na druge rizike koje predstavljaju modeli, kao što je njihov potencijal da se koriste za generisanje lažnih vesti.“