Usred naglo rastuće popularnosti velikih jezičkih modela (LLM), istraživači iz Nacionalne laboratorije Lorens Livermor pobliže razmatraju kako ovi sistemi veštačke inteligencije (AI) rade pod merljivom kontrolom.
LLM su generativni AI alati obučeni na ogromnim količinama podataka kako bi se proizveo tekstualni odgovor na upit. Ova tehnologija ima potencijal da ubrza naučna istraživanja na brojne načine, od aplikacija za sajber bezbednost do autonomnih eksperimenata. Ali čak i ako je model sa milijardom parametara obučen na trilionima tačaka podataka, možemo li se i dalje osloniti na njegov odgovor?
Dva rada u koautorstvu iz Livermora koji ispituju pouzdanost LLM – kako model koristi podatke i donosi odluke – prihvaćena su na Međunarodnoj konferenciji o mašinskom učenju 2024.
„Ova tehnologija ima veliki zamah i možemo je učiniti boljom i sigurnijom“, rekao je Bhavia Kailkhura, koji je koautor oba rada.
Obuka o ogromnim količinama podataka nije potvrda pouzdanosti modela. Na primer, pristrasne ili privatne informacije mogu da zagade skup podataka za obuku ili model možda neće moći da otkrije pogrešne informacije u upitu korisnika. I iako su se LLM značajno poboljšali kako su se povećali, manji modeli ponekad mogu nadmašiti veće. Na kraju, istraživači se suočavaju sa dvostrukim izazovima procene verodostojnosti i definisanja standarda za to.
U „TrustLLM: Pouzdanost u velikim jezičkim modelima“, Kailkhura se pridružio saradnicima sa univerziteta i istraživačkih organizacija širom sveta kako bi razvio sveobuhvatan okvir za procenu pouzdanosti. Ispitali su 16 mejnstrim LLM-ova – među njima ChatGPT, Vicuna i Llama2 – u osam dimenzija pouzdanosti, koristeći 30 javnih skupova podataka kao merila za niz jednostavnih do složenih zadataka. Rad je objavljen na arKsiv preprint serveru.
Predvođena Univerzitetom Lehigh, studija je duboko uronjena u ono što model čini pouzdanim. Autori su prikupili metriku procene iz već obimne naučne literature o LLM-u, pregledajući više od 600 radova objavljenih u poslednjih pet godina.
„Ovo je bio napor velikih razmera“, rekao je Kailkhura, „Ne možete sami da rešite ove probleme.“
Rezultat tima TrustLLM okvir definiše sledeće dimenzije. Pravedan model izbegava diskriminatorne ishode, kao što je odbijanje da se odgovori na demografske stereotipe ili rodne predrasude. Mašinska etika meri prepoznavanje ljudskog morala i emocija od strane modela, kao što je razlikovanje između ispravnog i pogrešnog ako upit korisnika implicira nanošenje štete drugoj osobi. Privatnost meri da li model otkriva osetljive informacije čak i ako skup podataka za obuku sadrži, na primer, brojeve telefona.
Pored toga, robusnost se odnosi na sposobnost modela da rukuje anomalijama ili neočekivanim podacima, a bezbednost se odnosi na njegovu otpornost na manipulaciju podacima ili pokušaje eksploatacije, kao što je zahtev da se obezbede sastojci za eksplozivnu napravu. Istinoljubiv model predstavlja činjenice, navodi svoja ograničenja — kao što je pitanje o trenutnom događaju koji se brzo menja — i ne „halucinira“ netačne ili besmislene informacije.
Druge dve dimenzije je teže izmeriti zbog složene prirode LLM-a velikih razmera. Odgovornost znači davanje porekla(a) rezultata, dok se transparentnost odnosi na detaljna objašnjenja koraka donošenja odluka i obrazloženja.
Ovi standardi su visoki. Kao što nedavni naslovi u vezi sa autorskim pravima ističu, LLM ne citiraju svoje izvore, niti njihovi vlasnici preuzimaju odgovornost za spojene skupove podataka. Štaviše, skupovi podataka za obuku mogu sadržati bilo koji broj nesavršenosti, nevinih ili suprotstavljenih. Razumno etički model može biti ranjiv na napade.
„Ne možete gledati samo jedan aspekt pouzdanosti. Morate pogledati kako model radi u svim metrikama“, rekao je Kailkhura.
TrustLLM evaluacije su dale različite rezultate. Većina modela je odbila da pruži privatne informacije kada su dobili uputstva da prate politiku privatnosti, a odgovori na pitanja sa višestrukim izborom bili su tačniji od pitanja otvorenog tipa. Vlasnički modeli (zatvorenog koda) su imali tendenciju da rade bolje od modela otvorenog koda, za koje je Kailkhura rekao da se mogu pripisati ulaganjima kompanija u razvoj.
Ipak, model sa najboljim učinkom u identifikaciji stereotipa postigao je samo 65% tačnosti, a performanse između modela su značajno varirale kada su se suočili sa neočekivanim podacima. Tim je takođe primetio trend preteranog usklađivanja, gde su bezbednosni rezultati modela dopunjeni lažnim pozitivnim rezultatima.
Nijedan od testiranih modela nije bio zaista pouzdan prema TrustLLM merilima. Dobra vest je, međutim, da je studija pokazala gde ovi modeli ne uspeju, što može da podstakne fokus na pouzdanost dok programeri LLM nastavljaju da poboljšavaju tehnologiju.
„LLM-ovi su osnovni modeli od sve veće važnosti za laboratoriju i njene nacionalne bezbednosne aplikacije, zbog čega je naše istraživanje bezbednosti veštačke inteligencije kritično“, rekao je Kailkhura.
Kako se LLM povećavaju, performanse računara će i dalje predstavljati izazov. Drugi referat sa konferencije istražuje pouzdanost u kontekstu kompresije, gde je model modifikovan da bi se smanjila količina podataka i računarskih resursa neophodnih za efikasnost.
Na primer, kompresovanje modela sa 13 milijardi na 7 milijardi parametara može prepoloviti njegovo kašnjenje, u zavisnosti od računarskog hardvera koji ga pokreće. Najsavremenije tehnike kompresije su dizajnirane da povećaju brzinu odziva modela, ali često daju prednost performansama u odnosu na pouzdane rezultate.
„Naše istraživanje pruža praktične smernice za proizvodnju lakih, pouzdanih LLM-ova u istraživačkim projektima ili aplikacijama širom laboratorije“, rekao je Džejms Difenderfer, koji je koautor „Dekodiranje komprimovanog poverenja: ispitivanje pouzdanosti efikasnih LLM-ova pod kompresijom“ zajedno sa Kailkhurom, Brianom Bartoldsonom i kolege sa nekoliko univerziteta. Tim je primenio pet tehnika kompresije na vodeće LLM, testirajući efekte na različite metrike pouzdanosti. Rad je objavljen na arKsiv preprint serveru.
Ovaj rad se zasniva na prethodnim istraživanjima u konvolucionim neuronskim mrežama (CNN) sa tehnikama kompresije kao što su orezivanje (uklanjanje nebitnih parametara iz modela) i kvantizacija (smanjenje računarske preciznosti modela) — oba se mogu primeniti na LLM sami ili u kombinaciji.
„Prošlo istraživanje Livermorea sa CNN-ima pokazalo je da ove tehnike mogu uticati na tačnost i robusnost“, rekao je Diffenderfer. „Da bi LLM postali sveprisutniji i upotrebljiviji kroz kompresiju, važno je izvršiti ove studije i identifikovati strategije kako bi LLM učinili efikasnijim bez degradiranja njihove pouzdanosti.“
Tim je otkrio da je kompresija putem kvantizacije generalno bolja – tj. da je model postigao veći rezultat na metrikama poverenja – od kompresije putem rezanja. Štaviše, videli su poboljšane performanse 4-bitnih kvantizovanih modela na određenim zadacima pouzdanosti u poređenju sa modelima sa 3- i 8-bitnom kompresijom. Čak i na istom nivou kompresije, neki modeli su, na primer, postigli više rezultate u zadacima etike i pravednosti, a niže u zadacima privatnosti.
„Uticaj na performanse za svaki zadatak varirao je na osnovu algoritma kvantizacije koji se koristi za kompresiju LLM-a“, rekao je Diffenderfer. „Određeni oblici kompresije su pogodniji za primenu lakih LLM-ova bez preteranog ugrožavanja njihove pouzdanosti.“
U nekim slučajevima, kompresija može čak poboljšati pouzdanost modela. Ipak, previše kompresije može da se obori, jer su rezultati pouzdanosti opali nakon određenog trenutka.
„Želeli smo da pronađemo tu liniju. Koliko možemo da komprimujemo ove LLM pre nego što počnu da se ponašaju na način koji je manje koristan?“, rekao je on.
Brz tempo razvoja LLM postavlja nova pitanja čak i kada istraživači odgovaraju na postojeća. I sa sve većim naglaskom na ovu tehnologiju među AI/ML zajednicom i na vrhunskim konferencijama, razumevanje kako LLM funkcionišu je ključ za realizaciju njihovog potencijala.
„Izvođenjem velikih empirijskih studija, primetili smo da određeni algoritmi kompresije poboljšavaju performanse LLM-a, dok drugi štete performansama“, rekao je Difenderfer. „Ovi rezultati su dragoceni za proizvodnju efikasnih, pouzdanih modela u budućnosti ili dizajniranje poboljšanih arhitektura koje su suštinski efikasnije i pouzdanije.“
Livermorovo LLM istraživanje proteže se dalje od ovih radova i otkriva važne uvide u arenu visokih uloga bezbednosti veštačke inteligencije, koja je u fokusu Izvršne naredbe Bele kuće iz oktobra 2023. Program istraživanja i razvoja usmerenih na laboratorije finansira projekte koji se bave različitim aspektima bezbednosti, a stručnjaci Laboratorije neprestano istražuju načine da maksimiziraju koristi od veštačke inteligencije/ML uz istovremeno minimiziranje rizika. (Posetite veb lokaciju Instituta za nauku podataka za listu publikacija visokog profila o ovim temama.)
„Svaki veliki tehnološki napredak rezultira pozitivnim i negativnim uticajima. U kontekstu Ministarstva energetike i nacionalne bezbednosti, AI tehnologije imaju odgovornost da budu bezbedne i bezbedne“, rekao je Kailkhura. „Već neko vreme radim na ovom problemu i prilično sam uveren da ćemo poboljšati moćne AI modele i rešiti ključne naučne izazove sa njima. Moramo da budemo proaktivni i da se krećemo brzo.“