Meta će svoje modele generativne veštačke inteligencije (AI) staviti na raspolaganje vladi Sjedinjenih Država, najavio je ovaj tehnološki gigant, u kontroverznom potezu koji izaziva moralnu dilemu za sve koji koriste softver.
Meta je prošle nedelje otkrila da će modele, poznate kao Llama, učiniti dostupnim vladinim agencijama, „uključujući one koje rade na aplikacijama za odbranu i nacionalnu bezbednost, i partnerima iz privatnog sektora koji podržavaju njihov rad“.
Čini se da je odluka u suprotnosti sa Metinom politikom koja navodi niz zabranjenih upotreba za Llamu, uključujući „[vojnu], ratnu, nuklearnu industriju ili aplikacije“, kao i špijunažu, terorizam, trgovinu ljudima i eksploataciju ili nanošenje štete deci.
Metin izuzetak se navodno odnosi i na slične agencije za nacionalnu bezbednost u Ujedinjenom Kraljevstvu, Kanadi, Australiji i Novom Zelandu. Došlo je samo tri dana nakon što je Rojters otkrio da je Kina preradila Llamu za sopstvene vojne svrhe.
Situacija naglašava sve veću krhkost softvera AI otvorenog koda. To takođe znači da korisnici Facebook-a, Instagrama, VhatsApp-a i Messenger-a—čije neke verzije koriste Llamu—možda nehotice doprinose vojnim programima širom sveta.
Llama je skup velikih jezičkih modela—slično ChatGPT—i velikih multimodalnih modela koji se bave podacima koji nisu tekst, kao što su audio i slike.
Meta, matična kompanija Facebook-a, objavila je Llamu kao odgovor na OpenAI ChatGPT. Ključna razlika između njih je u tome što se svi Llama modeli prodaju kao otvoreni kod i besplatni za upotrebu. To znači da svako može da preuzme izvorni kod Llama modela i da ga sam pokrene i izmeni (ako ima odgovarajući hardver). S druge strane, ChatGPT-u se može pristupiti samo preko OpenAI-a.
Inicijativa otvorenog koda, autoritet koji definiše softver otvorenog koda, nedavno je objavio standard koji određuje šta bi AI otvorenog koda trebalo da podrazumeva. Standard opisuje „četiri slobode“ koje AI model mora dati da bi bio klasifikovan kao open source:
Meta’s Llama ne ispunjava ove uslove. To je zbog ograničenja komercijalne upotrebe, zabranjenih aktivnosti koje se mogu smatrati štetnim ili nezakonitim i nedostatka transparentnosti podataka o Llaminoj obuci.
Uprkos tome, Meta i dalje opisuje Llamu kao otvoreni kod.
Meta nije jedina komercijalna tehnološka kompanija koja se bavi vojnim primenama veštačke inteligencije. Prošle nedelje, Anthropic je takođe najavio da se udružuje sa Palantir—kompanijom za analizu podataka—i Amazon Veb Services kako bi američkim obaveštajnim i odbrambenim agencijama omogućio pristup svojim AI modelima.
Meta je branio svoju odluku da dozvoli američkim agencijama za nacionalnu bezbednost i odbrambenim izvođačima da koriste Llamu. Kompanija tvrdi da je ova upotreba „odgovorna i etička“ i „podržava prosperitet i bezbednost Sjedinjenih Država“.
Meta nije bila transparentna u vezi sa podacima koje koristi za obuku Lame. Ali kompanije koje razvijaju generativne AI modele često koriste korisničke ulazne podatke da dodatno obuče svoje modele, a ljudi dele mnogo ličnih informacija kada koriste ove alate.
ChatGPT i Dall-E pružaju opcije za onemogućavanje prikupljanja vaših podataka. Međutim, nejasno je da li Llama nudi isto.
Opcija za odustajanje nije izričito jasna kada se prijavljujete za korišćenje ovih usluga. Ovo stavlja teret na korisnike da se informišu – a većina korisnika možda nije svesna gde i kako se Llama koristi.
Na primer, najnovija verzija Llame pokreće AI alate na Facebook-u, Instagramu, VhatsApp-u i Messenger-u. Kada koriste funkcije veštačke inteligencije na ovim platformama – kao što su pravljenje kolutova ili predlaganje titlova – korisnici koriste Llamu.
Prednosti otvorenog koda uključuju otvoreno učešće i saradnju na softveru. Međutim, ovo takođe može dovesti do krhkih sistema kojima se lako manipuliše. Na primer, nakon ruske invazije na Ukrajinu 2022. godine, građani su uneli promene u softver otvorenog koda kako bi izrazili svoju podršku Ukrajini.
Ove promene su uključivale antiratne poruke i brisanje sistemskih datoteka na ruskim i beloruskim računarima. Ovaj pokret je postao poznat kao „protestni softver“.
Ukrštanje AI otvorenog koda i vojnih aplikacija će verovatno pogoršati ovu krhkost jer robustnost softvera otvorenog koda zavisi od javne zajednice. U slučaju velikih jezičkih modela kao što je Llama, oni zahtevaju javnu upotrebu i angažovanje jer su modeli dizajnirani da se vremenom poboljšavaju kroz povratnu spregu između korisnika i AI sistema.
Uzajamno korišćenje alata AI otvorenog koda spaja dve strane – javnost i vojsku – koje su istorijski imale odvojene potrebe i ciljeve. Ova promena će otkriti jedinstvene izazove za obe strane.
Za vojsku, otvoreni pristup znači da se finiji detalji o tome kako AI alatka radi mogu lako dobiti, što potencijalno dovodi do problema sa bezbednošću i ranjivosti. Za širu javnost, nedostatak transparentnosti u načinu na koji vojska koristi korisničke podatke može dovesti do ozbiljne moralne i etičke dileme.