U našem digitalno posredovanom svetu, zločine rata je teško ignorisati. Ratišta u Evropi (Ukrajina–Rusija), na Bliskom istoku (Izrael–Hamas) i drugde prenose slike smrti i razaranja onoliko brzo koliko ih naši izvori mogu obraditi.
Kako veštačka inteligencija napreduje, ratno oružje postaje sve sposobnije da ubija ljude bez smislenog ljudskog nadzora, postavljajući zabrinjavajuća pitanja o načinu na koji će se današnji i sutrašnji ratovi voditi i kako bi autonomni sistemi oružja mogli da oslabe odgovornost kada su u pitanju potencijalna kršenja međunarodnog prava koji prisustvuju njihovom raspoređivanju.
Deniz Garsija, profesor političkih nauka i međunarodnih odnosa, sažima ove mračne realnosti u novu knjigu na temu pod naslovom „Vojna rasa veštačke inteligencije: Zajedničko dobro upravljanje u doba veštačke inteligencije“. Knjiga istražuje izazove u „stvaranju globalnog okvira upravljanja“ koji predviđa svet raširenih sistema naoružanja sa veštačkom inteligencijom u pozadini pogoršanja međunarodnog prava i normi – zaista, svet koji sve više opisuje onaj u kome sada živimo.
Govoreći za Northeastern Global Nevs, Garsija, koji je sedeo u Međunarodnom panelu za regulisanje autonomnog oružja od 2017. do 2022., primetio je da su vojne aplikacije veštačke inteligencije već raspoređene u tekućim sukobima u Evropi i na Bliskom istoku – jednom od najpoznatijih. primeri su gvozdena kupola Izraela.
Zaista, mogućnost da smrtonosni autonomni sistemi oružja uskoro budu raspoređeni na bojnom polju predstavlja hitnu potrebu za preduzimanjem kolektivnih akcija u obliku politika, sporazuma i posebnih zabrana tehnologije, kaže ona.
„Svet se mora okupiti i stvoriti nova globalna javna dobra, za koja bih rekao da treba da uključi okvir za upravljanje veštačkom inteligencijom, ali i opšte dogovorena pravila o upotrebi veštačke inteligencije u vojsci“, kaže Garsija.
Garsija kaže da ubrzanje tehnologije veštačke inteligencije ima implikacije i izvan ponašanja na bojnom polju – preliva se i na nacionalnu bezbednost. Godine 2021. Komisija za nacionalnu bezbednost SAD za veštačku inteligenciju pozvala je da SAD nastave brzi razvoj veštačke inteligencije kako bi zaštitile nacionalnu bezbednost i ostale konkurentne Rusiji i Kini.
Ali Garsija je tvrdio da ubrzanje militarizovane veštačke inteligencije kao takve nije pravi pristup i da rizikuje dodavanje više nestabilnosti ionako veoma nestabilnom međunarodnom sistemu. Ona tvrdi da je izveštaj američke komisije „vaskrsnuo“ tip razmišljanja i strategije iz doba hladnog rata koji su doveli do akumulacije više od 70.000 komada nuklearnog oružja tokom tog perioda.
Umesto toga, ona kaže da bi SAD trebalo da nastave da se zalažu za smanjenje nuklearnog arsenala, dok razvijaju standarde koji drže ljudska bića u čvrstoj kontroli vojnih odluka i odluka na bojnom polju – slučaj koji ona detaljno izlaže u knjizi.
„Jednostavno rečeno, veštačkoj inteligenciji ne treba verovati da donosi odluke o ratovanju“, kaže Garsija.
Mnogi akademici se slažu. Oko 4.500 istraživača veštačke inteligencije i robotike zajedno je reklo da veštačka inteligencija ne bi trebalo da donosi odluke u vezi sa ubijanjem ljudskih bića – što je stav, primećuje Garsija, koji je u skladu sa smernicama Evropskog parlamenta i uredbom Evropske unije. Američki zvaničnici su se, međutim, zalagali za regulatornu paradigmu rigoroznog testiranja i dizajna tako da ljudska bića mogu da koriste AI tehnologiju „da donesu odluku o ubijanju“.
„Ovo izgleda dobro na papiru, ali je veoma teško postići u stvarnosti, jer je malo verovatno da će algoritmi moći da asimiliraju ogromnu složenost onoga što se dešava u ratu“, kaže Garsija.
Ne samo da sistemi AI oružja prete da ugroze norme odgovornosti prema međunarodnom pravu, već i otežavaju procesuiranje ratnih zločina zbog problema povezanih sa pripisivanjem „borbenog statusa“ vojnoj AI tehnologiji, kaže Garsija.
„Međunarodno pravo — i zakoni uopšte — evoluirali su da budu usredsređeni na čoveka“, kaže ona. „Kada u jednačinu ubacite robota ili softver, ko će biti odgovoran?“
Ona nastavlja: „Poteškoće pripisivanja odgovornosti će ubrzati dehumanizaciju ratovanja. Kada se ljudi svedu na podatke, onda će se ljudsko dostojanstvo raspršiti.“
Postojeće AI i kvazi-AI vojne aplikacije već su izazvale talase u krugovima odbrane. Jedna takva aplikacija omogućava jednoj osobi da kontroliše više sistema bez posade, prema jednom izvoru, kao što je roj dronova sposobnih da napadaju iz vazduha ili ispod mora. U ratu u Ukrajini, lutajuća municija — avioni bez posade koji koriste senzore za identifikaciju ciljeva, ili „dronovi ubice“ — izazvali su debatu o tome koliku precizno kontrolu imaju ljudski agenti nad odlukama o ciljanju.