Brzi razvoj veštačke inteligencije (AI) doveo je do njene primene u sudnicama u inostranstvu. U Kini robotske sudije odlučuju o sporovima male vrednosti, dok se u nekim malezijskim sudovima AI koristi za preporuku kazni za krivična dela kao što je posedovanje droge, piše The Conversation.
Da li je vreme da Novi Zeland razmotri veštačku inteligenciju u svom pravosudnom sistemu?
Intuitivno, ne želimo da nam kompjuter sudi. I postoje dobri razlozi za naše oklevanje — sa opravdanom zabrinutošću zbog mogućnosti pristrasnosti i diskriminacije. Ali da li to znači da treba da se plašimo svake upotrebe veštačke inteligencije na sudovima?
U našem sadašnjem sistemu, sudija izriče kaznu okrivljenom kada se proglasi krivim. Društvo veruje sudijama da izriču pravedne kazne na osnovu svog znanja i iskustva.
Ali izricanje kazne je zadatak koji AI možda može da izvrši – na kraju krajeva, AI mašine se već koriste za predviđanje nekog kriminalnog ponašanja, kao što je finansijska prevara. Pre nego što razmotrimo ulogu veštačke inteligencije u sudnici, onda nam je potrebno jasno razumevanje šta ona zapravo jeste.
AI jednostavno se odnosi na mašinu koja se ponaša na način koji ljudi identifikuju kao „inteligentni“. Najsavremeniji AI je mašinsko učenje, gde kompjuterski algoritam uči obrasce unutar skupa podataka. Na primer, algoritam mašinskog učenja mogao bi da nauči obrasce u bazi podataka kuća na Trade Me da bi predvideo cene kuća.
Dakle, može li izricanje AI kazne biti izvodljiva opcija na novozelandskim sudovima? Kako bi to moglo da izgleda? Ili bi AI barem mogla pomoći sudijama u procesu izricanja kazne?
Na Novom Zelandu, sudije moraju odmeriti niz olakšavajućih i otežavajućih varijabli pre nego što odluče o kazni za osuđenog zločinca. Svaki sudija koristi svoje diskreciono pravo u odlučivanju o ishodu predmeta. U isto vreme, sudije moraju težiti doslednosti u celom pravosudnom sistemu.
Konzistentnost znači da bi slična krivična dela trebalo da dobiju slične kazne u različitim sudovima sa različitim sudijama. Da bi se poboljšala konzistentnost, sudovi višeg nivoa su pripremili presude sa smjernicama na koje se sudije pozivaju prilikom izricanja kazne.
Ali diskrecija radi na suprotan način. U našem sadašnjem sistemu, sudije bi trebalo da imaju slobodu da individualizuju kaznu nakon potpune ocene predmeta.
Sudije treba da uzmu u obzir individualne okolnosti, društvene norme, ljudsko stanje i osećaj za pravdu. Oni mogu da koriste svoje iskustvo i osećaj humanosti, donose moralne odluke, pa čak i ponekad menjaju zakon.
Ukratko, postoji „poželjna nedoslednost“ koju trenutno ne možemo očekivati od računara. Ali može postojati i neka „nepoželjna nedoslednost“, kao što je pristrasnost ili čak strani faktori poput gladi. Istraživanja su pokazala da u nekim izraelskim sudovima procenat povoljnih odluka pada na skoro nulu pre ručka.
Ovde AI može imati ulogu u odlukama o kazni. Postavili smo algoritam za mašinsko učenje i obučili ga koristeći 302 slučaja napada na Novom Zelandu, sa kaznama između nula i 14,5 godina zatvora.
Na osnovu ovih podataka, algoritam je napravio model koji može uzeti novi slučaj i predvideti dužinu rečenice.
Lepota algoritma koji smo koristili je u tome što model može objasniti zašto je napravio određena predviđanja. Naš algoritam kvantifikuje fraze koje model ima najveću težinu prilikom izračunavanja rečenice.
Da bismo procenili naš model, dali smo mu 50 novih scenarija izricanja kazne koje nikada ranije nije video. Zatim smo uporedili predviđenu dužinu rečenice modela sa stvarnim rečenicama.
Relativno jednostavan model je funkcionisao prilično dobro. Predviđao je kazne sa prosečnom greškom od nešto manje od 12 meseci.
Model je naučio da su reči ili fraze kao što su „seksualac“, „mlada osoba“, „taksi“ i „vatreno oružje“ u korelaciji sa dužim rečenicama, dok su reči kao što su „profesionalac“, „karijera“, „vatra“ i „fejsbuk“ u korelaciji sa kraćim rečenicama.
Mnoge fraze su lako objašnjive—„seksualno“ ili „vatreno oružje“ mogu biti povezane sa teškim oblicima napada. Ali zašto „mlada osoba” teži ka višem zatvoru, a „Fejsbuku” manje? I kako se prosečna greška od 12 meseci može porediti sa varijacijama ljudskih sudija?
Odgovori na ta pitanja su mogući putevi za buduća istraživanja. Ali to je korisna alatka koja nam pomaže da bolje razumemo kaznu.
Jasno je da ne možemo testirati naš model tako što ćemo ga koristiti u sudnici za izricanje kazni. Ali to nam daje uvid u naš proces izricanja kazne.
Sudije bi mogle da koriste ovu vrstu modeliranja kako bi razumele svoje odluke o kazni i možda uklonile strane faktore. Modele veštačke inteligencije takođe bi mogli da koriste advokati, dobavljači pravne tehnologije i istraživači za analizu sistema izricanja kazni i pravosuđa.
Možda bi model veštačke inteligencije takođe mogao da pomogne u stvaranju neke transparentnosti oko kontroverznih odluka, kao što je pokazivanje javnosti da naizgled kontroverzne rečenice kao što je silovatelj koji dobija kućni pritvor možda nisu posebno neobične.
Većina bi tvrdila da konačne procene i odluke o pravdi i kazni treba da donesu ljudski stručnjaci. Ali lekcija iz našeg eksperimenta je da se ne treba plašiti reči „algoritam“ ili „AI“ u kontekstu našeg pravosudnog sistema. Umesto toga, trebalo bi da razgovaramo o stvarnim (a ne zamišljenim) implikacijama korišćenja tih alata za opšte dobro.