Kako veštačka inteligencija može sprečiti analitičare za sajber bezbednost da se ne udave u moru podataka

Kako veštačka inteligencija može sprečiti analitičare za sajber bezbednost da se ne udave u moru podataka

Kako se organizacije sve više oslanjaju na mreže, onlajn platforme, podatke i tehnologiju, rizici povezani sa kršenjem podataka i kršenjem privatnosti su ozbiljniji nego ikad. Uparite ovo sa eskalacijom učestalosti i sofisticiranošću sajber pretnji i postaje jasno da jačanje odbrane sajber bezbednosti nikada nije bilo važnije.

Analitičari za sajber bezbednost su na prvim linijama ove bitke, radeći danonoćno u bezbednosnim operativnim centrima (SOC) – jedinicama koje štite organizacije od sajber pretnji – kako bi pregledali ogromnu količinu podataka dok nadgledaju potencijalne bezbednosne incidente.

Oni su suočeni sa ogromnim tokovima informacija iz različitih izvora, u rasponu od mrežnih dnevnika do izvora obaveštajnih podataka o pretnjama, pokušavajući da spreče sledeći napad. Ukratko, preplavljeni su. Ali previše podataka nikada nije predstavljalo problem za veštačku inteligenciju, tako da mnogi stručnjaci traže da veštačka inteligencija ojača strategije sajber bezbednosti i ublaži pritisak na analitičare.

Stiven Švab, direktor strategije za Odeljenje za umrežavanje i sajber bezbednost Instituta za informacione nauke (ISI) USC-a, predviđa da simbiotski timovi ljudi i veštačke inteligencije sarađuju na poboljšanju bezbednosti, tako da AI može da pomogne analitičarima i poboljša njihov ukupni učinak u ovim okruženjima sa visokim ulozima. Švab i njegov tim razvili su testne ploče i modele za istraživanje strategija sajber bezbednosti uz pomoć veštačke inteligencije u manjim sistemima, kao što je zaštita društvenih mreža.

„Pokušavamo da osiguramo da procesi mašinskog učenja mogu olakšati, ali ne i povećati ove brige i olakšati radno opterećenje ljudskog analitičara“, rekao je on.

Dejvid Balenson, pomoćnik direktora ISI-jevog odeljenja za umrežavanje i sajber bezbednost, naglašava kritičnu ulogu automatizacije u ublažavanju tereta analitičara za sajber bezbednost. „SOC-ovi su preplavljeni upozorenjima koja analitičari moraju brzo analizirati u realnom vremenu i odlučiti koji su simptomi stvarnog incidenta. Tu stupaju u igru AI i automatizacija, uočavajući trendove ili obrasce upozorenja koji bi mogli biti potencijalni incidenti“, kaže Balenson .

Međutim, integracija veštačke inteligencije u operacije sajber bezbednosti nije bez izazova. Jedna od primarnih briga je nedostatak transparentnosti i objašnjivosti svojstvenih mnogim sistemima vođenim veštačkom inteligencijom. „Mašinsko učenje (ML) je korisno za praćenje mreža i krajnjih sistema gde su ljudski analitičari umorni“, objašnjava Švab. „Ipak, oni su crna kutija—oni mogu da odaberu upozorenja koja mogu izgledati neobjašnjiva. Ovde dolazi do objašnjivosti, pošto ljudski analitičar mora da veruje da sistem ML-a funkcioniše u granicama razuma.“

Rešenje koje Schvab predlaže je izgradnja objašnjavača koji prikazuju radnje ML sistema na kompjuterizovanom engleskom, sličnom prirodnom jeziku, koji analitičar može da razume. Marjorie Freedman, glavni naučnik u ISI-ju, istražuje ovo. „Gledala sam šta znači generisati objašnjenja i šta želite od objašnjenja. Takođe istražujemo kako objašnjenje može pomoći osobi da verifikuje generaciju modela“, rekla je ona.

Jedan primer objašnjenja za AI odluku u sajber bezbednosti je proces onlajn autentifikacije. Kada se autentifikuju na sistemu, korisnici upisuju lozinku ili PIN kod. Međutim, različiti ljudi unose podatke u različite obrasce, koje AI može označiti čak i ako je kod ispravno unet.

Ovi „potencijalno sumnjivi“ obrasci možda zapravo nisu kršenja bezbednosti, ali AI ih ipak uzima u obzir. Ako se, uz njihovo označavanje, ljudskom analitičaru pruži objašnjenje koje navodi obrazac unosa kao jedan od razloga za označavanje, analitičar će bolje razumeti razloge za donošenje odluka AI. I naoružan tim dodatnim informacijama, analitičar može donositi odluke na osnovu boljeg informisanja i preduzeti odgovarajuće mere (tj. potvrditi ili poništiti odluku AI). Fridman veruje da bi operacije sajber bezbednosti trebalo da vode svoj najbolji model pranja novca za predviđanje, identifikaciju i rešavanje pretnji uporedo sa pristupima koji stručnjacima efikasno objašnjavaju odluku.

„Ako neko gasi sistem koji će kompaniju koštati mnogo novca, to je situacija sa visokim ulozima u kojoj moramo da potvrdimo da je to ispravna odluka“, rekao je Fridman. „Objašnjenje možda nije baš izvod veštačke inteligencije o tome kako je dospeo tamo, ali može biti ono što ljudski analitičar treba da zna da bi utvrdio da li je tačno ili ne.@