Novi alat obnavlja ugrožene modele dubokog učenja kako bi istraživači mogli da razumeju šta je pošlo naopako

Novi alat obnavlja ugrožene modele dubokog učenja kako bi istraživači mogli da razumeju šta je pošlo naopako

Zamislite da ste putnik u automobilu koji se samostalno vozi dok vozilo počinje da skreće sa puta. Nije neispravan senzor koji uzrokuje opasnu situaciju – to je sajber napad. Hakeri mogu pristupiti neuronskim mrežama dubokog učenja (DL) u srcu kompjuterskog sistema vozila, ugrožavajući bezbednost njegovih putnika, kao i drugih vozača i pešaka.

Zaustavljanje takvih sajber napada zahteva njihovo prvo razumevanje, ali to može biti izazovno. Pronalaženje tačne duboke neuronske mreže računarskog sistema ima mnogo prepreka. Oni su često vlasnički i, stoga, nedostupni istražiteljima bez značajne pravne intervencije. Još jedan uobičajeni problem je to što se često ažuriraju, što otežava istraživačima da pristupe najnovijoj iteraciji mreže.

Ali nova alatka iz Georgia Tech-a mogla bi da otključa misteriozni malver na bezbroj neuronskih mreža u svemu, od samovozećih automobila do IMDB baze podataka zabave. AI psihijatrija (AiP) je forenzički alat za postmortalnu sajber bezbednost koji koristi veštačku inteligenciju da bi povratio tačne modele na kojima radi kompromitovana mašina i otkrio gde se desila fatalna greška.

„Verujemo samovozećim automobilima svoje živote i ChatGPT-u svoje karijere, ali kada ti sistemi pokvare, kako ćemo ih istražiti?“ rekao je Brendan Saltaformađo, vanredni profesor sa zajedničkim imenovanjima u Školi za sajber bezbednost i privatnost i Školi za elektrotehniku i računarstvo (ECE).

AiP može oporaviti originalni DL model i na memoriji lokalne mreže i na jedinici za grafičku obradu koja obučava mrežu. To može da postigne bez ikakvog specifičnog znanja o okviru modela, platformi ili verziji. Umesto toga, on ponovo kreira model koristeći ono što Saltaformaggio naziva „tragovima“ ili uobičajenim komponentama u svim neuronskim mrežama.

Ovo uključuje težine, predrasude, oblike i slojeve iz memorijske slike modela—zamrznuti skup bitova i bajtova koji rade kada model radi normalno. Memorijska slika je ključna jer omogućava AiP-u da je uporedi sa modelom nakon napada.

„Ovi modeli često preciziraju svoje informacije u toku rada, na osnovu njihovog trenutnog okruženja, tako da se napad može desiti kao rezultat napadača koji zatroje informacije koje određeni model uči“, rekao je David Oigenblik, ECE dr. student. „Utvrdili smo da će memorijska slika uhvatiti sve one promene koje se dešavaju tokom vremena rada.“

Kada se model oporavi, AiP može da ga pokrene na drugom uređaju, dozvoljavajući istražiteljima da ga temeljno testiraju kako bi utvrdili gde leže nedostaci. AiP je testiran sa različitim verzijama popularnih okvira za mašinsko učenje (TensorFlov i PiTorch) i skupova podataka (CIFAR-10, LISA i IMDB). Uspešno je oporavio i ponovo hostovao 30 modela sa 100% tačnosti.

„Pre našeg istraživanja niste mogli da odete na sajber „mesto zločina“ i pronađete tragove jer nije bilo dostupne tehnike za to“, rekao je Saltaformađo. „To je ono što trenutno uvodimo u laboratoriju za sajber forenziku — tehnike za izvlačenje tih dokaza sa mesta zločina.

Alati poput AiP-a će omogućiti sajber istražiteljima da odmah vide celu sliku. Rešavanje sajber zločina može pomoći u sprečavanju budućih, od zaštite podataka korisnika do zadržavanja automobila na putu.