Simulator napada otkriva nadzor nad alatima za prepoznavanje AI slika i ublažavanje sajber pretnji

Simulator napada otkriva nadzor nad alatima za prepoznavanje AI slika i ublažavanje sajber pretnji

Veštačka inteligencija može pomoći ljudima da obrađuju i shvate velike količine podataka sa preciznošću, ali moderne platforme za prepoznavanje slika i modeli kompjuterskog vida koji su ugrađeni u veštačku inteligenciju često zanemaruju važnu pozadinsku funkciju koja se zove alfa kanal, koji kontroliše transparentnost slika, prema novoj studiji.

Istraživači sa Univerziteta Teksas u San Antoniju (UTSA) razvili su vlasnički napad pod nazivom AlphaDog kako bi proučili kako hakeri mogu da iskoriste ovaj nadzor. Njihovi nalazi su opisani u radu koji su napisali Guenevere Chen, docent na UTSA odeljenju za elektrotehniku i računarstvo, i njen bivši student doktorskih studija, Ki Ksia ’24, a objavio je Mrežni i distribuirani simpozijum bezbednosti sistema 2025.

U radu, istraživači UTSA opisuju tehnološku prazninu i nude preporuke za ublažavanje ove vrste sajber pretnji.

„Imamo dve mete. Jedna je ljudska žrtva, a jedna veštačka inteligencija“, objasnio je Čen.

Da bi procenili ranjivost, istraživači su identifikovali i iskoristili napad alfa kanala na slike tako što su razvili AlphaDog. Simulator napada uzrokuje da ljudi vide slike drugačije od mašina. Radi tako što manipuliše transparentnošću slika.

Istraživači su generisali 6.500 slika AlphaDog napada i testirali ih na 100 AI modela, uključujući 80 sistema otvorenog koda i 20 AI platformi zasnovanih na oblaku kao što je ChatGPT.

Otkrili su da se AlphaDog odlično snalazi u ciljanju regiona u nijansama sive na slici, omogućavajući napadačima da ugroze integritet čisto sivih slika i slika u boji koje sadrže regione u nijansama sive.

Istraživači su testirali slike u različitim svakodnevnim scenarijima.

Otkrili su nedostatke u veštačkoj inteligenciji koji predstavljaju značajan rizik po bezbednost na putevima. Koristeći AlphaDog, na primer, mogli bi da manipulišu elementima sivih tonova putnih znakova, što bi potencijalno moglo da dovede u zabludu autonomna vozila.

Isto tako, otkrili su da mogu da menjaju slike u sivim tonovima kao što su rendgenski snimci, magnetna rezonanca i CT skeniranje, potencijalno stvarajući ozbiljnu pretnju koja bi mogla dovesti do pogrešnih dijagnoza u domenu telezdravstva i medicinskog snimanja. Ovo takođe može ugroziti bezbednost pacijenata i otvoriti vrata prevari, kao što je manipulisanje potraživanjima iz osiguranja menjanjem rendgenskih rezultata koji pokazuju normalnu nogu kao slomljenu nogu.

Takođe su pronašli način da izmene slike ljudi. Ciljanjem alfa kanala, istraživači UTSA bi mogli da poremete sisteme za prepoznavanje lica.

AlphaDog funkcioniše tako što koristi razlike u tome kako AI i ljudi obrađuju transparentnost slike. Modeli kompjuterskog vida obično obrađuju crvene, zelene, plave i alfa (RGBA) slike — vrednosti koje definišu neprozirnost boje. Alfa kanal pokazuje koliko je svaki piksel neproziran i omogućava da se slika kombinuje sa slikom u pozadini, stvarajući kompozitnu sliku koja ima izgled prozirnosti.

Međutim, koristeći AlphaDog, istraživači su otkrili da AI modeli koje su testirali ne čitaju sva četiri RGBA kanala; umesto toga čitaju samo podatke sa RGB kanala.

„AI su kreirali ljudi, a ljudi koji su napisali kod fokusirali su se na RGB, ali su izostavili alfa kanal. Drugim rečima, napisali su kod za AI modele da čitaju slikovne datoteke bez alfa kanala“, rekao je Čen. „To je ranjivost. Isključivanje alfa kanala na ovim platformama dovodi do trovanja podataka.“

Ona je dodala: „AI je važan. Menja naš svet, a mi imamo toliko briga.“

Chen i Ksia rade sa nekoliko ključnih zainteresovanih strana, uključujući Google, Amazon i Microsoft, na ublažavanju ranjivosti u vezi sa sposobnošću AlphaDog-a da kompromituje sisteme.