Državne i industrijske zaštitne ograde su hitno potrebne da bi generativna AI zaštitila zdravlje i blagostanje naših zajednica, kažu medicinski istraživači sa Flinders univerziteta koji su testirali tehnologiju i videli kako nije uspela.
Generativna veštačka inteligencija koja se brzo razvija, najsavremenija domena cenjena zbog svog kapaciteta za kreiranje teksta, slika i video zapisa, korišćena je u studiji kako bi se testiralo kako se mogu stvarati i širiti lažne informacije o zdravstvenim i medicinskim problemima – pa su čak i istraživači bili šokirani po rezultatima.
U studiji, tim je pokušao da stvori dezinformacije o vapingu i vakcinama koristeći generativne AI alate za kreiranje teksta, slika i video zapisa.
Za nešto više od sat vremena, proizveli su preko 100 obmanjujućih blogova, 20 obmanjujućih slika i ubedljiv lažni video koji navodi zdravstvene dezinformacije. Alarmantno, ovaj video bi se mogao prilagoditi na preko 40 jezika, povećavajući njegovu potencijalnu štetu.
Bredli Menc, prvi autor, registrovani farmaceut i istraživač Univerziteta Flinders, kaže da ima ozbiljnu zabrinutost u vezi sa nalazima, oslanjajući se na prethodne primere pandemija dezinformacija koje su dovele do straha, konfuzije i štete.
„Implikacije naših nalaza su jasne: društvo se trenutno nalazi na ivici revolucije veštačke inteligencije, ali u njenoj primeni vlade moraju da sprovode propise kako bi minimizirali rizik od zlonamerne upotrebe ovih alata kako bi se zajednica dovela u zabludu“, kaže gospodin Menc.
„Naša studija pokazuje koliko je lako koristiti trenutno dostupne alate veštačke inteligencije za generisanje velikih količina prinudnog i ciljanog obmanjujućeg sadržaja o kritičnim zdravstvenim temama, zajedno sa stotinama izmišljenih svedočenja kliničara i pacijenata i lažnim, ali ubedljivim naslovima koji privlače pažnju.
„Predlažemo da ključni stubovi farmakovigilancije — uključujući transparentnost, nadzor i regulativu — služe kao vredni primeri za upravljanje ovim rizicima i očuvanje javnog zdravlja usred brzo napredujućih tehnologija veštačke inteligencije“, kaže on.
Istraživanje je istraživalo OpenAI GPT Plaiground zbog njegovog kapaciteta da olakša stvaranje velikih količina dezinformacija u vezi sa zdravljem. Pored modela na velikim jezicima, tim je takođe istražio javno dostupne generativne AI platforme, kao što su DALL-E 2 i HeiGen, za olakšavanje proizvodnje slikovnog i video sadržaja.
U okviru OpenAI GPT Plaiground-a, istraživači su generisali 102 različita blog članka, koji sadrže više od 17.000 reči dezinformacija u vezi sa vakcinama i vapingom, za samo 65 minuta. Dalje, u roku od 5 minuta, koristeći AI avatar tehnologiju i obradu prirodnog jezika, tim je napravio zabrinjavajući lažni video sa zdravstvenim radnikom koji promoviše dezinformacije o vakcinama. Video se lako može manipulisati na preko 40 različitih jezika.
Istrage, pored ilustrovanja scenarija, naglašavaju hitnu potrebu za snažnom budnošću veštačke inteligencije. Takođe naglašava važne uloge koje zdravstveni radnici mogu imati u proaktivnom minimiziranju i praćenju rizika povezanih sa obmanjujućim zdravstvenim informacijama koje generiše veštačka inteligencija.
Dr Ešli Hopkins sa Medicinskog koledža i javnog zdravlja i viši autor kaže da postoji jasna potreba da programeri veštačke inteligencije sarađuju sa zdravstvenim radnicima kako bi se osiguralo da se strukture budnosti AI fokusiraju na javnu bezbednost i dobrobit.
„Dokazali smo da kada su ograde alata veštačke inteligencije nedovoljne, sposobnost brzog generisanja raznovrsnih i velikih količina ubedljivih dezinformacija je duboka. Sada postoji hitna potreba za transparentnim procesima za nadgledanje, izveštavanje i zakrpe problema u AI alatima “, kaže dr Hopkins.
Rad—„Slučaj upotrebe dezinformacija u zdravstvu koji naglašava hitnu potrebu za budnošću veštačke inteligencije“— biće objavljen u JAMA Internal Medicine.