Slepo korišćenje veštačke inteligencije u zdravstvenoj zaštiti može dovesti do nevidljive diskriminacije

Slepo korišćenje veštačke inteligencije u zdravstvenoj zaštiti može dovesti do nevidljive diskriminacije

Veštačka inteligencija može pomoći zdravstvenim sistemima pod pritiskom da dodele ograničene resurse, ali i da dovede do nejednakog pristupa. Ovo je demonstrirano istraživačkom saradnjom između Univerziteta u Kopenhagenu, Rigshospitaleta i DTU-a koja je istraživala da li AI može podjednako uočiti rizik od depresije u različitim segmentima stanovništva. Istraživanje predstavlja opcije za pročešljavanje algoritama za pristrasnost pre njihovog primene.

Veštačka inteligencija obezbeđuje siguran, ali stabilan napredak u zdravstvenom sistemu. MRI skeniranje je već učinilo efikasnijim od strane veštačke inteligencije, a danske bolnice sada testiraju veštačku inteligenciju kako bi brzo postavile dijagnozu u hitnoj pomoći i bolje dijagnoze raka i terapije. Ali ovo je samo početak.

Dana 14. avgusta, danska ministarka unutrašnjih poslova i zdravlja, Sofi Lode, izjavila je da zamišlja budućnost u kojoj će veštačka inteligencija rasteretiti opterećeni danski zdravstveni sistem.

U bolnicama i psihijatriji, jedan od zadataka za koje je veštačka inteligencija dobro prilagođena da pomogne u poboljšanju je dodela ograničenih sredstava kroz analize rizika i rangiranja koji mogu da obezbede, na primer, da se terapije pružaju pacijentima tamo gde mogu biti najefikasnije.

AI se već koristi u drugim zemljama za procenu ko treba da se leči od depresije. To je razvoj koji bi mogao biti na putu ka danskom sistemu mentalnog zdravlja pod pritiskom.

Sada, međutim, istraživači Univerziteta u Kopenhagenu pozivaju političare na razmišljanje, kako veštačka inteligencija ne bi dovela do veće nejednakosti ili postala instrument za hladne ekonomske proračune. Ističu da nepažnja može učiniti pomoć medvjeđom uslugom.

„Veštačka inteligencija ima veliki potencijal, ali moramo da budemo oprezni jer njeno slepo primena može poremetiti zdravstveni sistem na nove načine koje je teško uočiti, jer rezultati na prvi pogled mogu izgledati tačni“, kaže Melani Ganc iz Odeljenje za kompjuterske nauke Univerziteta u Kopenhagenu i Rigshospitalet.

U novom istraživačkom članku, ona, zajedno sa svojim koautorima, dokumentuje kako se skrivene predrasude uvlače u algoritam dizajniran da izračuna rizik od depresije.

Zajedno sa kolegama sa Tehničkog univerziteta u Danskoj (DTU), istraživači su razvili algoritam zasnovan na dizajnu algoritma koji se već koristi u zdravstvenim sistemima. Na osnovu stvarnih dijagnoza depresije, algoritam predviđa rizik od razvoja depresije kod ljudi.

„U drugim zemljama, sve je uobičajenije da se gleda kako otkriti i sprečiti depresiju u ranoj fazi. U SAD, na primer, AI sve više koriste privatni osiguravači da daju prioritet resursima, razvoj koji će verovatno doći u Dansku u bliskoj budućnosti. Pitanje je koliko će zapravo biti pravična osnova za takvo određivanje prioriteta“, kaže koautor Sune Holm iz Odeljenja za ekonomiju hrane i resursa.

Istraživači su koristili depresiju kao studiju slučaja kako bi istražili kako možemo da procenimo algoritme koje koristimo kako u sistemu zdravstvene zaštite tako i drugde u društvu, tako da možemo na vreme identifikovati i prilagoditi probleme i učiniti algoritme pravednijim pre nego što se koriste.

„Pravi algoritmi, ako su pravilno obučeni, mogu postati ogromna prednost za svaku opštinu sa ograničenim resursima. Ali naše istraživanje pokazuje da ako se mašinskim učenjem ne upravlja dobro, može da iskrivi pristup lečenju, tako da neke grupe budu zanemarene ili čak ostavljene napolje“, kaže Melani Ganc.

Studija pokazuje da algoritam lakše uoči rizik od depresije kod određenih grupa građana nego kod drugih na osnovu varijabli za koje su obučeni – npr. obrazovanje, pol, etnička pripadnost i niz drugih varijabli. Zaista, sposobnost algoritma da identifikuje rizik od depresije varirala je do 15% između različitih grupa.

„To znači da čak i region ili opština, koji u dobroj nameri uvedu algoritam za pomoć u raspodeli opcija lečenja, mogu da iskrive svaki takav napor u zdravstvenoj zaštiti“, kaže Melani Ganc.

Algoritam može biti merljiv uspeh jer dodeljuje resurse onima kojima je stvarno potrebna. Ali u isto vreme, mogao je da ima skrivene predrasude koje isključuju ili deprioriziraju određene grupe, a da to ne bude vidljivo onima koji njime upravljaju.

U najgorem slučaju, AI sistemi mogu postati instrument hladnog proračuna. Izbor određenih algoritama bi se mogao koristiti da se prikrije prioritet resursa za određene društvene grupe u odnosu na druge.

Sune Holm ističe da AI takođe predstavlja neke fundamentalne etičke dileme.

„Ako počnemo da koristimo ove sisteme, biće važno da razjasnimo ko je odgovoran za davanje prioriteta resursima i pojedinačnim terapijskim režimima ako oni budu rezultat algoritama. Štaviše, lekaru bi moglo biti teško da objasni pacijentu zašto je odluka doneta napravljen ako je sam algoritam nerazumljiv“, kaže Sune Holm.

Dok istraživanje teoretski doprinosi oblasti mašinskog učenja koja se bavi algoritamskom diskriminacijom među grupama, metode su takođe robustan alat za proveru kvaliteta pravednosti algoritama.

„Metode koje smo razvili mogu se koristiti kao konkretan recept za procenu pravednosti algoritama pre nego što se koriste u, na primer, opštinama i regionima. Na ovaj način, nadamo se da istraživanje može doprineti da imamo prave alate u mesto kada algoritmi zaista ulaze u ovu oblast“, kaže Melani Ganc.

„I političari i građani moraju biti svesni ne samo prednosti, već i zamki povezanih sa upotrebom veštačke inteligencije. Dakle, neko može biti kritičan umesto da samo „proguta pilulu“ bez daljeg odlaganja“, kaže Sune Holm.

On veruje da možda postoji potreba da se obezbedi da upotreba algoritma ima dokumentovan pozitivan efekat na pacijente pre nego što se investira u njegovu primenu. Na primer, trebalo bi da bude jasno kako može dodati vrednost kliničkoj praksi čiji je deo.