Veštačka inteligencija brzo transformiše zdravstveni pejzaž od pomoći u dijagnostici bolesti do pomoći u operaciji. Njegovo brzo napredovanje ima potencijal da transformiše način rada zdravstvenih timova tako što će pojednostaviti procese i poboljšati ishode pacijenata.
Kako se AI više koristi u zdravstvenoj zaštiti, istraživači naglašavaju da bi tehnologija trebalo da bude alat vođen bioetičkim principima i zaštićen ljudskim donošenjem odluka.
Fokusiranje na etiku od samog početka, a ne kao naknadnu misao, ključno je za odgovoran razvoj alata vođenih veštačkom inteligencijom, kao i za obezbeđivanje da se zdravstveni timovi osećaju opušteno koristeći AI za dobrobit pacijenata.
„Često se na etiku gleda kao na „lepo imati“ ili [uvedena] kao trijažu kada sistem veštačke inteligencije ima neželjene negativne posledice“, kaže dr Barbara Bari, istraživač zdravstvene zaštite na klinici Maio Robert D. i Patricia E. Kern Centar za nauku o pružanju zdravstvene zaštite. Dr Bari je takođe član Majovog savetodavnog saveta za bioetiku veštačke inteligencije.
Dr Bari naglašava da će korišćenje veštačke inteligencije u kliničkoj praksi povećati rad lekara na nekoliko načina, uključujući određivanje prognoza, dijagnostikovanje stanja, smanjenje dijagnostičkih grešaka i lečenja, poboljšanje efikasnosti toka rada kroz sumiranje grafikona i automatizaciju naloga, i proširenje pristupa pacijentima pružanjem nege bez posete lekara.
Ali to ne znači da lekar ne mora da bude na slici.
„Jedno od etičkih pitanja sa kojima se lekari i drugi kliničari mogu susresti dok je veštačka inteligencija integrisana u zdravstvenu zaštitu je uloga profesionalnog autoriteta“, kaže dr Mišel Mekgouan, empirijski bioetičar čije istraživanje istražuje etičke i društvene implikacije brzo povećanje novih zdravstvenih tehnologija i politika. Ona je viši saradnik konsultant na Odeljenju za kvantitativne zdravstvene nauke na klinici Maio.
„Kako mašine povećavaju kapacitet za analizu podataka, predlaganje dijagnoze ili predviđanje odgovora na lečenje, lekari će biti dužni da obezbede da njihova procena ne bude zamenjena na način koji bi mogao da ugrozi negu pacijenata i uvede potencijalne obaveze“, kaže ona.
Još jedna briga je nedavni napredak velikih jezičkih modela (LLM). Ovi moćni AI alati su obučeni za ogromne količine podataka, dajući modelima mogućnost da analiziraju i generišu jezik sličan čoveku.
U istraživanju zdravstvene zaštite, LLM se koriste za probiranje ogromne količine medicinske dokumentacije i naučne literature. Iako postoji mnogo pozitivnih stvari koje mogu proizaći iz primene AI na ovaj način, od ključne je važnosti da je koristite odgovorno i da uvek pregledate i procenite njena predviđanja.
„Velika zabrinutost je teret ljudskog nadzora i pristrasnosti automatizacije kada sledimo preporuku sistema veštačke inteligencije jer je u prošlosti bila tačna“, kaže dr Bari.
„To je kao kada pratimo naš GPS navigacioni sistem u automobilu čak i kada znamo bolju rutu ili kada nam zdrav razum kaže drugačije.“
Uz obećanje o tome šta veštačka inteligencija može da pomogne u postizanju, Kern centar radi sa kardiovaskularnom medicinom na pilot studiji za procenu efikasnosti LLM-a koji je kreirao Maio, a koji generiše rezime otpusta iz podataka elektronskog zdravstvenog kartona (EHR) za pregledanje kliničara.
Osoblje obično mora da uloži dosta vremena i truda da napravi informativni i tačan dokument koji rezimira preporuke za boravak u bolnici i otpust svakog pacijenta.
„Ako ovaj LLM funkcioniše kako je predviđeno, to bi moglo uštedeti provajderima mnogo vremena“, kaže Shannon Dunlai, MD, kardiolog za srčanu insuficijenciju i pomoćnik medicinskog direktora Kern centra. Međutim, dr Danlej kaže da tim treba da pregleda koliko su tačni i potpuni izveštaji pre nego što ih preporuči za široku upotrebu.
Istraživači naglašavaju da je važno da pružaoci usluga i pacijenti imaju podršku dok se alati veštačke inteligencije uvode u zdravstvenu zaštitu.
Osnova etičke upotrebe AI je rigorozna evaluacija.
„Tradicionalna evaluacija se fokusira na metriku tehničkog učinka, kao što je tačnost predviđanja, što je suštinski početni korak“, kaže Ksiaoki Iao, Ph.D., Robert D. i Patricia E. Kern, naučni direktor za Pragmatična ispitivanja i evaluaciju.
„Međutim, naknadne evaluacije bi trebalo da budu dublje, uzimajući u obzir upotrebljivost, prihvatljivost među krajnjim korisnicima u svakodnevnoj praksi i efekat na pružanje nege i ishode pacijenata.“
Pored rigorozne evaluacije, istraživači naglašavaju da pacijenti žele transparentnost kada se AI koristi u njihovoj nezi.
„Oni žele da znaju performanse alata za veštačku inteligenciju, da li je kreiran na osnovu podataka pacijenata poput njih, da li je dokazano da je bezbedan u kliničkim ispitivanjima i da li su alati pravični i korišćeni pravedno, ne samo u njihovim brige ali i brige o drugima“, kaže dr Beri.