Bolnice su počele da koriste „alatke za podršku odlučivanju“ koje pokreće veštačka inteligencija koja može da dijagnostikuje bolest, predlaže lečenje ili predviđa ishod operacije. Ali nijedan algoritam nije tačan sve vreme, pa kako doktori znaju kada da veruju preporuci AI?
Nova studija koju je vodio Kian Iang, pomoćnik profesora informacionih nauka na Kornel Ann S. Bovers koledžu računarstva i informacionih nauka, sugeriše da ako alati veštačke inteligencije mogu da savetuju doktora kao kolega – ističući relevantna biomedicinska istraživanja koja podržavaju odluku – onda lekari mogu bolje da odmere zasluge preporuke.
Istraživači će predstaviti novu studiju, „Iskoristiti biomedicinsku literaturu za kalibraciju poverenja kliničara u sisteme za podršku odlučivanju AI“, u aprilu na Konferenciji CHI Udruženja za računarske mašine o ljudskim faktorima u računarskim sistemima.
Ranije je većina istraživača AI pokušala da pomogne lekarima da procene sugestije iz alata za podršku odlučivanju objašnjavajući kako osnovni algoritam funkcioniše ili koji podaci su korišćeni za obuku AI. Ali obrazovanje o tome kako AI pravi svoja predviđanja nije bilo dovoljno, rekao je Jang. Mnogi lekari su želeli da znaju da li je alat potvrđen u kliničkim ispitivanjima, što se obično ne dešava sa ovim alatima.
„Primarni posao lekara nije da nauči kako AI funkcioniše“, rekao je Jang. „Ako možemo da izgradimo sisteme koji pomažu da se validiraju AI sugestije na osnovu rezultata kliničkih ispitivanja i članaka iz časopisa, koji su pouzdane informacije za lekare, onda im možemo pomoći da shvate da li je AI verovatno tačna ili pogrešna za svaki konkretan slučaj.
Da bi razvili ovaj sistem, istraživači su prvo intervjuisali devet lekara različitih specijalnosti i tri klinička bibliotekara. Otkrili su da kada se lekari ne slažu oko ispravnog pravca delovanja, oni prate rezultate relevantnih biomedicinskih istraživanja i studija slučaja, uzimajući u obzir kvalitet svake studije i koliko se ona blisko primenjuje na slučaj koji je u pitanju.
Jang i njene kolege napravile su prototip svog alata za kliničko odlučivanje koji oponaša ovaj proces predstavljanjem biomedicinskih dokaza uz preporuku AI. Oni su koristili GPT-3 da pronađu i sumiraju relevantna istraživanja. (ChatGPT je poznatiji izdanak GPT-3, koji je skrojen za ljudski dijalog.)
„Izgradili smo sistem koji u osnovi pokušava da ponovo stvori međuljudsku komunikaciju koju smo primetili kada lekari daju sugestije jedni drugima, i dobija istu vrstu dokaza iz kliničke literature da podrži sugestiju veštačke inteligencije“, rekao je Jang.
Interfejs za alatku za podršku odlučivanju navodi informacije o pacijentu, istoriju bolesti i rezultate laboratorijskih testova sa jedne strane, sa personalizovanom dijagnozom ili sugestijom AI sa druge strane, praćeno relevantnim biomedicinskim studijama. Kao odgovor na povratne informacije lekara, istraživači su dodali kratak rezime za svaku studiju, ističući detalje o populaciji pacijenata, medicinskoj intervenciji i ishodima pacijenata, tako da lekari mogu brzo da apsorbuju najvažnije informacije.
Istraživački tim je razvio prototip alata za podršku odlučivanju za tri specijalnosti — neurologiju, psihijatriju i palijativno zbrinjavanje — i zamolio tri lekara iz svake specijalnosti da testiraju prototip procenom primera slučajeva.
U intervjuima, doktori su rekli da cene kliničke dokaze, smatrajući ih intuitivnim i lakim za razumevanje, i da im je draže od objašnjenja unutrašnjeg funkcionisanja AI.
„To je veoma generalizovana metoda“, rekao je Jang. Ova vrsta pristupa mogla bi da funkcioniše za sve medicinske specijalitete i druge aplikacije gde su potrebni naučni dokazi, kao što su platforme za pitanja i odgovore za odgovore na pitanja pacijenata ili čak automatizovana provera činjenica u vestima u vezi sa zdravljem. „Nadao bih se da ću ga videti ugrađeno u različite vrste AI sistema koji se razvijaju, tako da ih možemo učiniti korisnim za kliničku praksu.“