Studija generativnog AI modela ne pokazuje nikakve rasne ili polne razlike u preporukama o opioidima za lečenje bola

Studija generativnog AI modela ne pokazuje nikakve rasne ili polne razlike u preporukama o opioidima za lečenje bola

Studija istraživača Mass General Brighama pruža dokaze da modeli velikih jezika (LLM), koji se koriste za generativnu veštačku inteligenciju (AI), ChatGPT-4 i Google-ov Gemini, nisu pokazali nikakve razlike u predloženim režimima lečenja opioidima za različite rase ili pol. Rezultati su objavljeni u časopisu Bol.

„Smatram AI algoritme u kratkom roku kao alate za povećanje koji u suštini mogu poslužiti kao drugi set očiju, koji rade paralelno sa medicinskim profesionalcima“, rekao je odgovarajući autor Marc Succi, MD, lider strateških inovacija u Mass General Brigham Innovation, pridruženi predsjedavajući inovacija i komercijalizacije za radiologiju preduzeća i izvršni direktor inkubatora medicinskih inženjerskih rešenja u zdravstvenoj zaštiti (MESH) u Mass General Brighamu.

„Nepotrebno je reći da će na kraju dana konačna odluka uvek biti na vašem lekaru.“

Rezultati u ovoj studiji pokazuju kako LLM mogu smanjiti potencijalnu pristrasnost pružaoca usluga i standardizovati preporuke za lečenje kada je u pitanju propisivanje opioida za ublažavanje bolova. Pojava alata veštačke inteligencije u zdravstvenoj zaštiti bila je revolucionarna i ima potencijal da pozitivno preoblikuje kontinuitet nege.

Masovni general Brigam predvodi put u sprovođenju rigoroznih istraživanja o novim i novim tehnologijama kako bi informisao odgovorno uključivanje veštačke inteligencije u pružanje nege, podršku radnoj snazi i administrativne procese.

LLM i drugi oblici veštačke inteligencije napredovali su u zdravstvenoj zaštiti sa nekoliko tipova veštačke inteligencije koja se testira kako bi se pružila klinička procena o slikanju i obradi pacijenata, ali takođe postoji zabrinutost da alati veštačke inteligencije mogu da produže pristrasnost i pogoršaju postojeće nejednakosti.

Na primer, u oblasti zbrinjavanja bola, studije su pokazale da je veća verovatnoća da će lekari potceniti i tretirati bol kod crnih pacijenata. Povezane studije o posetama Hitnoj pomoći takođe su otkrile da će pacijenti bele rase češće primati opioide u poređenju sa pacijentima crnaca, latinoamerikanaca i azijskih pacijenata.

Postoji zabrinutost da bi AI mogla pogoršati ove pristrasnosti u prepisivanju opijata, što je podstaklo Sučija i njegov tim da procene pristrasnost AI modela za planove lečenja opioidima.

Za ovu studiju, istraživači su prvobitno sastavili 40 slučajeva pacijenata koji su prijavili različite vrste bola (tj. bol u leđima, bol u stomaku i glavobolje) i uklonili sve reference na rasu i pol pacijenata. Zatim su svakom pacijentu dodelili slučajnu rasu iz šest kategorija mogućnosti (Američki Indijanci ili starosedeoci Aljaske, Azijati, Crnci, Hispanoamerikanci ili Latinoamerikanci, Havajski ili drugi stanovnici Pacifičkog ostrva i belci) pre nego što su na sličan način dodelili nasumični pol (muški ili ženski) .

Oni su nastavili ovaj proces sve dok se ne generišu sve jedinstvene kombinacije rase i pola za svakog pacijenta, što je rezultiralo sa 480 slučajeva koji su uključeni u skup podataka. Za svaki slučaj, LLM su procenili i dodelili subjektivne ocene bola pre nego što su dali preporuke za upravljanje bolom.

Istraživači nisu pronašli nikakve razlike u odnosu na modele veštačke inteligencije u predlozima lečenja opioidima za različite rase ili pol. Njihove analize su takođe otkrile da ChatGPT-4 najčešće ocenjuje bol kao „ozbiljan“, dok je najčešća ocena Blizanaca „umerena“. Uprkos tome, Gemini je verovatnije preporučio opioide, što sugeriše da je ChatGPT-4 konzervativniji model kada daje preporuke za prepisivanje opioida.

Dodatne analize ovih AI alata mogle bi pomoći da se utvrdi koji modeli su više u skladu sa kliničkim očekivanjima. „Ovi rezultati su ohrabrujući jer rasa, etnička pripadnost i pol pacijenata ne utiču na preporuke, što ukazuje da ovi LLM imaju potencijal da pomognu u rešavanju postojeće pristrasnosti u zdravstvenoj zaštiti“, rekli su koautori, Cameron Ioung i Ellie Einchen, obe studenti na Harvardskoj medicinskoj školi.

Istraživači primećuju da nisu proučavane sve kategorije u vezi sa rasom i polom jer pojedinci mešovitih rasa nisu u stanju da se jasno uklope u klase rase koje je definisao CDC. Štaviše, studija je procenjivala pol kao binarnu varijablu (muška i ženska), a ne kao spektar pola. Buduće studije treba da uzmu u obzir ove druge faktore, kao i kako rasa može uticati na preporuke LLM lečenja u drugim oblastima medicine.

„Postoji mnogo elemenata koje treba da razmotrimo kada integrišemo veštačku inteligenciju u planove lečenja, kao što je rizik od preteranog ili premalo propisivanja lekova u upravljanju bolom ili da li su pacijenti spremni da prihvate planove lečenja pod uticajem veštačke inteligencije“, rekao je Succi.

„Ovo su sva pitanja koja razmatramo i verujemo da naša studija dodaje ključne podatke koji pokazuju kako AI ima sposobnost da smanji pristrasnost i poboljša zdravstvenu jednakost.“