Studija pokazuje da su ljudski medicinski stručnjaci pouzdaniji od alata veštačke inteligencije

Studija pokazuje da su ljudski medicinski stručnjaci pouzdaniji od alata veštačke inteligencije

Kada traže medicinske informacije, ljudi mogu da koriste veb pretraživače ili velike jezičke modele (LLM) kao što su ChatGPT-4 ili Google Bard. Međutim, ovi alati za veštačku inteligenciju (AI) imaju svoja ograničenja i ponekad mogu generisati netačne savete ili uputstva. Nova studija u američkom časopisu za preventivnu medicinu procenjuje tačnost i pouzdanost saveta generisanih od veštačke inteligencije u odnosu na utvrđene medicinske standarde i otkriva da LLM još uvek nisu dovoljno pouzdani da zamene ljudske medicinske stručnjake.

Andrei Brateanu, MD, odeljenje za internu medicinu, Fondacija klinike u Klivlendu, kaže: „Veb pretraživači mogu da obezbede pristup renomiranim izvorima informacija, nudeći tačne detalje o raznim temama kao što su preventivne mere i opšta medicinska pitanja.

„Slično, LLM mogu ponuditi medicinske informacije koje mogu izgledati veoma tačne i ubedljive kada, u stvari, povremeno mogu biti netačne. Stoga smo smatrali da bi bilo važno da uporedimo odgovore LLM sa podacima dobijenim od priznatih medicinskih organizacija. Ovo poređenje pomaže da se potvrdi pouzdanost medicinskih informacija tako što ih uporedi sa pouzdanim podacima zdravstvene zaštite.“

U studiji je 56 pitanja postavljeno ChatGPT-4 i Bardu, a dva lekara su procenila tačnost njihovih odgovora, dok je treći rešio sva neslaganja. Konačne procene su pokazale da je 28,6% odgovora ChatGPT-4 tačnih, 28,6% netačnih, a 42,8% delimično tačnih, ali nepotpunih. Bard je bio bolji, sa 53,6% tačnih odgovora, 17,8% netačnih i 28,6% delimično tačnih.

Dr Brateanu objašnjava: „Svi LLM, uključujući ChatGPT-4 i Bard, rade koristeći složene matematičke algoritme. Činjenica da su oba modela proizvela odgovore sa netačnostima ili izostavljenim ključnim informacijama naglašava tekući izazov razvoja AI alata koji mogu pružiti pouzdane medicinske savete. Ovo bi moglo biti iznenađenje, s obzirom na naprednu tehnologiju iza ovih modela i njihovu očekivanu ulogu u zdravstvenim okruženjima.“

Ovo istraživanje naglašava važnost opreza i kritičnosti prema medicinskim informacijama dobijenim iz izvora veštačke inteligencije, pojačavajući potrebu da se konsultuju zdravstveni radnici za tačne medicinske savete. Za zdravstvene radnike, ukazuje na potencijal i ograničenja korišćenja AI kao dodatnog alata u pružanju nege pacijenata i naglašava stalnu potrebu za nadzorom i verifikacijom informacija koje generiše veštačka inteligencija.

Dr Brateanu zaključuje: „Alati veštačke inteligencije ne bi trebalo da se posmatraju kao zamene za medicinske profesionalce. Umesto toga, oni se mogu smatrati dodatnim resursima koji, kada se kombinuju sa ljudskom ekspertizom, mogu poboljšati ukupan kvalitet pruženih informacija. Pošto ugrađujemo AI tehnologiju u zdravstvene zaštite, ključno je osigurati da suština zdravstvene zaštite i dalje bude u osnovi ljudska.“