Generativni alati za ćaskanje zasnovani na LLM, kao što su ChatGPT ili Google-ov MedPaLM, imaju veliki medicinski potencijal, ali postoje inherentni rizici povezani sa njihovom neregulisanom upotrebom u zdravstvenoj zaštiti. Novi dokument o prirodnoj medicini prof. Stivena Gilberta i njegovih kolega bavi se jednim od najhitnijih međunarodnih pitanja našeg vremena: Kako regulisati modele velikih jezika (LLM) uopšte i posebno u zdravstvu.
„Veliki jezički modeli su jezički modeli neuronske mreže sa izvanrednim konverzacijskim veštinama. Oni generišu odgovore nalik ljudima i učestvuju u interaktivnim razgovorima. Međutim, često generišu veoma ubedljive izjave koje su proverljivo pogrešne ili daju neodgovarajuće odgovore“, rekao je prof. Stiven Gilbert, Profesor za nauku o regulativi medicinskih uređaja u Else Kroner Fresenius Centru za digitalno zdravlje na TU Drezdenu.
„Danas ne postoji način da budete sigurni u kvalitet, nivo dokaza ili konzistentnost kliničkih informacija ili pratećih dokaza za bilo kakav odgovor. Ovi chat botovi su nesigurni alati kada su u pitanju medicinski saveti i neophodno je razviti nove okvire koji osiguravaju pacijentu bezbednost.“
Većina ljudi istražuje svoje simptome na mreži pre nego što potraže savet lekara. Pretraživači igraju ulogu u procesu donošenja odluka. Predstojeća integracija LLM-četbota u pretraživače može povećati poverenje korisnika u odgovore koje daje chatbot koji oponaša razgovor. Pokazalo se da LLM mogu pružiti duboko opasne informacije kada se na njih postavljaju medicinska pitanja. Osnovni pristup LLM nema model medicinske „osnovne istine“, što je opasno.
LLM sa interfejsom za ćaskanje već su dali štetne medicinske odgovore i već su korišćeni neetički u „eksperimentima“ na pacijentima bez pristanka. Skoro svaki medicinski slučaj upotrebe LLM zahteva regulatornu kontrolu u EU i SAD. U SAD nedostatak objašnjivosti ih diskvalifikuje da nisu „uređaji“. LLM sa objašnjivom, malom pristrasnošću, predvidljivošću, ispravnošću i proverljivim rezultatima trenutno ne postoje i nisu izuzeti od sadašnjih (ili budućih) pristupa upravljanja.
U ovom radu autori opisuju ograničene scenarije u kojima bi LLM mogli da nađu primenu u postojećim okvirima, opisuju kako programeri mogu da pokušaju da kreiraju alate zasnovane na LLM koji bi mogli da budu odobreni kao medicinski uređaji, i istražuju razvoj novih okvira koji čuvaju pacijenta. sigurnost.
„Trenutni LLM-četboti ne ispunjavaju ključne principe za veštačku inteligenciju u zdravstvenoj zaštiti, kao što su kontrola pristrasnosti, objašnjivost, sistemi nadzora, validacije i transparentnosti. Da bi zaslužili svoje mesto u medicinskom naoružanju, čet-botovi moraju biti dizajnirani za bolju tačnost, sa bezbednošću i kliničkim efikasnost demonstrirana i odobrena od strane regulatora“, zaključuje prof. Gilbert.