Svetost odnosa lekar-pacijent je kamen temeljac zdravstvene profesije. Ovaj zaštićeni prostor prožet je tradicijom — Hipokratovom zakletvom, medicinskom etikom, profesionalnim kodeksom ponašanja i zakonodavstvom. Ali sve ovo je spremno za poremećaj digitalizacije, novih tehnologija i „veštačke“ inteligencije (AI).
Inovacije, robotika, digitalna tehnologija i poboljšana dijagnostika, prevencija i terapija mogu promijeniti zdravstvenu zaštitu na bolje. Oni takođe postavljaju etičke, pravne i društvene izazove.
Otkako su kapije otvorene na ChatGPT-u (Generative Pertaining Transformer) 2022. godine, bioetičari poput nas razmišljaju o ulozi koju bi ovaj novi „čet-bot“ mogao da igra u zdravstvenoj zaštiti i zdravstvenim istraživanjima.
Chat GPT je jezički model koji je obučen za ogromne količine internet tekstova. Pokušava da imitira ljudski tekst i može da obavlja različite uloge u zdravstvenoj zaštiti i zdravstvenim istraživanjima.
Rani korisnici počeli su da koriste ChatGPT da pomognu u svakodnevnim zadacima poput pisanja potvrda o bolovanju, pisama pacijentima i pisama u kojima se od medicinskih osiguravača traži da plate za određene skupe lekove za pacijente. Drugim rečima, to je kao da imate ličnog asistenta na visokom nivou da biste ubrzali birokratske zadatke i povećali vreme za interakciju sa pacijentom.
Ali to bi takođe moglo pomoći u ozbiljnijim medicinskim aktivnostima kao što je trijaža (odabir pacijenata koji mogu da dobiju pristup dijalizi bubrega ili krevetima za intenzivnu negu), što je kritično u okruženjima gde su resursi ograničeni. I mogao bi da se koristi za upis učesnika u klinička ispitivanja.
Uključivanje ovog sofisticiranog chat bota u brigu o pacijentima i medicinska istraživanja izaziva niz etičkih pitanja. Njegova upotreba može dovesti do neželjenih i neželjenih posledica. Ovi problemi se odnose na poverljivost, saglasnost, kvalitet nege, pouzdanost i nejednakost.
Prerano je znati sve etičke implikacije usvajanja ChatGPT-a u zdravstvenoj zaštiti i istraživanju. Što se ova tehnologija više koristi, to će implikacije biti jasnije. Ali pitanja u vezi sa potencijalnim rizicima i upravljanjem ChatGPT-om u medicini neizbežno će biti deo budućih razgovora, a mi se na njih ukratko fokusiramo u nastavku.
Pre svega, korišćenje ChatGPT-a nosi rizik od kršenja privatnosti. Uspešna i efikasna veštačka inteligencija zavisi od mašinskog učenja. Ovo zahteva da se podaci stalno vraćaju u neuronske mreže chatbotova. Ako se podaci o pacijentu koji se mogu identifikovati unesu u ChatGPT, oni čine deo informacija koje će chatbot koristiti u budućnosti. Drugim rečima, osetljive informacije su „tamo negde“ i podložne otkrivanju trećim licima. Nije jasno u kojoj meri se takve informacije mogu zaštititi.
Poverljivost informacija o pacijentu čini osnovu poverenja u odnosu lekar-pacijent. ChatGPT ugrožava ovu privatnost – rizik koji ranjivi pacijenti možda neće u potpunosti razumeti. Pristanak na zdravstvenu negu uz pomoć veštačke inteligencije mogao bi biti neoptimalan. Pacijenti možda ne razumeju na šta pristaju. Od nekih se možda neće ni tražiti saglasnost. Zbog toga se lekari i ustanove mogu izložiti parnicama.
Još jedan problem bioetike odnosi se na pružanje zdravstvene zaštite visokog kvaliteta. Ovo se tradicionalno zasniva na čvrstim naučnim dokazima. Korišćenje ChatGPT-a za generisanje dokaza ima potencijal da ubrza istraživanja i naučne publikacije. Međutim, ChatGPT u svom trenutnom formatu je statičan—postoji datum završetka u njegovoj bazi podataka. Ne pruža najnovije reference u realnom vremenu. U ovoj fazi, „ljudski“ istraživači rade precizniji posao generisanja dokaza. Više zabrinjavaju izveštaji da fabrikuje reference, ugrožavajući integritet pristupa dobroj zdravstvenoj zaštiti zasnovan na dokazima. Netačne informacije mogu ugroziti bezbednost zdravstvene zaštite.
Dokazi dobrog kvaliteta su osnova lečenja i medicinskih saveta. U eri demokratizovane zdravstvene zaštite, pružaoci usluga i pacijenti koriste različite platforme za pristup informacijama koje usmeravaju njihovo donošenje odluka. Ali ChatGPT možda u ovom trenutku svog razvoja nije dovoljno opremljen niti konfigurisan da pruži tačne i nepristrasne informacije.
Tehnologija koja koristi pristrasne informacije zasnovane na nedovoljno zastupljenim podacima obojenih ljudi, žena i dece je štetna. Netačna očitavanja nekih marki pulsnih oksimetara koji se koriste za merenje nivoa kiseonika tokom nedavne pandemije COVID-19 su nas naučila ovome.
Takođe je vredno razmisliti o tome šta bi ChatGPT mogao značiti za zemlje sa niskim i srednjim prihodima. Pitanje pristupa je najočiglednije. Prednosti i rizici novih tehnologija imaju tendenciju da budu neravnomerno raspoređeni između zemalja.
Trenutno je pristup ChatGPT-u besplatan, ali to neće trajati. Monetizovani pristup naprednim verzijama ovog jezičkog robota za ćaskanje predstavlja potencijalnu pretnju za okruženja sa siromašnim resursima. To bi moglo da učvrsti digitalni jaz i globalne zdravstvene nejednakosti.
Nejednak pristup, potencijal za iskorišćavanje i moguća šteta zbog podataka naglašava važnost postojanja posebnih propisa koji bi regulisali zdravstvenu upotrebu ChatGPT-a u zemljama sa niskim i srednjim prihodima.
Pojavljuju se globalne smernice kako bi se obezbedilo upravljanje u veštačkoj inteligenciji. Ali mnoge zemlje sa niskim i srednjim prihodima tek treba da prilagode i kontekstualizuju ove okvire. Štaviše, u mnogim zemljama nedostaju zakoni koji se posebno primenjuju na AI.
Globalnom jugu su potrebni lokalno relevantni razgovori o etičkim i pravnim implikacijama usvajanja ove nove tehnologije kako bi se osiguralo da se njene prednosti uživaju i pravedno raspodeljuju.