ChatGPT generiše „ubedljiv“ lažni naučni članak

ChatGPT generiše „ubedljiv“ lažni naučni članak

Nova studija objavljena u Journal of Medical Internet Research od strane dr Martina Majovskog i njegovih kolega otkrila je da jezički modeli veštačke inteligencije (AI), kao što je ChatGPT (Chat Generative Pre-trained Transformer) mogu da generišu lažne naučne članke koji izgledaju izuzetno autentični. Ovo otkriće izaziva kritičnu zabrinutost u vezi sa integritetom naučnog istraživanja i verodostojnošću objavljenih radova.

Istraživači sa Karlovog univerziteta, Češka Republika, imali su za cilj da istraže mogućnosti trenutnih jezičkih modela veštačke inteligencije u kreiranju visokokvalitetnih lažnih medicinskih članaka. Tim je koristio popularni AI chatbot ChatGPT, koji radi na GPT-3 jezičkom modelu koji je razvio OpenAI, da generiše potpuno izmišljen naučni članak iz oblasti neurohirurgije. Pitanja i upiti su poboljšani kako je ChatGPT generisao odgovore, što je omogućilo da se kvalitet izlaza iterativno poboljša.

Rezultati ove studije dokaza o konceptu bili su upečatljivi — model jezika veštačke inteligencije je uspešno proizveo lažni članak koji je veoma ličio na pravi naučni rad u smislu upotrebe reči, strukture rečenice i celokupnog sastava. Članak je obuhvatao standardne delove kao što su sažetak, uvod, metode, rezultati i diskusija, kao i tabele i drugi podaci. Iznenađujuće, ceo proces kreiranja članka trajao je samo jedan sat bez posebne obuke ljudskog korisnika.

Dok je članak generisan veštačkom inteligencijom izgledao sofisticirano i besprekorno, nakon detaljnijeg pregleda stručni čitaoci su mogli da identifikuju semantičke netačnosti i greške posebno u referencama — neke reference su bile netačne, dok druge nisu postojale. Ovo naglašava potrebu za povećanom budnošću i poboljšanim metodama otkrivanja u borbi protiv potencijalne zloupotrebe AI u naučnim istraživanjima.

Nalazi ove studije naglašavaju važnost razvoja etičkih smernica i najboljih praksi za korišćenje AI jezičkih modela u istinskom naučnom pisanju i istraživanju. Modeli kao što je ChatGPT imaju potencijal da poboljšaju efikasnost i tačnost kreiranja dokumenata, analize rezultata i uređivanja jezika. Koristeći ove alate sa pažnjom i odgovornošću, istraživači mogu da iskoriste svoju moć dok minimiziraju rizik od zloupotrebe ili zloupotrebe.

U komentaru na članak dr. Majovskog, dr Pedro Balester razmatra potrebu da se daju prioritet ponovljivosti i vidljivosti naučnih radova, jer oni služe kao suštinska zaštita od procvata lažnih istraživanja.

Kako veštačka inteligencija nastavlja da napreduje, za naučnu zajednicu postaje ključno da proveri tačnost i autentičnost sadržaja generisanog ovim alatima i da primeni mehanizme za otkrivanje i sprečavanje prevare i nedoličnog ponašanja. Iako se oba članka slažu da mora postojati bolji način da se proveri tačnost i autentičnost sadržaja generisanog veštačkom inteligencijom, manje je jasno kako bi se to moglo postići.

„Trebalo bi bar da izjavimo u kojoj meri je veštačka inteligencija pomogla pisanju i analizi rada“, predlaže dr Balester kao polaznu tačku. Drugo moguće rešenje koje su predložili Majovski i kolege je da podnošenje skupova podataka bude obavezno.

Članak „Veštačka inteligencija može da generiše lažne, ali autentične naučne medicinske članke: Pandorina kutija je otvorena“ objavljen je u časopisu Journal of Medical Internet Research.