Novi multimodalni model otkriva lažne vesti kombinovanjem tekstualnih i vizuelnih podataka

Novi multimodalni model otkriva lažne vesti kombinovanjem tekstualnih i vizuelnih podataka

Istraživači sa Nacionalnog univerziteta Jang Ming Čiao Tung, Univerziteta Čung Hua i Nacionalnog univerziteta Ilan razvili su inovativni multimodalni model koji može brzo otkriti lažne vesti na mreži. Ovaj model, predstavljen u časopisu Napredak nauke, koristi kombinaciju tekstualnih i vizuelnih podataka, čime se značajno poboljšava tačnost u odnosu na postojeće pristupe koji se oslanjaju samo na jedan tip informacija.

Sa porastom dezinformacija na internetu, razdvajanje pravih i lažnih vesti postalo je izazov. Novi model obezbeđuje efikasan način prepoznavanja lažnih vesti kroz proces koji uključuje čišćenje podataka, ekstrakciju karakteristika i fuziju informacija iz više modaliteta. U testovima na skupovima podataka Gossipcop i Fakeddit, multimodalni pristup postigao je tačnost od 85% i 90%, sa F1 rezultatima od 90% i 88%.

Istraživači ističu da multimodalna fuzija omogućava bogatije prikupljanje informacija, što može poboljšati performanse modela u borbi protiv lažnih vesti. Ovi rezultati otvaraju put za dalja istraživanja i razvoj sličnih modela koji bi se mogli koristiti za suzbijanje širenja dezinformacija na globalnom nivou. U budućnosti, model će biti testiran na raznim skupovima podataka kako bi se dodatno unapredila njegova efikasnost i prilagodljivost.