Označavanje, degradiranje i brisanje sadržaja; privremena ili trajna suspenzija korisnika—ovo su neke od intervencija koje se koriste da bi platforme društvenih medija bile bezbedne, pouzdane i oslobođene štetnog sadržaja. Ali koji je najbolji način da se ove intervencije sprovedu? Luca Luceri, naučnik na USC-ovom Institutu za informacione nauke (ISI), deo je tima koji koristi nauku da vodi propise društvenih medija.
Luceri radi na CARISMA-i (Call for Regulation Support In Social Media), interdisciplinarnom istraživačkom projektu sa ciljem „uspostavljanja jasnog, sledljivog i replikativnog metodološkog okvira za procenu politika koje efikasno ublažavaju štetu od onlajn aktera odgovornih za zloupotrebe i nedozvoljene ponašanje.“
Ali da bi procenili politike moderiranja sadržaja društvenih medija, prvo ih moraju razumeti. Luceri je objasnio: „Strategije moderiranja sadržaja se često menjaju. Nisu jasno saopštene ili transparentne. Ne postoje smernice o potencijalnim intervencijama, na primer, koliko puta morate da uradite određenu radnju da biste bili privremeno ili trajno suspendovani.“
Nedavno je bio koautor dva rada za CARISMA. „Ovi radovi su prvi pokušaj da se bolje razume kako funkcionišu strategije politike moderiranja, da li funkcionišu i kakvu vrstu lošeg ponašanja su u stanju da identifikuju i moderiraju“, rekao je on.
Luceri je radio zajedno sa Frančeskom Pjerijem, bivšim postdoktorskim istraživačem na ISI, koji je sada docent za nauku o podacima na Politecnico di Milano, da bi bio koautor EPJ Data Science dokumenta „Kako funkcioniše moderiranje naloga na Tviteru? Dinamika kreiranja i suspenzije naloga na Tviteru Tokom velikih geopolitičkih događaja.“
Prethodna istraživanja pokazuju da postoji nagli porast u kreiranju i suspenziji Tviter naloga u vezi sa velikim geopolitičkim događajima. Zbog toga, rekao je Luceri, „hteli smo da pogledamo kako se Tviter bavio novim nalozima koji su kreirani u vezi sa velikim geopolitičkim događajima. Tim je izabrao dva globalna politička događaja: rusku invaziju na Ukrajinu i francuske predsedničke izbore 2022.
Oni su analizirali preko 270 miliona tvitova na više jezika kako bi pokazali da je povećanje aktivnosti na Tviteru praćeno vrhuncem u kreiranju naloga i uvredljivim ponašanjem, izlažući legitimne korisnike kampanjama neželjene pošte i štetnog govora.
Rezultati?
Ovi nalazi pomažu u rasvetljavanju obrazaca zloupotrebe platforme i naknadnog moderiranja tokom velikih događaja, i oni su tip uvida koji CARISMA tim traži kada se vrši reverzni inženjering politika moderiranja sadržaja platformi društvenih medija.
U drugom CARISMA dokumentu, „Međusobna priroda onlajn štete i moderacije: istraživanje širenja štetnog sadržaja na više platformi između IouTube-a i Tvitera“, Luceri i njegovi koautori proučavali su kako jedna platforma može da iskoristi akcije moderiranja druge platforme. Ovaj rad se pojavljuje u Proceedings of the 34th ACM Conference on Hipertekt and Social Media.
Tim je analizirao „moderirane IouTube video snimke“ koji su deljeni na Tviteru. Ovo se odnosi na IouTube video snimke koji su smatrani problematičnim prema IouTube-ovoj politici moderiranja sadržaja i koji su na kraju uklonjeni sa IouTube-a.
Koristeći obimni skup podataka od 600 miliona tvitova koji se odnose na izbore u SAD 2020., tražili su IouTube video snimke koji su uklonjeni. Kada su saznali da su IouTube moderatori uklonili video sa IouTube-a, pogledali su karakteristike ponašanja, interakcije i performanse videa kada je deljen na Tviteru.
Rezultati? Uklonjeni IouTube video snimci, kada se dele na Tvitter-u pre nego što budu uklonjeni, pokazuju drugačije karakteristike interakcije i ponašanja od neuklonjenih (prihvatljivih) IouTube video snimaka.
A opštiji nalaz istraživačkog tima je da su dokazali da štetan sadržaj koji potiče sa izvorne platforme (tj. Jutjuba) značajno zagađuje diskusiju na ciljnoj platformi (tj. Tviter).
„Ovaj rad“, kaže Luceri, „naglašava potrebu za strategijama moderiranja na više platformi, ali takođe pokazuje da može biti praktično vredan. Znajući da se određeni deo sadržaja smatra neprikladnim ili štetnim na jednoj platformi, može da informiše operativne strategije na drugoj platformi“.
CARISMA tim koristi rezultate iz ovakvih i drugih radova kako bi stvorio metodološki okvir u kojem mogu eksperimentisati sa strategijama moderiranja sadržaja.
„Gradimo simulator koji oponaša društvene mreže, interakcije i širenje štetnog sadržaja, kao što su dezinformacije ili sadržaj koji izaziva mržnju i toksični sadržaj“, rekao je Luceri. „Ono što želimo da uradimo sa ovim okvirom nije samo da oponašamo informacione ekosisteme, već želimo da razumemo potencijalni uticaj instrumenata politike.
On je ponudio primere kako bi mogli da eksperimentišu u simulatoru. „Kakvi bi bili naknadni efekti ako bi se određeni deo sadržaja dezinformacija uklonio; a šta ako je korisnik privremeno suspendovan; a šta ako je korisnik trajno suspendovan. Kakav bi bio efekat nakon jednog sata? Posle sedam dana? Ili ako ga uopšte ne uklonimo?“
Nastavio je: „Šta se dešava ako uklonimo naloge koji krše određene smernice i kako se to može porediti sa onim što bi se desilo ako bismo, umesto toga, tim korisnicima pružili neke podsticaje koji imaju tendenciju da poboljšaju kvalitet informacija koje dele?“
Na kraju, simulator i CARISMA projekat u celini pružiće kvantitativne dokaze o uticaju i efektima instrumenata politike koji bi mogli biti korisni za ublažavanje štetnog ponašanja na društvenim medijima.
„Nadamo se da bi ovaj alat mogli koristiti kreatori politike i regulatori za procenu efikasnosti i efikasnosti instrumenata politike na jasan, sledljiv i repliciran način“, rekao je Luceri.
„Međusobno povezana priroda onlajn štete i moderacije: istraživanje širenja štetnog sadržaja na više platformi između IouTube-a i Tvitera“ predstavljena je na ACM HiperTekt 2023, gde je nominovana za nagradu za najbolji papir.