SAFELab lansira aplikaciju InterpretMe: Alat za učenje odraslih kako pravilno tumačiti društvene medije mladih

SAFELab lansira aplikaciju InterpretMe: Alat za učenje odraslih kako pravilno tumačiti društvene medije mladih

U Njujorku, organi za sprovođenje zakona redovno prate korišćenje društvenih medija mladih ljudi koji su crnci, starosedeoci i ljudi u boji (BIPOC), sastavljajući registratore postova na Tviteru i Fejsbuku kako bi ih povezali sa zločinima ili bandama.

Nešto tako benigno kao što je lajkanje fotografije na Fejsbuku može da se koristi kao dokaz nepravde na suđenju, pa kada policajci pogrešno protumače objave na društvenim mrežama — koje često uključuju sleng, viceve, tekstove pesama i reference na pop kulturu — to može dovesti do ozbiljne posledice.

Da bi sprečio ove vrste pogrešnih tumačenja, SAFELab, transdisciplinarna istraživačka inicijativa u Annenberg School for Communication i School of Social Practice and Polici, pokrenula je novu veb-baziranu aplikaciju koja uči odrasle da bolje pogledaju postove na društvenim medijima: InterpretMe.

Alat je trenutno otvoren za članove tri grupe — prosvetne radnike, policiju i štampu.

„To su ljudi koji redovno dolaze u kontakt sa mladim ljudima i utiču na njihove živote“, kaže Siva Matijažagan, pomoćnik profesora u istraživanju i pomoćnik direktora za strategije i uticaj u SAFELabu. „Ipak, mnogi od njih nemaju kulturni kontekst da razumeju kako mladi ljudi razgovaraju jedni s drugima na mreži.

Razvoj aplikacije počeo je kada je direktor SAFELaba Dezmond Apton Paton, profesor Univerziteta Brajan i Rendi Švarc u Penu, bio vanredni profesor na Školi socijalnog rada Univerziteta Kolumbija u Njujorku.

Učenici iz Škole socijalnog rada sastajali su se svake nedelje sa mladima u Centru za pravdu zajednice u Braunsvilu, društvenom centru dizajniranom da smanji kriminal i zatvaranje u centralnom Bruklinu, tražeći od njih pomoć u tumačenju i beleženju postova na društvenim mrežama koje su napravili ljudi njihovih godina.

„Mladi ljudi u Braunsvilskom centru za pravosuđe razumeli su kako se emoji, sleng i hiperlokalne reči koriste na mreži“, kaže Matijažagan. „Njihovi uvidi su bili ključni za izgradnju platforme.“

Tim SAFELab-a je koristio ovaj pseudo-rečnik koji su kreirali učenici da kreira onlajn obuku za društvene mreže za nastavnike, policiju i novinare.

Tokom ove obuke, korisnici su smešteni u izmišljeni scenario u kojem nailaze na potencijalno štetnu objavu na društvenim medijima, kao što je učenik koji izgleda depresivan ili potencijalno nasilan, i moraju da odluče kako da reaguju.

Dok šetaju kroz scenario, korisnici prikupljaju kontekst o objavi, radeći stvari kao što su gledanje prethodnih postova mlade osobe ili raspitivanje prijatelja o njihovom društvenom životu. Na kraju modula, korisnik mora odlučiti kako će nastaviti – šta će reći svom uredniku ili direktoru o učeniku – i pozvan je da razmisli o razlozima koji stoje iza toga.

SafeLab je testirao obuku sa 60 nastavnika, 50 novinara i 30 službenika za sprovođenje zakona u prvoj fazi.

Pre i posle obuke, svi su anketirali kako bi procenili kako pristrasnost može uticati na njihove veštine tumačenja društvenih medija. U svim grupama, rezultati pristrasnosti su se smanjili nakon korišćenja treninga, kaže Mathiiazhagan.

InterpretMe je izgrađen na uvidima koje je SAFELab tim stekao nakon kreiranja i testiranja njihovih modula za obuku. Umesto da vodi korisnike kroz pažljivo osmišljen scenario, InterpretMe omogućava korisnicima da postavljaju postove na društvenim mrežama iz stvarnog života, a zatim ih vodi kroz set vežbi izgrađenih na SAFELab treningu.

Nakon postavljanja posta, prosvetni radnici, policajci i novinari prolaze kroz pet koraka:

Nakon završene vežbe, korisnicima se šalje izveštaj o njihovom tumačenju.

SafeLab planira da ugradi mašinsko učenje u sledeću verziju InterpretMe-a, kaže Mathiiazhagan.

Tim SAFELab-a već dugo eksperimentiše sa veštačkom inteligencijom. Uz pomoć kompjuterskih naučnika i omladine koja je ranije bila uključena u bande u Čikagu, kreirali su model mašinskog učenja obučen da detektuje znakove bandi, sleng, lokalne reference i emocije u nadi da će sprečiti nasilje.

Dok je model zasnovan na podacima iz Čikaga, mogao bi se proširiti tako da uključi kontekst za bilo koju oblast, kaže tim.

„Kroz veštačku inteligenciju, možda bismo mogli ne samo da ubrzamo proces interpretacije, već i da popunimo kulturne praznine“, kaže Matijažagan.

Jednoj osobi možda nedostaju tekstovi pesama u objavi na Fejsbuku, ali mašina obučena za uvid u zajednicu mogla bi da ih označi i spreči nesporazum.