Istraživači koriste psihologiju kako bi poboljšali AI i pomogli robotima da komuniciraju više kao ljudi

Istraživači koriste psihologiju kako bi poboljšali AI i pomogli robotima da komuniciraju više kao ljudi

Robot juri niz užurbani bolnički hodnik izbegavajući nasumični pešački saobraćaj. Suptilnim pokretom pružaoca nege, robot ulazi u sobu i predaje lek medicinskoj sestri koja čeka pored kreveta.

Možda zvuči kao futuristički scenario, ali profesor inženjeringa na Univerzitetu Alberta, u saradnji sa kolegama iz psihologije, radi na tome da to postane stvarnost u narednih nekoliko godina.

Ehsan Hashemi, uz pomoć Dane Hejvord i Kajla Metjusona sa Odeljenja za psihologiju, programira robote da rade rame uz rame sa ljudima u dinamičnom radnom okruženju tako što će reagovati na signale u govoru tela.

Hašemi već postaje poznat po svom radu na razvoju sistema veštačke inteligencije za autonomna vozila, ali ovog puta se okreće stručnosti u grani eksperimentalne psihologije koja se zove ljudska interaktivna kognicija kako bi pomogao robotima da komuniciraju više kao ljudi.

„Ljudi nisu uvek, pa čak ni često, racionalna bića… i predviđanje njihovog složenog ponašanja i dalje izmiče istraživačima“, kaže Hejvord.

Bolje razumevanje naših interakcija – pogleda i gestova, fokusirane pažnje, donošenja odluka, jezika i pamćenja – može pomoći istraživačima veštačke inteligencije da predvide „šta će pojedinac sledeće uraditi ili reći“, kaže ona.

Zamislite 10 ili 20 robota koji kruže oko ljudskih radnika u skladištu, pomerajući teške materijale velikom brzinom. Jedna prepreka trenutne navigacione tehnologije je ta što roboti imaju tendenciju da se zaustavljaju u dinamičnim okruženjima, „jer nemaju predviđanje kretanja ljudi ili kretanja drugih robota“, kaže Hašemi.

„Gledamo kako ljudi komuniciraju jedni s drugima uz minimalnu razmenu informacija.“

Hašemi i Metjuson su razvili slušalice sa EEG senzorima koje će, kada ih nose ljudski radnici, unositi podatke o moždanim talasima u svoje prediktivno modeliranje, zajedno sa merenjima pokreta očiju i drugog govora tela. To je istraživanje koje će robote pomeriti korak bliže interakciji poput ljudskih bića.

Iako se odnos između veštačke inteligencije i psihologije čini kao granična nauka, on postoji od rođenja veštačke inteligencije. Neuronske mreže koje su prvi razvili začetnici tehnologije 1950-ih bili su pokušaji da se replicira ljudski mozak.

Termini kao što su „inteligencija“ i „duboko učenje“ izgledaju neodvojivi od naše koncepcije ljudske svesti, sa svim njenim prednostima i potencijalnim nedostacima. I koliko god veštačka inteligencija može da nam pomogne da razumemo više o ljudskoj psihologiji i njenim poremećajima, psihologija takođe može da informiše algoritme na načine koji poboljšavaju njihovo funkcionisanje — dok im daje moć da budu opasno manipulativni.

Istraživanja koja istražuju obe strane te jednačine – koristeći naše razumevanje psihologije da bismo poboljšali veštačku inteligenciju, kao i ispitivanje njenih etičkih, društvenih i kulturnih implikacija – brzo se šire na Univerzitetu A.

Pored naglašenog potencijala veštačke inteligencije da učini naše živote boljim, postoji i rastući strah da bi ona mogla da iskoristi psihologiju na načine koji pokazuju naše pokušaje kontrole. Ta zabrinutost se ogleda u nedavnoj deklaraciji vodećih istraživača veštačke inteligencije koja upozorava na rizik od izumiranja uporedo sa nuklearnim ratom i globalnim pandemijama. U pismu se pominje prijetnja masovnim dezinformacijama, diskriminacijom i lažnim predstavljanjem.

Profesor Džefri Rokvel, stručnjak u rastućoj oblasti digitalnih humanističkih nauka, priznaje duboke korene veštačke inteligencije u psihologiji, što podstiče stalni dijalog između našeg razumevanja ljudskog mozga i razvoja mašinskog učenja.

„Ideje o mozgu uticale su na nove dizajne za AI, a onda su ti novi dizajni uticali na naše razumevanje mozga“, kaže on.

Daleko od repliciranja ili čak prekoračenja računarskih kapaciteta ljudskog mozga, današnja AI poprima karakteristike povezane sa ljudskom svešću i ponašanjem, ako ne i stvarnim osećajem. U pregledu objavljenom prošle godine u Frontiers in Neuroscience, autori su otkrili da je preovlađujući pravac istraživanja veštačke inteligencije „davanje kompjuterima naprednih kognitivnih sposobnosti, tako da računari mogu da prepoznaju emocije, razumeju ljudska osećanja i na kraju postignu dijalog i empatiju sa ljudima i druga veštačka inteligencija“.

Drugim rečima, racionalno razmišljanje o „mozgu“ sada je praćeno perceptivnim razmišljanjem o „srcu“.

Jedan primer je projekat koji vodi U iz računarskog naučnika Osmar Zaiane. Sa sve većim brojem starijih osoba koje pate od usamljenosti, on istražuje načine sa kolegama na psihijatriji da stvori empatičnog i emocionalno inteligentnog pratioca za ćaskanje.

„Starija osoba može reći: ‘Umorna sam’ ili ‘Lepo je napolju’ ili ispričati priču o svom danu i dobiti odgovor koji ih drži angažovanim“, kaže Zaiane.

„Usamljenost dovodi do dosade i depresije, što uzrokuje sveukupno pogoršanje zdravlja. Ali studije pokazuju da društvo — mačka, pas ili drugi ljudi — izuzetno pomaže.“

Ali Zaiane takođe insistira na pažljivo postavljenim etičkim ogradama. Chatbot ne može da ponudi većinu saveta, osim što možda predloži džemper ako korisnik pomene da mu je hladno, i uzdržava se od davanja mišljenja, ograničavajući razgovor na neutralne teme kao što su ishrana, porodica i prijatelji.

„Saputnik je relativno ograničen u onome što može da uradi“, kaže on.

Takođe je dizajniran da otkrije znake depresije i demencije, prenoseći informacije negovateljima i zdravstvenim radnicima.

„Ako otkrijemo anksioznost i mogućnost samopovređivanja, bot bi mogao da posavetuje osobu da pozove 811 ili nekog drugog za pomoć. Sve iznad toga, tvrdi on, može biti emocionalno nestabilno i opasno.

U humanističkim naukama, profesor muzike Michael Frishkopf i njegov interdisciplinarni istraživački tim koriste mašinsko učenje za kreiranje muzičkih plejlista i drugih zvučnih pejzaža kako bi smanjili stres kod pacijenata na intenzivnoj nezi.

Visok nivo stresa i anksioznost povezana sa delirijumom i deprivacijom sna uobičajeni su kod kritično bolesnih pacijenata, često ugrožavajući oporavak i preživljavanje, kaže Friškof. Upotreba lekova za lečenje ovih stanja može biti skupa, često sa ograničenom efikasnošću i potencijalno ozbiljnim nuspojavama.

Frishkopfov „pametni“ zvučni sistem čita fiziološke povratne informacije kao što su otkucaji srca, disanje i odgovor znojnih žlezda kako bi prilagodio umirujuće zvukove za pojedine pacijente. Algoritam u suštini procenjuje psihološko stanje pacijenta, reagujući personalizovanom listom za reprodukciju umirujućih zvukova.

Zvučni recept se takođe može uskladiti sa demografskim profilom pojedinca, uključujući pol, starost i geografsko poreklo.

„Možda bi zvuci koje ste čuli kao dete ili vaše muzičko iskustvo mogli imati neki poseban okidač za vas“, kaže Friškof.

Veštačka inteligencija se sada takođe koristi kao moćno sredstvo za pomoć u dijagnostici mentalnih poremećaja. Korišćenjem veštačke inteligencije za analizu skeniranja mozga, Sunil Kalmadi Vasu, viši specijalista za mašinsko učenje na Medicinskom i stomatološkom fakultetu, i njegov istraživački tim pronašli su način da procene šanse da će rođaci osoba sa šizofrenijom razviti bolest.

Rođaci pacijenata u prvom stepenu imaju do 19 procenata rizika od razvoja šizofrenije tokom svog života, u poređenju sa rizikom opšte populacije manjim od jedan procenat.

Iako alat nije namenjen da zameni dijagnozu od strane psihijatra, kaže Kalmadi Vasu, on pruža podršku za ranu dijagnozu pomažući u identifikaciji klastera simptoma.

Da bi pomogao lekarima da dijagnostikuju depresiju, još jedan projekat U od A ide dalje od skeniranja mozga i uključuje društvene faktore u svoj skup podataka.

„Nemamo jasnu sliku o tome gde tačno nastaje depresija, iako su istraživači napravili značajan napredak u identifikaciji njenih osnova“, kaže vođa projekta Bo Cao, docent na Odeljenju za psihijatriju Univerziteta A.

„Znamo da postoje genetske i moždane komponente, ali mogu postojati i drugi klinički, društveni i kognitivni faktori koji mogu olakšati preciznu dijagnozu.“

Koristeći podatke iz UK Biobank, biomedicinske baze podataka koja sadrži genetske i zdravstvene informacije za pola miliona ljudi u Ujedinjenom Kraljevstvu, istraživači će moći da pristupe zdravstvenim kartonima, skeniranju mozga, društvenim determinantama i ličnim faktorima za više od 8.000 pojedinaca kojima je dijagnostikovan veliki depresivni poremećaj.

U računarskoj nauci, istraživači su uspešno obučili model mašinskog učenja da identifikuju ljude sa posttraumatskim stresnim poremećajem analizom njihovih pisanih tekstova — sa 80 odsto tačnosti.

Kroz proces koji se naziva analiza sentimenta, model se dobija velikom količinom podataka, kao što je serija tvitova, i kategoriše ih prema tome da li izražavaju pozitivne ili negativne misli.

„Tekstualni podaci su tako sveprisutni; tako su dostupni i toliko ih imate“, kaže dr psihijatrije. kandidat i vođa projekta Jeff Savalha. „Sa ovoliko podataka, model je u stanju da nauči neke od zamršenih obrazaca koji pomažu da se razlikuju ljudi sa određenom mentalnom bolešću.“

Univerzitetu A takođe nema manjka naučnika iz humanističkih i društvenih nauka koji obraćaju veliku pažnju na etičke i društvene implikacije veštačke inteligencije koja brzo postaje sastavni deo naših života.

Vern Glaser sa Poslovne škole u ​​Alberti ističe u nedavnoj studiji da kada veštačka inteligencija ne uspe, to čini „prilično spektakularno…. Ako ne pokušate aktivno da razmišljate o implikacijama vrednosti, to će na kraju dovesti do loših ishoda. “

On navodi Majkrosoftovog Teja kao jedan primer loših ishoda. Kada je čet-bot predstavljen na Tviteru 2016. godine, povučen je u roku od 24 sata nakon što su ga trolovi naučili da izbacuje rasistički jezik.

Drugi primer je skandal „robodug” iz 2015. godine, kada je australijska vlada koristila veštačku inteligenciju da identifikuje preplaćene naknade za nezaposlene i invalidnine, na neki način uklanjajući svaki osećaj empatije ili ljudske prosudbe iz jednačine. Njegov algoritam je pretpostavio da svako neslaganje odražava preplatu i identifikovao je više od 734.000 preplata u vrednosti od dve milijarde australijskih dolara (1,8 milijardi kanadskih dolara).

Ljudske posledice su bile strašne.

Parlamentarne recenzije su otkrile „osnovni nedostatak proceduralne pravičnosti“ i nazvale program „neverovatno obeshrabrujućim one ljude koji su bili pogođeni, uzrokujući značajnu emocionalnu traumu, stres i sramotu“, uključujući najmanje dva samoubistva.

„Ideja je bila da eliminisanjem ljudskog rasuđivanja, koje je oblikovano predrasudama i ličnim vrednostima, automatizovani program donosi bolje, pravednije i racionalnije odluke po mnogo nižoj ceni“, kaže on.

Da bi se sprečili takvi destruktivni scenariji, ljudske vrednosti moraju biti programirane od samog početka, kaže Glaser. Dizajnerima veštačke inteligencije on preporučuje strateško ubacivanje ljudskih intervencija u algoritamsko donošenje odluka i kreiranje sistema evaluacije koji uzimaju u obzir više vrednosti.

„Želimo da budemo sigurni da razumemo šta se dešava, tako da veštačka inteligencija ne upravlja nama“, kaže on. „Važno je imati na umu mračnu stranu. Ako to možemo da uradimo, to može biti sila za društveno dobro.“

Za Rokvela, neposredniji problem od izgleda ljudskog izumiranja je iskorišćavanje ljudske psihologije za uticaj na ljude na zlokobne načine, kao što je mešanje u izbore ili prevara starijih iz njihove ušteđevine.

On citira skandal Kembridž analitika, u kojem je britanska firma za politički konsalting prikupila podatke o desetinama miliona korisnika Fejsbuka kako bi ciljala one sa psihološkim profilima koji su najpodložniji određenim vrstama političke propagande.

Strah od takve zlobne manipulacije potiče od zvona za uzbunu Maršala Mekluana pre više od 50 godina. Mekluan je takođe upozorio da oglašavanje može da utiče na nas na nesvesne načine, kaže Rokvel.

„Ispostavilo se da je delimično bio u pravu, ali izgleda da oglašavanje ne funkcioniše tako dobro kao što su ljudi mislili.

„Mislim da ćemo takođe razviti određeni nivo imuniteta (na manipulacije veštačke inteligencije) ili ćemo razviti oblike digitalne pismenosti koji će nas sprečiti da budemo prevareni jednako lako kao što se ljudi brinu da ćemo biti.

Ono čemu ne možemo tako lako da se odupremo, tvrdi Rokvel, jeste uticaj ljudske pristrasnosti u algoritmima veštačke inteligencije, s obzirom da je to direktan odraz naših istorijskih, društvenih i kulturnih uslova.

„Mislim da nije moguće eliminisati pristrasnost iz bilo kog skupa podataka, ali možemo biti transparentni u vezi sa tim“, kaže on, identifikujući, dokumentujući i eliminišući ono što možemo.

„Kod skupova podataka došlo je do ove vrste otimanja zemlje, gde su ljudi samo krali podatke bez traženja dozvole, baveći se autorskim pravima ili bilo čim slično“, kaže on.

Sada kada znamo da je to problem, „možda ćemo videti sporije, pažljivije projekte koji pokušavaju da poboljšaju podatke.“