AI bi mogao da objasni zašto ne srećemo vanzemaljce

AI bi mogao da objasni zašto ne srećemo vanzemaljce

Veštačka inteligencija oseća svoje prisustvo na hiljade različitih načina. Pomaže naučnicima da shvate ogromne količine podataka; pomaže u otkrivanju finansijske prevare; vozi naše automobile; hrani nas muzičkim predlozima; njegovi chat botovi nas izluđuju. I tek počinje.

Da li smo sposobni da razumemo koliko brzo će AI nastaviti da se razvija? A ako je odgovor ne, da li to predstavlja Veliki filter?

Fermijev paradoks je neslaganje između očigledne velike verovatnoće postojanja naprednih civilizacija i potpunog nedostatka dokaza da one postoje. Predložena su mnoga rešenja zašto postoji neslaganje. Jedna od ideja je ‘Veliki filter’.

Veliki filter je pretpostavljeni događaj ili situacija koja sprečava inteligentni život da postane međuplanetarni i međuzvezdani, pa čak i dovodi do njegove smrti. Pomislite na klimatske promene, nuklearni rat, udare asteroida, eksplozije supernove, kuge ili bilo koji broj drugih stvari iz galerije kataklizmičkih događaja odmetnika.

Ili šta je sa brzim razvojem AI?

Novi rad u Acta Astronautica istražuje ideju da veštačka inteligencija postaje veštačka super inteligencija (ASI) i da je ASI Veliki filter. Naslov rada je „Da li je veštačka inteligencija veliki filter koji čini napredne tehničke civilizacije retkim u univerzumu?“ Autor je Majkl Geret sa Odeljenja za fiziku i astronomiju Univerziteta u Mančesteru.

„Bez praktične regulative, postoji svaki razlog da se veruje da bi veštačka inteligencija mogla da predstavlja veliku pretnju budućem kursu ne samo naše tehničke civilizacije već i svih tehničkih civilizacija.

Neki misle da Veliki filter sprečava tehnološke vrste poput naše da postanu multiplanetarne. To je loše jer je vrsta u većem riziku od izumiranja ili stagnacije sa samo jednim domom. Prema Geretu, vrsta je u trci sa vremenom bez rezervne planete.

„Predlaže se da se takav filter pojavi pre nego što ove civilizacije mogu da razviju stabilno, multiplanetarno postojanje, što sugeriše da je tipična dugovečnost (L) tehničke civilizacije manja od 200 godina“, piše Geret.

Ako je tačno, to može da objasni zašto ne otkrivamo tehnosignature ili druge dokaze o ETI (Vanzemaljska inteligencija). Šta nam to govori o našoj sopstvenoj tehnološkoj putanji? Ako se suočimo sa ograničenjem od 200 godina, i ako je to zbog ASI, gde nas to ostavlja?

Geret podvlači „…kritičnu potrebu da se brzo uspostave regulatorni okviri za razvoj veštačke inteligencije na Zemlji i napredak multiplanetarnog društva da bi se ublažile takve egzistencijalne pretnje“.

Mnogi naučnici i drugi mislioci kažu da smo na pragu ogromne transformacije. AI tek počinje da transformiše način na koji radimo stvari; veliki deo transformacije je iza kulisa. Čini se da je veštačka inteligencija spremna da eliminiše poslove za milione, a kada je uparena sa robotikom, transformacija izgleda skoro neograničena. To je prilično očigledna briga.

Ali postoje dublje, sistematičnije brige. Ko piše algoritme? Hoće li AI nekako diskriminisati? Skoro sigurno. Da li će konkurentski algoritmi potkopati moćna demokratska društva? Da li će otvorena društva ostati otvorena? Da li će ASI početi da donosi odluke umesto nas i ko će odgovarati ako to učini?

Ovo je rastuće stablo pitanja grananja bez jasnog kraja.

Stiven Hoking (RIP) je čuveno upozorio da bi veštačka inteligencija mogla da okonča čovečanstvo ako počne da se razvija nezavisno.

„Bojim se da bi veštačka inteligencija mogla u potpunosti da zameni ljude. Ako ljudi dizajniraju kompjuterske viruse, neko će dizajnirati veštačku inteligenciju koja se poboljšava i replicira. Ovo će biti novi oblik života koji nadmašuje ljude“, rekao je on za časopis Vired 2017. godine. ljudi, postaje ASI.

Hoking je možda jedan od najprepoznatljivijih glasova koji upozorava na AI, ali daleko od toga da je jedini. Mediji su puni diskusija i upozorenja, uz članke o poslu koji veštačka inteligencija obavlja za nas. Najalarmantnija upozorenja govore da bi ASI mogao da propadne. Neki ljudi to odbacuju kao naučnu fantastiku, ali ne i Geret.

„Zabrinutost da će veštačka superinteligencija (ASI) na kraju postati pokvarena smatra se glavnim problemom – borba protiv ove mogućnosti u narednih nekoliko godina je rastuća istraživačka potraga za lidere u ovoj oblasti“, piše Garet.

Da veštačka inteligencija nije imala nikakve koristi, pitanje bi bilo mnogo lakše. Ali pruža sve vrste prednosti, od poboljšanog medicinskog snimanja i dijagnoze do sigurnijih sistema transporta. Trik za vlade je u tome da dozvole da procvetaju koristi dok ograniče štetu.

„Ovo je posebno slučaj u oblastima kao što su nacionalna bezbednost i odbrana, gde bi odgovoran i etički razvoj trebalo da bude najvažniji“, piše Garet.

Problem je što smo mi i naše vlade nepripremljeni. Nikada nije postojalo ništa poput veštačke inteligencije, i bez obzira na to kako pokušavamo da je konceptualizujemo i razumemo njenu putanju, ostaje nam želja.

A ako smo u ovoj poziciji, bila bi i bilo koja druga biološka vrsta koja razvija AI. Pojava veštačke inteligencije, a zatim i ASI-ja mogla bi da bude univerzalna, što ga čini kandidatom za Veliki filter.

Ovo je rizik koji ASI predstavlja u konkretnom smislu: više mu nije bio potreban biološki život koji ga je stvorio.

„Kada dostignu tehnološku singularnost, ASI sistemi će brzo nadmašiti biološku inteligenciju i evoluirati tempom koji u potpunosti nadmašuje tradicionalne mehanizme nadzora, što će dovesti do nepredviđenih i neželjenih posledica za koje je malo verovatno da će biti u skladu sa biološkim interesima ili etikom“, objašnjava Geret.

Kako bi se ASI mogao osloboditi dosadnog biološkog života koji ga otežava? Mogao bi da proizvede smrtonosni virus, mogao bi inhibirati proizvodnju i distribuciju poljoprivredne hrane, mogao bi naterati nuklearnu elektranu da se rastopi i mogao bi pokrenuti ratove.

Zaista ne znamo jer je sve to neistražena teritorija. Pre stotinama godina, kartografi bi crtali čudovišta na neistraženim delovima sveta, a to je ono što mi sada radimo.

Ako sve ovo zvuči očajno i neizbežno, Geret kaže da nije.

Njegova dosadašnja analiza zasnovana je na ASI i ljudima koji zauzimaju isti prostor. Ali ako možemo da postignemo multiplanetarni status, izgledi se menjaju.

„Na primer, multiplanetarna biološka vrsta mogla bi da iskoristi nezavisna iskustva na različitim planetama, diverzifikujući svoje strategije preživljavanja i eventualno izbegavajući neuspeh u jednoj tački sa kojim se suočava planetarno vezana civilizacija“, piše Garet.

Ako možemo da rasporedimo rizik na više planeta oko više zvezda, možemo se zaštititi od najgorih mogućih ishoda ASI.

„Ovaj distribuirani model postojanja povećava otpornost biološke civilizacije na katastrofe izazvane veštačkom inteligencijom stvaranjem suvišnosti“, piše on.

Ako jedna od planeta ili ispostava koje budući ljudi zauzimaju ne uspe da preživi ASI tehnološku singularnost, druge mogu preživeti. I naučili bi iz toga.

Multi-planetarni status mogao bi čak učiniti više od samo preživljavanja ASI. Moglo bi nam pomoći da ga savladamo. Geret zamišlja situacije u kojima možemo detaljnije da eksperimentišemo sa veštačkom inteligencijom, a da je zadržimo. Zamislite veštačku inteligenciju na izolovanom asteroidu ili patuljastoj planeti, koja izvršava naše ponude bez pristupa resursima potrebnim da pobegne iz zatvora.

„Omogućava izolovana okruženja u kojima se efekti napredne veštačke inteligencije mogu proučavati bez neposrednog rizika od globalnog uništenja“, piše Garet.

Ali ovde je zagonetka. Razvoj veštačke inteligencije ide ubrzanim tempom, dok naši pokušaji da postanemo multiplanetarni nisu.

„Razlika između brzog napretka veštačke inteligencije i sporijeg napretka svemirske tehnologije je oštra“, piše Geret.

Razlika je u tome što je veštačka inteligencija računarska i informatička, ali svemirsko putovanje sadrži više fizičkih prepreka koje još ne znamo kako da prevaziđemo. Naša sopstvena biološka priroda sputava svemirska putovanja, ali nikakva takva prepreka ne sputava AI.

„Dok veštačka inteligencija teoretski može da unapredi sopstvene sposobnosti gotovo bez fizičkih ograničenja“, piše Garet, „svemirsko putovanje mora da se bori sa energetskim ograničenjima, granicama nauke o materijalima i surovim realnostima svemirskog okruženja“.

Za sada, AI radi u okviru ograničenja koja smo postavili. Ali to možda nije uvek slučaj. Ne znamo kada bi AI mogla postati ASI ili čak da li može. Ali ne možemo zanemariti mogućnost. To dovodi do dva međusobno povezana zaključka.

Ako je Geret u pravu, čovečanstvo mora marljivije raditi na putovanju u svemir. Može izgledati nategnuto, ali upućeni ljudi znaju da je istina: Zemlja neće biti zauvek nastanjena. Čovečanstvo će ovde propasti svojom rukom ili rukom prirode ako se ne širimo u svemir. Geretova 200-godišnja procena samo stavlja znak uzvika. Ponovljeni naglasak na dolasku do Meseca i Marsa pruža neku nadu.

Drugi zaključak se tiče donošenja zakona i upravljanja veštačkom inteligencijom, što je težak zadatak u svetu u kome psihopate mogu da preuzmu kontrolu nad celim nacijama i žele da vode rat.

„Dok industrijski akteri, kreatori politika, pojedinačni stručnjaci i njihove vlade već upozoravaju da je regulacija neophodna, uspostavljanje regulatornog okvira koji može biti globalno prihvatljiv biće izazov“, piše Geret.

Izazov to jedva opisuje. Međusobne svađe čovečanstva čine sve to još neupravljivijim. Takođe, bez obzira koliko brzo razvijamo smernice, ASI bi se mogao promeniti još brže.

„Bez praktične regulative, postoji svaki razlog da se veruje da bi veštačka inteligencija mogla da predstavlja veliku pretnju budućem toku ne samo naše tehničke civilizacije već i svih tehničkih civilizacija“, piše Geret.

Ako to uradimo, moglo bi se svesti na ono što može izgledati dosadno i svakodnevno: prepirke oko zakona.

„Postojanost inteligentnog i svesnog života u univerzumu mogla bi da zavisi od blagovremene i efektivne primene takvih međunarodnih regulatornih mera i tehnoloških poduhvata“, piše Geret.