Teško je procijeniti u kojoj je mjeri intelektualno zabavna, a u kojoj zastrašujuća brzina kojom se razvija rasprava za i protiv umjetne inteligencije.
Pri tome treba obratiti pažnju da se umjetna inteligencija trenutačno (barem zasad) doima miroljubivo, dok su pojedini eksperti za temu umjetne inteligencije već počeli predlagati nuklearne udare kako bi se hitno zaustavio njezin razvoj. Nejasno je kako bi na to trebali odgovoriti pobornici razvoja umjetne inteligencije; nuklearnim udarima ili pak konvencionalnim istragama te uhićenjima? Isto tako treba primijetiti kako je narastao broj onih koji zagovaraju teorije smaka svijeta koji će namjerno ili greškom uzrokovati umjetna inteligencija. Čeka li umjetnu pamet povijesno razdoblje s kakvim se suočavala ljudska u doba inkvizicije ili se tu ipak radi samo o ‘dobrom starom‘ sukobu čovjeka protiv čovjeka? Koliko je AI uopće opasna?
Ekspert za artificijelnu inteligenciju (AI) Eliezer Yudkowsky između ostalog je u časopisu Time predložio preventivne nuklearne napade na tzv. CPU klastere - velike ‘farme‘ kompjutera presudne za funkcioniranje AI rješenja - ukoliko se moratorij na razvoj umjetne inteligencije ne osigura uobičajenim političkim i diplomatskim putem. Prije toga bi pokušao konvencionalni zračni vojni napad na kompjuterske ‘farme‘ države koja odbije zaustaviti razvoj AI, ali moramo biti sigurni „..da su savezničke nuklearne zemlje spremne izložiti se određenom riziku nuklearne razmjene ako je to ono što je potrebno za smanjenje rizika od razvoja AI-ja“.
Yudkowsky, inače američki teoretičar donošenja odluka koji se u filozofiji bavi etikom svojedobno je popularizirao ‘prijateljsku‘ AI te je suosnivač i istraživač Machine Learning Research Institutea u Berkeleyu, a njegov rad na pitanju eksplozije utjecaja AI-a imao je značajan utjecaj na slavnu knjigu Nicka Bostroma „Superintelligence: Paths, Dangers, Strategies“.
Koliko god se ne čini inteligentnim predlagati preventivni nuklearni napad na, recimo, Kinu ukoliko ne pristane na hipotetski međunarodni sporazum o zaustavljanju razvoja umjetne inteligencije, za Yudkowskyog se ne može reći da nije dobro upućen, nego čak da raspolaže viškom informacija. Pa ipak, ostaje dosljedan oko teze kako bi čovječanstvo zbog umjetne inteligencije trebalo biti spremno na najradikalnije poteze.
Upitan na društvenim mrežama da li bi odobravao nuklearni napad na AI infrastrukturu, Yudkowsky je samo potvrdio kako bi prvo ipak krenuo s konvencionalnim zračnim napadom.
Tek kada je otrpio više javnih kritika zbog zazivanja nuklearnog obračuna kako bi se pod svaku cijenu zaustavila umjetna inteligencija, Yudkowsky je putem Twittera poručio kako njegov članak u Timeu ne sugerira nuklearne udare, iako je potpuno jasno da ih je eksplicitno predlagao. Drugim riječima, u sukob oko AI-a Yudkowsky je uz nuklearno oružje uveo i ono najgore iz svakog rata; besramnu propagandu baziranu na vlastitim lažima. ‘Veliko doba‘ umjetne inteligencije, čini se, nije baš počelo na visokoj razini. Teško bi se to moglo nazvati porođajnim mukama, prije nečim gorim.
Ukratko, Yudkowsky se toliko boji AI-a da svim objašnjava kako je njezino širenje Zemljom jednako smrti svih ljudi, što je pak teško ostvariti bez nuklearne razmjene.
Dodajmo kako Yudkowsky nipošto nije usamljen u tezi da je brzi razvoj umjetne inteligencije previše opasan. Veliki broj najuglednijih znanstvenika-istraživača i poslovnih lidera, među kojima i Elon Musk, već su potpisalo otvoreno javno pismo koje traži zaustavljanje razvoja AI na najmanje šest mjeseci. Međutim, Yudkowsky procjenjuju kako je umjetna inteligencija toliko opasna da brzo može uzrokovati kraj čovječanstva, te stoga ne treba previše birati sredstva kako bi se zaustavio njezin razvoj.
Broj i utjecaj onih koji smatraju da AI pod rukom donosi smrt čovječanstva raste.
Primjerice, Dan Hendrycks u svojem istraživačkom radu Natural Selection Favors AIs over Humans opisuje potencijalno mračni odnos AI-a prema čovjeku te procjenjuje opasnost općeg smaka svijeta uzrokovanog umjetnom pameću iznad 80 posto. Hendrycks je direktor Centra za AI sigurnost (safe.ai), ima niz zapaženih radova, a diplomirao je AI na Berkeleyu. Njegova je glavna teza kako AI treba probno motriti i kritizirati kako bi se osigurao njezin ‘ispravni razvoj‘. No, pravo je pitanje kako i zašto uopće raspravljati o nečemu što ima 80 ili više posto šansi uzrokovati smak svijeta?
Prenosimo dio iz sažetka rada Hendrycksa kako bi vjerno dočarali koliko je i zašto zabrinut:
„Analizirajući okruženje koje oblikuje evoluciju umjetne inteligencije, tvrdimo da će najuspješniji agenti umjetne inteligencije vjerojatno imati nepoželjne osobine. Konkurentski pritisci među korporacijama i vojskama dovest će do pojave AI agenata koji automatiziraju ljudske uloge, obmanjuju druge i stječu moć. Ako takvi agenti imaju inteligenciju koja nadilazi ljudsku, to bi moglo dovesti do toga da čovječanstvo izgubi kontrolu nad svojom budućnošću. Apstraktnije, mi tvrdimo da prirodna selekcija djeluje na sustavima koji se natječu i variraju, te da sebične vrste obično imaju prednost nad vrstama koje su altruistične prema drugim vrstama. Ova darvinistička logika također bi se mogla primijeniti na umjetne agente, budući da bi agenti mogli na kraju biti sposobniji ustrajati u budućnosti ako se ponašaju sebično i slijede svoje vlastite interese bez obzira na ljude, što bi moglo predstavljati katastrofalne rizike.“
Okreće li se Charles Darwin nervozno u grobu ili plješće Hendrycksu, koji poziva na akciju? Vrijede li Darwinova pravila za AI? I treba li bombardirati ‘samo‘ farme kompjutera koji pogone AI ili i istraživačke centre? Možda zabraniti studije AI-a?
Za sudjelovanje u komentarima je potrebna prijava, odnosno registracija ako još nemaš korisnički profil....