Osnivač Facebooka Mark Zuckerberg pogledao je u kameru i otvoreno rekao ono čega su se mnogi pribojavali. “Zamislite ovo na trenutak: jedan čovjek ima potpunu kontrolu nad ukradenim podacima milijardi ljudi”, rekao je. “Svim njihovim tajnama, njihovim životima, njihovim budućnostima. Sve to mogu zahvaliti Spectreu. Spectre mi je pokazao da, tkogod upravlja podacima, upravlja i budućnošću.”
Prije nego što se pitate što je Spectre, bitno je napomenuti da Zuckerberg nikada nije rekao te četiri rečenice, iako postoji snimka njega kako ih govori. Snimka, na kojoj se vidi Zuckerbergovo lice i čuje njegov glas, u potpunosti je lažna, a objavljena je na Instagramu - društvenoj mreži u vlasništvu Facebooka.
Snimku je napravila oglašivačka tvrtka Canny u sklopu promocije izložbe Spectre, posvećene “tajnama digitalnih influencera”, no istovremeno je poslužila i kao test kontroverzne Facebookove politike o dopuštanju lažnih snimki na svojim platformama. Video Zuckerbergova lica i glasa nastao je uz pomoć deepfake tehnologije, algoritama umjetne inteligencije koji su sve bolji u stvaranju uvjerljivih lažnih snimki.
Povod za objavu snimke na Instagramu bila je nedavna objava snimke predsjednice američkog Kongresa, Nancy Pelosi, na kojoj je izgledala pijano dok je odgovarala na pitanja u studiju. Iako se nije radilo o deepfakeu, nego o autentičnoj snimci koju je netko usporio kako bi Pelosi izgledala pod utjecajem alkohola, snimka je postavljena na Facebook i dijeljena tisuće puta među korisnicima kao “dokaz” Pelosina neprofesionalnog ponašanja, prije nego što je otkriveno da je riječ o manipuliranoj snimci.
Zbog tog se događaja zakazala i rasprava u Kongresu oko opasnosti deepfake tehnologije i njezina potencijalnog utjecaja na sljedeće izbore, no Facebook je, unatoč pritisku, odbio ukloniti snimku, već je samo odlučio da će je “deprioritizirati” - smanjiti koliko se često pojavljuje korisnicima, te pokraj nje postaviti poveznice na vijesti koje otkrivaju da je riječ o lažnoj snimci.
Neil Potts, Facebookov direktor za javna pravila, rekao je da će video ostati te da bi potpuno isto učinili i da je netko objavio lažni video sa Zuckerbergom. Kada je Canny učinio upravo to, Facebook se odlučio držati vlastitog obećanja. Zuckerbergov video još uvijek je na Instagramu, desetak dana nakon objave, no pokraj njega je i upozorenje da je lažan.
Uvođenje cenzure
“Uz dovoljno podataka za treniranje, ovi moćni algoritmi za proizvodnju deepfake uradaka mogu prikazati stvarnu osobu kako radi nešto što nikada nije, ili govori riječi koje nikada nije izrekla”, upozorio je Adam Schiff, čelnik kongresnog Odbora za obavještajna pitanja, koji je prije deset dana raspravljao o ovoj tehnologiji.
Izrada uvjerljivih lažnih snimki predstavlja dvostruku prijetnju izborima - s jedne strane moguće je prikazati nekog kandidata kako čini ili govori nešto što bi mu neodlučni glasači mogli izrazito zamjeriti, a s druge strane, bilo koji političar koji je snimljen kako čini ili govori nešto nezakonito ili nemoralno lako se može obraniti: “to je samo deepfake video!”.
Schiff je potegnuo pitanje odgovornosti platforma društvenih mreža, koje su do sada uživale imunitet od odgovornosti za postavljeni sadržaj, no aktivisti za slobodu govora zabrinuti su oko bilo kakve mogućnosti uvođenja cenzure. Facebook bi, samostalno prosuđujući koje su snimke prave a koje lažne, mogao lako cenzurirati legitimne snimke, zaštititi pojedinog kandidata od progona, ili potaknuti osudu nekog drugog. Oko toga su posebno zabrinuti i republikanci, koji smatraju kako su sve društvene mreže pristrane i naginju liberalnim strujama u društvu.
Zakoni su, zasad, u potpunosti nepripremljeni nositi se s ovakvom vrstom novih tehnologija. Deepfake video Kim Kardashian, koji je objavio Canny u sklopu iste promocije kao i video Zuckerberga, uklonjen je s YouTubea zbog kršenja pravila o zaštiti autorskih prava. Kako se video Kim Kardashian temeljio na snimci intervjua koji je napravljen za Vogue, izdavač Condé Nast uputio je vjerojatno zahtjev YouTubeu tvrdeći da se krše njegova autorska prava. No zaštita autorskih prava nije učinkovit pravni okvir za zaštitu od zlouporabe deepfake videa.
Izdavači i produkcijske kuće imaju uigrane pravne timove kojima je brzo i jednostavno zatražiti uklanjanje sadržaja na temelju primjenjivih zakona o autorskim pravima, no što učiniti kada se radi o snimci koju je netko sam snimio i priredio, te naknadno “zalijepio” poznato lice na protagonista?
Problem je što viralni sadržaji lako prikupe tisuće ili stotine tisuća podjela na društvenim mrežama. Lažni video Nancy Pelosi postao je viralan tek kada su na njega pozornost skrenuli Trump i njegovi obožavatelji. Dok je otkriveno da se radi o lažnoj, editiranoj snimci, šteta je već bila napravljena.
Hrvatski IT konzultant Radoslav Dejanović rekao nam je da u konačnici nije ni bitno koliko je kvalitetna lažna snimka. “Ljudi će rado prigrliti takve informacije, i barem ih na prvu loptu neće promatrati iz skeptične perspektive”, rekao nam je. “Čak i očite krivotvorine svakako će naći svoje kupce, ljude koji će u krivotvorini uživati, čak i kad znaju da je krivotvorina.”
Kvalitetnije urađene krivotvorine, tvrdi Dejanović, mogle bi možda prevariti veću količinu ljudi, pa čak i one malo skeptičnije, no to je samo pitanje dosega. “U svakom će slučaju krivotvorina obaviti ono za što je namijenjena: narušiti ugled ciljane osobe”, rekao je Dejanović.
Istraživanje koje je proveo dr. Daniel Kreiss sa Sveučilišta u Sjevernoj Karolini dalo je slične rezultate: ljudi ne dijele sadržaje samo zato što vjeruju da su istiniti. Postoje mnogi razlozi zašto ljudi dijele sadržaje na društvenim mrežama, a jedan od bitnijih jest da smatraju da poruka predstavlja istinu o svijetu, iako nije temeljena na činjenicama. Konkretno, ako misle da je neki političar loša osoba, dijelit će snimke koje ga prikazuju u lošem svjetlu, čak i ako znaju da je lažna.
Brojna su druga istraživanja također pokazala da na društvenim mrežama, poput Facebooka, odlično prolaze sadržaji koji uzrokuju osjećaj bijesa i ogorčenosti, bez obzira na to je li sadržaj lažan ili lažiran.
Prošlog je tjedna tim stručnjaka sa Sveučilišta Berkeley demonstrirao tehnologiju za otkrivanje lažnih snimaka. Radi se o digitalnoj forenzici koja uspoređuje postojeće, autentične snimke osoba s oglednom snimkom te prepoznaje ako se kretnje na lažnoj snimci ne podudaraju s tipičnim kretnjama te osobe. Radi se o potencijalno moćnom alatu za razotkrivanje deepfake uradaka, no problem je što zahtijeva veliku bazu postojećih snimki kako bi bio pouzdan. Drugi je problem što se svi algoritmi koji razaznaju deepfake snimke mogu koristiti i za proizvodnju boljih lažnih snimki.
Povratne veze
“Proces algoritamskog učenja uključuje i pozitivne i negativne povratne veze”, objasnio nam je Dejanović. “Program se uči da prepozna u čemu je pogriješio tako što ga tome uči drugi program koji, sa svoje strane, uči prepoznavati greške ovog prvog”. Ipak, tvrdi Dejanović, to ne znači da će biti moguće stvoriti savršeni deepfake video koji nitko neće moći raskrinkati.
Pravna stručnjakinja i profesorica Sveučilišta u Marylandu Danelle Citron posvjedočila je pred Kongresom da ne postoji način kako zaustaviti deepfake snimke te da je potrebna kombinacija “zakona, tržišta, i društvene otpornosti”, no da će u konačnici uloga zakona biti vrlo skromna.
Proganjati autore deepfake uradaka bit će gotovo nemoguće. Prošle je godine internet preplavila lavina deepfake pornografskih uradaka - brojni privatni korisnici koristili su se javno dostupnim algoritmima kako bi lice svoje omiljene glumice ili pjevačice “zalijepili” na tijelo svoje omiljene pornozvijezde. Tehnologija je toliko napredovala da je za uspjeh bilo dovoljno samo rudimentarna količina informatičke pismenosti.
Kvaliteta tehnologije u međuvremenu je napredovala, a nije postala ništa složenija za korištenje. Institucionalni akteri - državne ili privatne obavještajne službe, izborni stožeri i druge skupine - moći će lako i jednostavno proizvoditi lažne snimke visoke kvalitete, što je puno lakše u slučaju političara. Iako je danas već moguće proizvesti lažnu snimku koristeći se samo jednom fotografijom “mete”, najbolji se rezultati postižu uz cijelu arhivu fotografija, iz raznih kutova i pod raznim osvjetljenjima. Također, rezultati su puno bolji ako u konačnom rezultatu “meta” ne mijenja previše položaj tijela i gleda ravno u kameru ili u jednu točku. Oboje su preduvjeti idealni za difamaciju političara - internet je pun njihovih fotografija, a njihova obraćanja uglavnom se rade izravno u kamere.
Kako bilo tko može proizvesti lažnu snimku, bit će gotovo nemoguće otkriti njezin izvor. Čak i u slučajevima kada se može sumnjati na neki izvor, pitanje je je li on potpada pod jurisdikciju zemlje u kojoj je izvršen pokušaj difamacije. Kao i u drugim slučajevima širenja dezinformacija, institucionalni akteri lako se mogu izvlačiti da se radi o pojedincu koji je djelovao na svoju ruku - što je još kredibilnije kada se zna da je potreban minimum informatičkog predznanja.
Na pitanje možemo li više uopće vjerovati svojim očima, Dejanović nam odgovara da možemo. “Zapravo, uglavnom i možemo vjerovati samo svojim očima”, rekao nam je. “Fotografije i videozapisi, pa i audiozapisi, mogu biti krivotvoreni. Pitanje je, zapravo, koliko možemo vjerovati bilo čemu online?” rekao je i dodao da jednostavnog odgovora na to pitanje - nema.
“I dalje vrijede pravila iz ‘stvarnog’ života: skeptičan i analitički pristup informaciji, uz informiranje i edukaciju, smanjuje mogućnost da ispadnete naivac”, objasnio je.
U međuvremenu, stvaranje atmosfere u kojoj se ne može vjerovati ničemu samo ide na ruku onima koji žele sijati dezinformacije i kaos. “Ako nakon duljeg vremena ljudi ne mogu razlikovati činjenice od laži, vjerovat će svemu ili ničemu”, rekao je pred Kongresom Clint Watts iz Foreign Policy Research instituta, međunarodnog think tanka.
Wattsovo je rješenje pritisnuti i izborne stožere i društvene medije na bližu suradnju kako bi zajednički razvili standarde protiv dezinformiranja. “Pritisnuti tehnološke tvrtke da surađuju u borbi protiv ekstremizma i dezinformacije, razviti brze odgovore na takve prijetnje. Bilo kakva odgoda odgovora samo omogućava rast teorijama zavjera”, rekao je.
S Wattsom se složila i Citron, koja je pozvala izborne stožere političara da se obvežu kako neće širiti ni dijeliti deepfake snimke tijekom predizbornih kampanja, te da izgrade bolje izravne odnose s društvenim mrežama kako bi mogli izravno opovrgnuti bilo kakve neistine koje se pojave na internetu. Pozvala je i glasače da budu “skeptični, ali bez nihilizma”.
Lažne informacije
Najveći problem stavlja se pred medije, one koji bi trebali pozorno pratiti što je istina a što dezinformacija. U modernom medijskom okruženju, pod pritiskom brzog objavljivanja vijesti, lako bi se moglo dogoditi da “procure” lažne informacije. Jednako je loše što će oprezniji mediji možda dugo čekati s objavom neke snimke dok ne uspiju potvrditi da je autentična, do trenutka kada više možda uopće neće biti ni relevantna.
Jednostavni odgovori ne postoje, no sigurno je da se radi o tehnologiji koja će obilježiti medijski i politički krajolik u bliskoj budućnosti. U najpozitivnijem slučaju, ljudi će postati oprezniji, iskusniji, i možda povrate vjeru u one tradicionalne medije koji će posebnu pozornost posvetiti otkrivanju i zaustavljanju lažnih snimki. U najgorem slučaju, pred nama je period u kojem će stvarno svatko moći birati “činjenice” i stvarnost koja se najbolje podudara s njegovim predrasudama i njegovim svjetonazorom. U takvom će okruženju profitirati samo oni kojima bi istina ili iskrenost mogli naškoditi.
Za sudjelovanje u komentarima je potrebna prijava, odnosno registracija ako još nemaš korisnički profil....