Da je vrag odnio šalu znali smo i ranije, no sad je kap prelila čašu. Preživjeli smo rat, epidemiju, antivaksere, ravnozemljaše, Željku Markić i njene „građanske” inicijative, molitelje na trgovima, slavljenje ratnih zločinaca kao heroja, predsjednika kojeg smo sami izabrali misleći, u svojoj naivnosti, da postoji „manje zlo”. Preživjeli smo besramnu pljačku društvene imovine iz milja nazvanu pretvorbom i privatizacijom, nezasitnu crkvu s dvorima od oniksa, svećenicima pedofilima i oltarskim nacionalizmom kao i kriminalnu organizaciju na čelu države. Sve smo nekako preživjeli, ali tehnologija će nas dokrajčiti.
„Zvijer” se zove Deepfake AI. Radi se o umjetnoj inteligenciji koja služi lažiranju fotografija i snimaka na način da osobu, koja je stvarno na nekoj fotografiji ili snimci, zamijeni nekim drugim. Nije to ništa novo, reći ćete, takvi programi postoje već godinama, no do koje je mjere ovo čudo usavršeno najbolje shvatimo kad otkrijemo da smo akteri u porno filmu, iako s priličnim stupnjem sigurnosti možemo ustanoviti kako se nismo upuštali u tako zahtjevne glumačke angažmane. To je ujedno trenutak u kojem čovjeku postane bolno jasno kako, u nadmetanju s tehnologijom i neiscrpnim mogućnostima njene zloupotrebe, nema apsolutno nikakve šanse, ne za pobjedu, nego za opstanak. Dovoljno je da se neki šaljivdžija ili ogorčeni bivši partner malo poigra i našali na naš račun. Znat ćete da se to dogodilo kad opazite znakovit smiješak na usnama susjeda, rodbina vas prestane pozivati na obiteljska okupljanja, a roditelji propadnu u zemlju. U odnosu na zastarjele aplikacije koje poznajete, razlika je golema, ovdje često ni stručnjaci nisu u stanju prepoznati da je riječ o prevari.
Pogubni scenarij
S takvim se scenarijem suočila Australka Noelle Martin, kad je u dobi od 17 godina primila anonimnu obavijest da se na internetskim pornografskim stranicama nalazi deepfake video koji ju prikazuje u eksplicitnim scenama seksualnog odnosa, te da snimka izgleda vrlo uvjerljivo. Rekla je da je, kad je pročitala poruku, ostala ukopana, zamrznuta u tom trenutku, osjećajući kako joj se život ruši pred očima. Da stvar bude gora, video je u naslovu imao njeno puno ime i prezime. Ubrzo je otkrila i to da ova snimka nije jedina, naišla je na još jednu koja ju lažno prikazuje u oralnoj seksualnoj aktivnosti. Svijest o tome da će ju, bez ikakve njene krivnje, posljedice ovog zločina pratiti cijeli život i da će uvijek morati objašnjavati kako je riječ o prevari, bila je izvor snažnog očaja. Zbog svega je odlučila javno progovoriti, i nije bilo uzalud. Njeno je iskustvo u Australiji potaknulo donošenje zakona o zabrani dijeljenja intimnih fotografija i snimaka bez pristanka osobe koju prikazuju.
Umjetnointeligentni „monstrum” radi na način da učitava stvarne fotografije „žrtve” iz mnogo različitih kutova hvatajući svaki detalj i zatim stvara lažni digitalni sadržaj kombiniranjem dva algoritma, od kojih jedan generira i (na temelju otkrivenih grešaka) neprekidno usavršava krivotvorenu snimku, a drugi pronalazi najsitnija odstupanja analizirajući različite kutove, kretnje, ponašanje, govor, gestikulaciju i ostalo. I to nije sve. U stanju je kreirati i potpuno novi, originalan sadržaj koji će prikazivati nekog čovjeka kako radi ili govori ono što nikad nije izgovorio niti učinio. Dodatno je opasno što Deepfake AI ima sposobnost širenja lažnih informacija na način da se čini kako one dolaze iz pouzdanih izvora. Tako smo, primjerice, u martu prošle godine mogli vidjeti lažni video u kojem ukrajinski predsjednik Volodimir Zelenski poziva svoje vojnike da se predaju. Srećom, reakcija je bila brza. Zelenski se, ubrzo po objavi lažne snimke, obratio javnosti rekavši: „Ako ikome mogu poručiti da odloži oružje, onda je to ruska vojska”. O cijelom smo slučaju saznali kad je Nathaniel Gleicher, voditelj službe za sigurnosne protokole u Meti (kompaniji u čijem su vlasništvu Facebook i Instagram) objavio da su njihovi službenici identificirali i uklonili ovu snimku. Bilo bi vrlo utješno kad bismo saznali da su i snimke izjava predsjednika Zorana Milanovića inteligentno generirane, no čini se da nisu.
Stručnjaci posebno strahuju od mogućnosti zloupotrebe ove tehnologije uplitanjem u izborne procese i predizbornu propagandu pa je U.S Department of Homeland Security (Ministarstvo domovinske sigurnosti SAD-a) objavilo poseban izvještaj o „rastućoj prijetnji od Deepfake identiteta”.
Zloupotreba moći
Osim zloupotrebe u političke svrhe, očekuje se da bi ovaj sustav mogao biti korišten za brojne nezakonite aktivnosti poput ucjenjivanja, nanošenja štete ugledu ili dostojanstvu druge osobe te za cyberbullying tj. internetsko zlostavljanje postavljanjem „žrtvine” fotografije u nezakonitu, sramotnu ili na neki drugi način kompromitirajuću situaciju, poput već spomenutog kreiranja lažne pornografije, zavaravajućeg prikaza konzumacije narkotika, opijanja, primanja mita, za stvaranje lažnih dokaza kojima se nekoj osobi potvrđuje krivnja ili ju se oslobađa krivnje i slično. Tvrtka Deeptrace, koja se bavi analizom internetskih sadržaja i istraživanjem umjetne inteligencije, u septembru 2019. detektirala je 15 hiljada deepfake videa na internetu, gotovo dvostruko više u usporedbi s januarom iste godine. Od tih 15 hiljada, čak 96 posto je bilo pornografskog karaktera, a u svima njima zloupotrijebljen je identitet žena. Danielle Citron, profesorica prava Sveučilišta u Bostonu, to je prokomentirala govoreći kako se „deepfake tehnologija koristi kao oružje protiv žena”.
Unatoč svemu, korištenje ovog umjetnointeligentnog sustava u većini zemalja nije zabranjeno, osim kad se odnosi na dječju pornografiju, klevetu i govor mržnje. Dodatan je problem što je ovakve snimke, ukoliko su napravljene korištenjem profesionalne opreme, vrlo teško otkriti. Jedan od znakova, pomoću kojih ih je ranije bilo moguće detektirati, bio je taj da „žrtve” u deepfake snimkama uopće nisu treptale. Razlog je bio u tome što su virtualni likovi kreirani temeljem pravih fotografija neke osobe, a na njima uvijek, ili gotovo uvijek, imamo otvorene oči. No, sustav umjetne inteligencije neprestano se popravlja i usavršava pa je u međuvremenu (od 2018. kad je bio otkriven) i taj znak otklonjen. Likovi, koje Deepfake AI sada generira, trepću. Zvuči prilično deprimirajuće da će ubrzo vrlo vjerojatno samo druga umjetna inteligencija biti u stanju prepoznati zavaravajuće digitalne sadržaje koje je proizvela Deepfake AI. Čovjeka tu više nema.
„Nije moguće zamisliti ljudsku egzistenciju bez lica. U licu je upisano čudo postojanja.” Predrag Finci