U martu prošle godine pojavio se video na kojem predsjednik Ukrajine Volodimir Zelenski govori građanima Ukrajine da polože oružje i predaju se Rusiji. Bio je to prilično očigledan deepfake – vrsta lažnog videa koji koristi umjetnu inteligenciju za zamjenu lica ili stvaranje digitalne verzije nekoga.
No kako razvoj umjetne inteligencije olakšava proizvodnju lažnih videa, njihovo brzo otkrivanje postalo je sve važnije. Intel vjeruje da ima rješenje za to nakon što su napravili sistem koji su nazvali “FakeCatcher”.
Središnje mjesto u sistemu ima tehnika zvana fotopletizmografija (PPG), koja otkriva promjene u krvotoku. Lica stvorena deepfakeovima nemaju takve signale, kaže naučnica u Intel Labsu Ilke Demir.
Sistem također analizira pokrete očiju kako bi provjerio autentičnost, Demir kaže da kada ljudi gledaju u neku tačku ili nekoga to je kao da emitiraju zrake iz očiju. No, za deepfake, to je poput googly eyes, one su divergentne.
Promatrajući obje ove značajke, Intel vjeruje da može otkriti razliku između pravog videa i lažnog u roku od nekoliko sekundi. Kompanija tvrdi da je FakeCatcher 96 posto tačan.
BBC je testirao sistem na nekoliko lažnih i stvarnih videa i on se pokazao prilično dobrim. Dobili su sve tačne odgovore osim u jednom slučaju kada je bio u pitanju lažni video.
No, kada su testirali sistem na videima koji su autentični, nastao je problem. Nekoliko je puta sistem rekao da je video lažan, a zapravo je bio stvaran. Što je video urađen s više piksela to je teže uhvatiti krvotok.
Sistem također ne analizira zvuk. Tako su neki videozapisi koji su se slušanjem glasa činili prilično stvarnima označeni kao lažni. Zabrinjavajuće je da ako program kaže da je video lažan, a ako je originalan, to bi moglo uzrokovati stvarne probleme.
Demir navodi da se “potvrda da je nešto lažno, u odnosu na ‘budite oprezni, ovo bi moglo biti lažno’, ima različitu težinu”. Ona kaže da je sistem pretjerano oprezan. Bolje uhvatiti sve lažnjake nego ih propustiti.
Deepfakes mogu biti nevjerovatno suptilni: dvosekundni isječak u reklami političke kampanje, na primjer. Mogu biti i niske kvalitete. Lažnjak se može napraviti samo promjenom glasa. U tom smislu, sposobnost FaceCatchera da radi “u divljini” – u kontekstu stvarnog svijeta – dovedena je u pitanje.
Intel tvrdi da je FakeCatcher prošao kroz rigorozna testiranja. To uključuje “divlji” test – u kojem je kompanija spojila 140 lažnih videa – i njihove prave kopije. U ovom testu sistem je imao stopu uspješnosti od 91 posto, kažu iz Intela.
Iznenađujuće je koliko je teško razlikovati lažni i pravi video, ali ova tehnologija svakako ima potencijal no potrebno je još mnogo rada na njemu.
Izvor: BBC