DeepNostalgia omogućava reanimaciju preminulih, ali može biti zloupotrijebljena

Rezultati mogu biti kontroverzni i teško je ostati ravnodušan prema ovoj tehnologiji

DeepNostalgia omogućava reanimaciju preminulih, ali može biti zloupotrijebljena

Web stranica MyHeritage predstavila je alat koji koristi tehnologiju deepfake za animiranje lica uz pomoć fotografija osoba koje su preminule.

Ta mogućnost nazvana je DeepNostalgia, a kompanija je priznala da bi neki ljudi mogli smatrati je “jezivom”, dok će je drugi smatrati “čarobnom”.

Potvrdili su da nisu koristili govor kako bi izbjegli stvaranje videozapisa “lažnih ljudi”.

Ova mogućnost dolazi u trenutku dok vlada Velike Britanije razmatra zakonodavstvo o deepfake tehnologiji. Trenutno se razmatraju prijedlozi kako bi se zaustavila nezakonita izrada deepfake videozapisa bez pristanka.

MyHeritage tvrdi da namjerno nije uključio govor u tu mogućnost “kako bi se spriječile zloupotrebe, poput stvaranja lažnih videozapisa živih ljudi”.

– Ova mogućnost namijenjena je nostalgičnoj upotrebi, odnosno oživljavanju voljenih predaka – napisala je kompanija, a priznali su da se nekim ljudima sviđa nova tehnologija, dok se drugima čini jezivom.

– Rezultati mogu biti kontroverzni i teško je ostati ravnodušan prema ovoj tehnologiji – rečeno je.

Deepfake su računarski generirani videozapisi koji se mogu stvoriti od postojećih fotografija.

Tehnologiju je razvila izraelska kompanija D-ID. Koristili su umjetnu inteligenciju i svoje algoritme uvježbavali na unaprijed snimljenim videozapisima živih ljudi kako se miču licem i gestikuliraju.

Na web stranici MyHeritage reanimirane su historijske ličnosti poput kraljice Viktorije i Florence Nightingale.

Početkom ovog mjeseca, u znak obilježavanja njegovog rođendana, kompanija je na YouTube stavila videozapis Abrahama Lincolna koristeći tu tehnologiju. Bivši američki predsjednik pojavljuje se u boji i čini se kako govori.

Ljudi su počeli objavljivati vlastite reanimirane videozapise predaka na Twitteru. Neki su rezultate opisali kao “nevjerojatne” i “emocionalne”, dok su drugi izrazili zabrinutost.

U decembru je Channel 4 napravio deepfake kraljice koja je izgovorila alternativnu božićnu poruku, kao dio upozorenja o tome kako se tehnologija može koristiti za širenje lažnih vijesti.

Izvor: BBC

About The Author