Csak a szemüket figyeljük. Abból kiderülhet, hogy az igazit látjuk, vagy sem.
Az év első számú informatikai kulcsszava kétségkívül a mesterséges intelligencia. És a deepfake-é, ami nagyjából ugyanazon tőről fakad.
A nagy népszerűségnek örvendő deepfake leegyszerűsítve, röviden meghatározva olyan mesterséges intelligencia bevetésével készített videót takar, amelyben a program valakinek a testrészét – jellemzően a fejét – máséra cseréli, s az átlag felhasználóban a hamisítvány a tökéletes életszerűség érzetét kelti.
Nagyjából azzal kezdődött a dolog a múlt év végén, hogy a Redditen közzétették a deepfakeappot, melynek segítségével bármelyik kezdő felhasználó kitartó munkával és erős számítógéppel valamelyik celeb (vagy a volt barátnő és így tovább) arcát generálhatta rá egy pornós művésznő akciódús felvételére. Gal Gadot és Taylor Swift például már az arccsere áldozatai lettek.
Nem csak a Redditet, hanem a Youtube-t, s az egész webet elárasztották azok a csináld magad, how to videók, amelyek az amúgy technikailag műveletlen, ám rossz ízlésű felhasználót tanították be, miként hozzanak létre ilyen hamisítványokat.
A nagy népszerűségnek örvendő deepfake leegyszerűsítve, röviden meghatározva olyan mesterséges intelligencia bevetésével készített videót takar, amelyben a program valakinek a testrészét – jellemzően a fejét – máséra cseréli, s az átlag felhasználóban a hamisítvány a tökéletes életszerűség érzetét kelti.
Nagyjából azzal kezdődött a dolog a múlt év végén, hogy a Redditen közzétették a deepfakeappot, melynek segítségével bármelyik kezdő felhasználó kitartó munkával és erős számítógéppel valamelyik celeb (vagy a volt barátnő és így tovább) arcát generálhatta rá egy pornós művésznő akciódús felvételére. Gal Gadot és Taylor Swift például már az arccsere áldozatai lettek.
Nem csak a Redditet, hanem a Youtube-t, s az egész webet elárasztották azok a csináld magad, how to videók, amelyek az amúgy technikailag műveletlen, ám rossz ízlésű felhasználót tanították be, miként hozzanak létre ilyen hamisítványokat.
A technológia a pornóból hamar átterjedt a politikába, a hamisított videók idén megjelentek a választási kampányokban is, s az online közösségek – alkalmanként némi rásegítéssel, máskor vírusvideóként maguktól – kezdték terjeszteni a lejárató anyagokat.
De úgy tűnik, van védelem a deepfake átverések ellen: a felvételen szereplők hunyorgását kell figyelni.
Siwei Lyu és kollégája, Ming-Ching Chang, valamint Yuezun Li PhD hallgató a Cornell Egyetemről dolgozatukban kimutatták, hogy 95 százalékos megbízhatósággal megkülönböztethetők a valódi videók a hamisítványoktól a pislogás alapján.