Cookie / Süti tájékoztató
Kedves Látogató! Tájékoztatjuk, hogy a weboldal működésének biztosítása, látogatóinak magasabb szintű kiszolgálása, látogatottsági statisztikák készítése, illetve marketing tevékenységünk támogatása érdekében cookie-kat alkalmazunk. Az Elfogadom gomb megnyomásával Ön hozzájárulását adja a cookie-k, alábbi linken elérhető tájékoztatóban foglaltak szerinti, kezeléséhez.
Elfogadom
Nem fogadom el
2018.09.06

Hamis felnőtt tartalmak és politikus-utánzatok: hogyan védekezzünk?

Csak a szemüket figyeljük. Abból kiderülhet, hogy az igazit látjuk, vagy sem.
Az év első számú informatikai kulcsszava kétségkívül a mesterséges intelligencia. És a deepfake-é, ami nagyjából ugyanazon tőről fakad.

A nagy népszerűségnek örvendő deepfake leegyszerűsítve, röviden meghatározva olyan mesterséges intelligencia bevetésével készített videót takar, amelyben a program valakinek a testrészét – jellemzően a fejét – máséra cseréli, s az átlag felhasználóban a hamisítvány a tökéletes életszerűség érzetét kelti.

Nagyjából azzal kezdődött a dolog a múlt év végén, hogy a Redditen közzétették a deepfakeappot, melynek segítségével bármelyik kezdő felhasználó kitartó munkával és erős számítógéppel valamelyik celeb (vagy a volt barátnő és így tovább) arcát generálhatta rá egy pornós művésznő akciódús felvételére. Gal Gadot és Taylor Swift például már az arccsere áldozatai lettek.

Nem csak a Redditet, hanem a Youtube-t, s az egész webet elárasztották azok a csináld magad, how to videók, amelyek az amúgy technikailag műveletlen, ám rossz ízlésű felhasználót tanították be, miként hozzanak létre ilyen hamisítványokat.

A technológia a pornóból hamar átterjedt a politikába, a hamisított videók idén megjelentek a választási kampányokban is, s az online közösségek – alkalmanként némi rásegítéssel, máskor vírusvideóként maguktól – kezdték terjeszteni a lejárató anyagokat.

De úgy tűnik, van védelem a deepfake átverések ellen: a felvételen szereplők hunyorgását kell figyelni.

Siwei Lyu és kollégája, Ming-Ching Chang, valamint Yuezun Li PhD hallgató a Cornell Egyetemről dolgozatukban kimutatták, hogy 95 százalékos megbízhatósággal megkülönböztethetők a valódi videók a hamisítványoktól a pislogás alapján.

Következő esemény
2025.05.27 00:00