mesterséges intelligencia által előállított hamis arcmásolás, vagyis a deepfake jelenség súlyos egyéni és társadalmi kockázatokat rejt – hívja fel a figyelmet a Nemzeti Média- és Hírközlési Hatóság (NMHH) 

Tájékoztatásuk szerint a deepfake egy olyan – a hitelességét tekintve rendkívül meggyőző videó –, amelyben többnyire létező emberek arcát felhasználva hamis képmásokat mutatnak be, melyeket mesterséges intelligencia felhasználásával állítottak elő.

A fényképek retusálása, vagyis technikai értelemben vett meghamisítása természetesen nem új keletű gyakorlat, ám a mesterséges intelligencia nemcsak a képek megváltoztatását, hanem azok létrehozását is lehetővé teszi.

A deepfake 2017-ben indult hódító útjára a Reddit platformon, ahol az egyik felhasználó egy pornószínésznő arcát egy híres színésznőével helyettesítette. Ezt a videót követve számos hasonló hamisítvány látott napvilágot, és 2018 végére a jelenség már szinte általánossá vált, mígnem mára jóformán már bárki tud jobb vagy rosszabb minőségben, különösebb utánajárás és technikai ismeret nélkül is deepfake tartalmakat készíteni.

Aztán a kifejezetten félrevezető céllal megalkotott, úgynevezett megtévesztő deepfake víziója is hamar megszületett, pedig az effajta tartalom hosszú ideig csak fikcióként élt a köztudatban.

Amikor Karácsony Gergely Kijev ál-polgármesterével egyeztetett

Az elméleti lehetőség azóta valósággá vált. Erről árulkodik az a 2022 júniusában történt magyarországi eset, amely Budapest főpolgármesterhez, Karácsony Gergelyhez, valamint Kijev polgármesterhez, Vitalij Klicskóhoz kötődött, pontosabban egy ál-Klicskóhoz, hiszen - mint később kiderült - a budapesti főpolgármester a videóbeszélgetés során valójában nem a hivatalban lévő ukrán városvezetővel folytatott beszélgetést.

Utólag kiderült, hogy ez az ál-Klicsko korábban Madrid, Berlin és Bécs polgármestereivel is kezdeményezett videóhívásokat.

Figyeljünk az árulkodó jelekre

Léteznek azonban a deepfake-re jellemző tipikus hibák, melyek általános ismertetőjegyei az ilyen jellegű hamisítványoknak. Ha odafigyelünk ezekre, egy idő után már könnyebben felfedezhetjük, hogy nem egy valódi személyt látunk a felvételeken.

Az NMHH tanácsa szerint az első és legfontosabb, hogy jól szemügyre vegyük a képen vagy videófelvételen látható arcot, a pórusokat, a homlokot, kiváltképpen a haj és a nyak vonalát, hiszen számos esetben a hamisítvány már az illesztési pontokat követve leleplezhető.

A törvényi rendelkezések a deepfake létrejöttét elősegítő technológiát nem, de a felhasználásának módját már szabályozzák.

Senki nincs biztonságban

Közölték azt is, hogy a deepfake algoritmussal létrehozott tartalmak viszonylag új jelenségnek számítanak, de a szakértők már felhívták a figyelmet arra, hogy milyen kockázatokat is jelenthetnek az egyénekre, szervezetekre vagy akár országok kormányaira nézve.

Hangsúlyozták, hogy senki sincs biztonságban a deepfake tartalmaktól,

és ezért egyes országokban már léteznek kifejezetten az ilyen tartalmakkal való visszaélések ellen létrehozott büntető szankciók, ugyanakkor a legtöbb helyen –  így hazánkban is – a jogi háttér még nem biztosított.

Ugyanakkor a deepfake technológia által generált kép- és hanganyag jogszerű használata nagyszerű üzleti lehetőségeket kínál, valamint számos új kaput nyit ki a marketing, a televízió és a mozi számára szerte a világon.

A technológia önmagában ártalmatlan és a konstruktív felhasználása nemcsak a különböző cégek és vállalatok érdekeit szolgálja, hanem jelentős társadalmi együtthatója révén, nagy hatással lehet az emberek életére – áll az NMHH elemzésében.