A mesterséges intelligencia által előállított hamis arcmásolás, vagyis a deepfake jelenség súlyos egyéni és társadalmi kockázatokat rejt – hívja fel a figyelmet a Nemzeti Média- és Hírközlési Hatóság (NMHH)
Tájékoztatásuk szerint a deepfake egy olyan – a hitelességét tekintve rendkívül meggyőző videó –, amelyben többnyire létező emberek arcát felhasználva hamis képmásokat mutatnak be, melyeket mesterséges intelligencia felhasználásával állítottak elő.
A fényképek retusálása, vagyis technikai értelemben vett meghamisítása természetesen nem új keletű gyakorlat, ám a mesterséges intelligencia nemcsak a képek megváltoztatását, hanem azok létrehozását is lehetővé teszi.
A deepfake 2017-ben indult hódító útjára a Reddit platformon, ahol az egyik felhasználó egy pornószínésznő arcát egy híres színésznőével helyettesítette. Ezt a videót követve számos hasonló hamisítvány látott napvilágot, és 2018 végére a jelenség már szinte általánossá vált, mígnem mára jóformán már bárki tud jobb vagy rosszabb minőségben, különösebb utánajárás és technikai ismeret nélkül is deepfake tartalmakat készíteni.
Aztán a kifejezetten félrevezető céllal megalkotott, úgynevezett megtévesztő deepfake víziója is hamar megszületett, pedig az effajta tartalom hosszú ideig csak fikcióként élt a köztudatban.
Amikor Karácsony Gergely Kijev ál-polgármesterével egyeztetett
Az elméleti lehetőség azóta valósággá vált. Erről árulkodik az a 2022 júniusában történt magyarországi eset, amely Budapest főpolgármesterhez, Karácsony Gergelyhez, valamint Kijev polgármesterhez, Vitalij Klicskóhoz kötődött, pontosabban egy ál-Klicskóhoz, hiszen - mint később kiderült - a budapesti főpolgármester a videóbeszélgetés során valójában nem a hivatalban lévő ukrán városvezetővel folytatott beszélgetést.
Utólag kiderült, hogy ez az ál-Klicsko korábban Madrid, Berlin és Bécs polgármestereivel is kezdeményezett videóhívásokat.
Figyeljünk az árulkodó jelekre
Léteznek azonban a deepfake-re jellemző tipikus hibák, melyek általános ismertetőjegyei az ilyen jellegű hamisítványoknak. Ha odafigyelünk ezekre, egy idő után már könnyebben felfedezhetjük, hogy nem egy valódi személyt látunk a felvételeken.
Az NMHH tanácsa szerint az első és legfontosabb, hogy jól szemügyre vegyük a képen vagy videófelvételen látható arcot, a pórusokat, a homlokot, kiváltképpen a haj és a nyak vonalát, hiszen számos esetben a hamisítvány már az illesztési pontokat követve leleplezhető.
A törvényi rendelkezések a deepfake létrejöttét elősegítő technológiát nem, de a felhasználásának módját már szabályozzák.
Senki nincs biztonságban
Közölték azt is, hogy a deepfake algoritmussal létrehozott tartalmak viszonylag új jelenségnek számítanak, de a szakértők már felhívták a figyelmet arra, hogy milyen kockázatokat is jelenthetnek az egyénekre, szervezetekre vagy akár országok kormányaira nézve.
Hangsúlyozták, hogy senki sincs biztonságban a deepfake tartalmaktól,
és ezért egyes országokban már léteznek kifejezetten az ilyen tartalmakkal való visszaélések ellen létrehozott büntető szankciók, ugyanakkor a legtöbb helyen – így hazánkban is – a jogi háttér még nem biztosított.
Ugyanakkor a deepfake technológia által generált kép- és hanganyag jogszerű használata nagyszerű üzleti lehetőségeket kínál, valamint számos új kaput nyit ki a marketing, a televízió és a mozi számára szerte a világon.
A technológia önmagában ártalmatlan és a konstruktív felhasználása nemcsak a különböző cégek és vállalatok érdekeit szolgálja, hanem jelentős társadalmi együtthatója révén, nagy hatással lehet az emberek életére – áll az NMHH elemzésében.