Az online térben egyre nagyobb problémát jelent a deepfake, vagyis a mesterséges intelligencia által generált hamis képek, videók és hangfelvételek rohamos terjedése. A technológia fejlődésével egyre nehezebb megkülönböztetni a valódi és a mesterséges tartalmakat, ami aláássa a bizalmat az online információkkal szemben. A Deloitte TMT Predictions 2025 tanulmánya szerint ennek a jelenségnek a visszaszorítása költséges és összetett feladat, amelyben a technológiai vállalatoknak, a tartalomgyártóknak, a hirdetőknek és a felhasználóknak egyaránt szerepet kell vállalniuk. A hitelesség megőrzése és a bizalom helyreállítása érdekében minden érintettnek komoly erőforrásokat kell mozgósítania.
A Deloitte „2024 Connected Consumer Study” kutatásában rávilágít a probléma súlyosságára. A válaszadók fele szerint az online tartalmak megbízhatósága romlott az előző évhez képest. A generatív mesterséges intelligenciát ismerő vagy használó emberek kétharmada attól tart, hogy ezeket a technológiákat manipulációra és megtévesztésre használják. Többen arról számoltak be, hogy egyre nehezebb felismerni, mely tartalmak származnak valódi emberektől, és melyeket hozott létre mesterséges intelligencia. A megkérdezettek többsége szerint az AI által generált fotók, videók és hanganyagok egyértelmű megjelölése elengedhetetlen, de önmagában ez nem elég a probléma megoldásához.
A deepfake elleni küzdelem ára
A hamis tartalmak felismerésére és kiszűrésére irányuló erőfeszítések egyre nagyobb összegeket emésztenek fel. Szakértői becslések szerint a nagy technológiai és közösségimédia-platformok 2023-ban 5,5 milliárd dollárt fordítottak a deepfake-ek kiszűrésére, és ez az összeg 2026-ra várhatóan eléri a 15,7 milliárd dollárt. Az ilyen jellegű költségek nemcsak a vállalatokat érintik, hanem a fogyasztóknak, a hirdetőknek és a tartalomkészítőknek is áldozatokat kell hozniuk, ha meg akarják előzni a hamisítók lépéseit.
A védekezés egyik kulcsfontosságú eszköze a mesterséges intelligencia által generált tartalmak felismerése.
A technológiai cégek mélytanulási algoritmusokat és gépi látáson alapuló megoldásokat fejlesztenek annak érdekében, hogy azonosítani tudják a digitális manipuláció nyomait. Az apró részletek, például a nem természetes ajakmozgás, a hangszín ingadozása vagy a fényvisszaverődés mintázatai árulkodó jelek lehetnek. Az ilyen technológiák azonban nem tökéletesek, hiszen a deepfake fejlesztői folyamatosan új módszereket találnak ki arra, hogy kijátsszák a szűrőket.
“A kihívás az, hogy a ma használatos deepfake-felderítő eszközök pontossága legfeljebb 90 százalékos, a csalók pedig könnyen hozzáférhetnek azokhoz az AI-modellekhez, amelyek segítségével, egyre kifinomultabb módszerekkel kikerülhetik vagy egyszerűen túlterhelhetik ezeket a szűrőket” – mondta Gercsák Csilla, a Deloitte Magyarország technológiai tanácsadás üzletágának menedzsere.
A tartalom eredetének nyomon követése szintén fontos szerepet játszik a hitelesség megőrzésében. Az AI-alapú azonosítás mellett egyre több platform alkalmaz olyan megoldásokat, amelyek a képek és videók életciklusának minden lépését rögzítik. A digitális vízjelek és a titkosított metaadatok lehetőséget adnak arra, hogy a felhasználók ellenőrizhessék egy tartalom forrását, és könnyebben megállapíthassák annak megbízhatóságát. A Deloitte ezért csatlakozott a Coalition for Content Provenance and Authenticity (C2PA) kezdeményezéshez, amely egy, a képek és videók szerkesztési előzményeit részletesen dokumentáló szabványt dolgozott ki.
A hitelesség kérdése a digitális térben
A közösségimédia-platformok egy része már vezetett be a hiteles tartalomkészítők és a mesterségesen generált anyagok elkülönítését célzó intézkedéseket. Egyes esetekben a felhasználóknak igazolniuk kell személyazonosságukat hivatalos okmányok bemutatásával, vagy akár egy kisebb díj megfizetésével. Az ilyen megoldások segíthetnek a hamis fiókok és a deepfake-ek terjedésének visszaszorításában, de felvetik azt a kérdést is, hogy a hitelesítés költségeit ki viselje: az alkotók, a hirdetők vagy maguk a felhasználók.
„A valós személyek és AI megkülönböztethetőségének érdekében egyes közösségi médiaplatformok elkezdték bevezetni a tulajdonosok ellenőrzését, amihez szükség lehet a személyazonosságot igazoló okmányok bemutatására, esetleg díjfizetésre. Ami az utóbbit illeti, azt az érintett cégeknek kell felmérniük, hogy fenntartható-e a hitelesítési költségek áthárítása az alkotókra, hirdetőkre vagy a felhasználókra” – mondta Barta Gergő, a Deloitte Magyarország vezető AI menedzsere és szakértője.
A deepfake elleni fellépés nem csupán technológiai kihívás, hanem szabályozási és oktatási kérdés is. Az Egyesült Államok és az Európai Unió már hozott intézkedéseket annak érdekében, hogy visszaszorítsa az AI által generált félrevezető tartalmak terjedését, de a szakértők szerint egy globális szabályozási rendszer lenne a leghatékonyabb megoldás. Emellett a felhasználók oktatása is elengedhetetlen, hiszen a megfelelő tájékozottság segíthet abban, hogy tudatosabban fogyasszák az online tartalmakat.
A digitális bizalom megőrzése minden szereplő érdeke, hiszen a hiteles tartalmak és a megbízható információk jelentik az online tér egyik alapját.
A technológiai fejlődés révén egyre hatékonyabb módszerek állnak rendelkezésre a deepfake felismerésére, de a kihívás folyamatos marad, ahogy az AI-modellek egyre kifinomultabbá válnak. A jövőben azok a platformok és vállalatok lehetnek igazán sikeresek, amelyek képesek megteremteni a biztonságos és megbízható digitális környezet feltételeit.
Gercsák Csilla, a Deloitte Magyarország technológiai tanácsadás üzletágának menedzsere:
Dr. Barta Gergő, a Deloitte Magyarország vezető AI menedzsere és szakértője: