Komerční prezentace Aktual.: 31.07.2025 06:50
Praha – Generativní umělá inteligence (AI), zejména takzvané deepfakes, přináší zcela nové výzvy pro kyberbezpečnost a společnost jako celek, shodují se experti, které oslovila ČTK. Deepfake označuje technologii, která umožňuje vytvářet falešný digitální obsah a realisticky například nahrazovat tváře nebo hlasy v existujících fotografiích nebo videích. Odborníci míní, že rizikem už není sama existence falešného obsahu, ale jeho masová dostupnost.
„Za největší problém považuju to obrovské množství obsahu, které lze jednoduše generovat,“ řekl Josef Šlerka z Ústavu informačních studií a knihovnictví Filozofické fakulty Univerzity Karlovy. Podle něj kvalita audiovizuálního obsahu produkovaného AI dosáhla takové úrovně, že divák často nerozezná, že jde o podvrh.
Barbara Zitová z Ústavu informace a automatizace Akademie věd ČR uvedla, že nástroje, které umožňují generovat klamavý obsah, jsou mnohdy i poměrně levné, dostupné a může je využít prakticky kdokoliv. „Je to velmi uvěřitelné a není těžké tím ošálit,“ dodala.
Oba odborníci upozorňují, že generativní nástroje mohou nejen vytvářet falešné fotografie, zvuk i video, ale také aktivně komunikovat jménem konkrétní osoby. „Deepfake videohovor, kde s vámi mluví někdo, kdo ve skutečnosti neexistuje, ale působí velmi autenticky, to bylo ještě před pár lety těžko představitelné,“ uvedl Šlerka. Zitová upozorňuje, že banky už například přestávají využívat ověřování pomocí hlasu, protože AI může napodobit hlas.
Schopnost běžného uživatele rozeznat falešný obsah podle odborníků rychle klesá. „V tuto chvíli to ještě jakž takž jde a zkušené oko to často pozná. Ale dá se předpokládat, že během několika let bude kvalita generovaného obsahu natolik vysoká,“ řekl Šlerka.
Jedním z rizik je využívání deepfakes k podvodům, případy se již objevily. Dalším bezpečnostním rizikem je využití generativní AI pro vlivové operace a manipulaci veřejného mínění. „Typický příklad je vygenerované video kolující platformou TikTok, kde ‚davy Izraelců v rozbombardovaném Tel Avivu prosí Írán o odpuštění‘. To bylo evidentně součástí íránské operace, která měla zasáhnout morálku Izraelců,“ popsal Šlerka.
Dalším podobným příkladem zneužití AI je podle Šlerky falešné video, které tvrdilo, že si manželka ukrajinského prezidenta Zelenského koupila nové bugatti ve Francii. Ve videu vystupuje zaměstnanec autosalonu, který to potvrzuje. „Video bylo natočené na výšku, působilo autenticky. Protože šlo o neznámou osobu, špatně se ověřovalo. Nakonec se ukázalo, že to celé bylo vygenerované a člověk ve videu nebyl skutečný,“ dodal. Podobně kvalitně připravený deepfake podle něj zaměstná celý tým ověřovatelů, a přitom stihne napáchat škodu.
Zitová si myslí, že i kdyby byly generativní nástroje omezené, tak útočníci či pachatelé by stejně přístup k ním získali. „Řádový uživatel by si mohl pomoct tím, že bude sledovat zdroje, které považuje za věrohodné, a ty budou ověřovat, zda je něco pravda,“ řekla.