Zmaří AI deepfake KYC? Jsou stále lepší a brzy podvedou proces ověřování totožnosti, říká bezpečnostní šéf Binance

Zdá se, že technologie umělé inteligence a deepfake je tak pokročilá, že se brzy může stát naprosto neodhalitelnou při jejím použití pro podvody. Jimmy Su, hlavní bezpečnostní ředitel Binance, varuje, že za chvíli projdou procesem ověřování totožnosti.
Technologie Deepfake, kterou podvodníci používají na kryptoburzách, jako je Binance, k pokusům o obejití ověření Know Your Customer (KYC), bude jen pokročilejší, říká Su.
Jako každá technologie, i umělá inteligence ve spojení s deepfake může být použita legitimně, nebo zneužita k podvodům a dalším zločinům. Již nyní se objevují deepfake videa na velmi vysoké úrovni, viz video v tweetu níže, a brzy je nerozeznáte od pravých.
Deep fake AI poses a serious threat to humankind, and it's no longer just a far-fetched idea. I recently came across a video featuring a deep fake of @cz_binance , and it's scarily convincing. pic.twitter.com/BRCN7KaDgq
— DigitalMicropreneur.eth (@rbkasr) February 24, 2023
KYC procesy slouží k ověření totožnosti majitele účtu na obchodní platformě. Kromě toho, že představují zvýšené riziko úniku citlivých osobních údajů včetně osobních dokladů, nyní sílí nebezpečí, že je podvodníci začnou obcházet a podvádět.
Nebezpečí takové činnosti asi není třeba dvakrát zdůrazňovat. V případě krádeže identity může teoreticky začít docházet k naprostému zmatku v tom, kdo vlastně obchoduje třeba právě pod vašim jménem, včetně případných důsledků v podobě finančních a trestně právních dopadů…
Hacker bude někde online hledat normální obrázek oběti. Na základě toho, pomocí deepfake nástrojů, jsou schopni produkovat videa, za účelem obejít KYC, uvedl Jimmy Su.
Su řekl, že tyto nástroje jsou již nyní tak pokročilé, že mohou dokonce správně reagovat na zvukové pokyny určené ke kontrole, zda je žadatel člověk, a mohou tak učinit v reálném čase.
Některá ověření vyžadují, aby uživatel například mrkl levým okem nebo se podíval doleva nebo doprava, podíval se nahoru nebo dolů. Deepfake jsou dnes natolik pokročilé, že mohou skutečně provádět tyto úkony.
Dokonce ani ověření totožnosti prováděné videochatem s operátorem, které v současnosti tyto nástroje neobejdou, nemusí být do budoucna neoklamatelné. Nelze se tedy spoléhat ani na videohovory.
Kromě zvyšování obecného povědomí o této technologii a možnostech jejího zneužití, o impozantním množství podvodů útočících na internetu, v současné době prakticky neexistuje obrana.