AI已成为过去一年的网络热点,伴随其广泛应用,AI诈骗现象日益引起关注,尤其是运用AI换脸技术实施的诈骗案件屡见报端。近期,香港警方通报一起案例:某跨国公司香港分公司财务人员在一场内部视频会议中被骗走近2亿港元,除受害人本人外,其余“参会同事”均为AI换脸技术伪装。类似事件在2023年央视315晚会上亦有曝光。
Deepfake,即深度伪造技术,是AI换脸的核心手段。它基于深度学习算法,通过处理大量视频和图像数据,创造出高度逼真的面部动画和语音。该技术首次进入公众视野是在2017年,一名Reddit用户将一部成人电影主角的脸替换为《神奇女侠》演员盖尔·加朵,引发广泛关注。此后,Deepfake在中国也颇受欢迎,网络上充斥着AI换脸教程、素材库及辅助工具,如2019年B站UP主“换脸哥”将朱茵饰演的黄蓉换脸为杨幂,一度引发热议。
随着Deepfake技术的开源以及生成式AI如ChatGPT和Sora的普及,AI换脸门槛显著降低,制作难以辨识的换脸视频愈发容易。然而,技术滥用导致的AI诈骗事件频发,成功率高企,严重侵犯公众财产与隐私权益,相关话题多次冲上热搜榜。
面对“AI变脸”欺诈,识别真伪成为热议焦点。有专家提出让对方按压鼻子或脸部以观察变形情况,以此判断是否为真人。尽管此法有一定参考价值,但并非万无一失。蚂蚁集团天玑实验室安全算法专家朱凯指出,部分先进算法已能在局部遮挡下生成逼真画面,单纯按压鼻子或脸部可能无法识破。他建议结合左右摇头动作,因许多AI换脸基于平面照片,动态变化下易暴露破绽。此外,也有专家建议对方在视频通话中挥手,或提问只有对方知道的问题,以增加识别准确性。