“黑客”拿着摄像头,拍下一张参观者的照片。10几秒过后,出现了参观者“护照照”“明星照”“生活照”等不同风格照片;接着,又生成了一段带有抬头、转头、张嘴、眨眼等动作的视频,几乎与真人视频无异。然后,“黑客”试图利用这段视频,解开参观者所使用的人脸识别密码…… AI造脸吸引很多体验者(作者摄) AI只花10几秒钟就生成不同形式的照片以及动态视频,真假难辨(作者摄) 在2024世界 人工智能 大会的展会上,一项名叫“谍影重重”的深度造假(Deepfake)互动体验吸引了众多参观者,排队等候生成“假脸”。面对短时间生成的数字形象,尤其是动态的视频形象,很多体验者连呼“太像了”。不过,“黑客”使用视频形象解锁“人脸识别”时,反深度造假平台ZOLOZ提示,视频涉嫌深度造假,解锁不成功。 同样是利用 人工智能 技术,AI制造的假脸视频被识破(作者摄) “我们希望通过这一互动,让大家了解深度造假,不要轻信各种视频、图像。同时,呼吁更多的应用者和研发者关注深度造假,用技术手段降低风险。”展台工作人员介绍,随着 人工智能 的发展,“AI换脸”的水平越来越高,几乎真假难辨。但针对性的技术研发,有机会“用魔法打败魔法”。在“谍影重重”互动中,ZOLOZ能识别出视频造假,正是应用了人工智能:对用户面部动态进行细致入微的分析,捕捉微表情、肌肉纹理、眼神流转等细微特征,判断其是否为真人实时互动。目前,相关技术已经应用在金融等领域。 用人工智能技术从细节判断真伪(AI制图) 人工智能治理是今年世界人工智能大会的重要议题,而防范人工智能造假,具有很强的现实意义。申城好网民专家、中国网安协会 数据安全 专家、 上海临港 数据评估有限公司总监宗良介绍,以往的造假以文字编造、图片编辑(PS)、视频剪辑等居多。但基于生成式人工智能,出现了“文生文”“文生图”“文生视频”“图生视频”等造假方式,“以假乱真”的现象愈发普遍,还被不法分子利用,比如香港警方披露的、涉案金额高达2亿港元的“AI多人换脸”诈骗案等。 面对新的造假方式,公众要提高警惕,不轻信网络上的视频和图像。同时,若在视频通话中觉得可疑,可以让对方摸脸、按鼻子,或者主动切换成方言对话,增加AI造假的难度,导致AI造假露出破绽,从而鉴别真伪。 此外,公众要注意保护个人隐私。现场的体验让大家看到,一张照片就能生成真假难辨的动态“假脸”,这说明,每个人都要保护好自己的信息,包括面部信息、静态照片等,避免被不法分子利用。 (文章来源:上海网络辟谣)
阅读更多(Read More)