刷脸登录、刷脸支付、刷脸打卡、刷脸门禁……随着人脸识别应用的广泛普及,人脸信息已经成为数字时代身份鉴定、访问认证、核验查证的重要载体。然而,这也给了不法分子可乘之机。
4日,杭州中院公开开庭审理一起涉“AI换脸”个人信息保护公益诉讼案,并当庭作出一审判决。这也是浙江首个涉人工智能技术伪造人脸通过活体认证的公益诉讼案。
该案中,张某、王某非法获取他人手机号码、头像照片、身份信息等,并利用“AI换脸”技术将人脸照片生成视频,伪造人脸识别认证,强制登录他人购物平台账号,将收货地址、购物车信息售卖给第三方,同时有偿替人进行虚假实名认证,共非法牟利5857元。
“AI换脸”技术为何能骗过人脸识别系统?经法院查明,案涉“AI换脸”技术通过深度学习的算法,识别、提取照片中的人脸要素信息,并不断进行训练建模,生成模拟真人的动态视频。向左看、向右看、张张嘴、眨眨眼……这些在人脸验证环节中的常用动作,都能通过“AI换脸”技术生成。同时,张某、王某在手机中植入虚拟相机应用程序来替换本地相机,当平台调取摄像头进行人脸识别验证时,屏幕中的人脸就自动替换成这段合成视频,从而躲避“人脸识别”验证的防线。
将“AI换脸”技术非法用于虚假实名验证,既侵害不特定主体的个人信息权益,威胁公民的人身财产安全,也破坏社会的信任秩序,损害社会公共利益。法院判处张某、王某公开道歉,并支付公益损害赔偿金5857元,此款将专用于个人信息保护、人脸深度合成技术不当应用的治理等公益事项。
杭州中院公开开庭审理一起涉“AI换脸”个人信息保护公益诉讼案。(杭州中院供图)
该案也揭开了侵犯个人信息黑灰产业链的冰山一角。在这条产业链中,张某、王某承接的是所谓的“过脸”业务。在上游,也有人承接“查头”业务,即买家提供姓名、身份证号等个人信息,就可获取含有人脸信息的高清照片、手机号码等个人信息。
“当前,个人信息相关数据的收集、流通、监管到验证等环节都可能存在漏洞。”杭州知识产权法庭副庭长吴媛媛说,该案也发出警示:人工智能时代,对真实性的验证不能再局限于内容本身,还要审查内容的生产过程、传输链条。
如何防范其中潜藏的个人信息安全风险?吴媛媛认为,作为直面用户的第一道安全防线,平台企业需担负起主体责任加强监管,“比如,当用户的登录设备或环境异常时,在人脸识别之外,可以适时增加人工复核机制,实行双重验证。”
“要支持开发反深度合成技术,提升技术防范能力。”本案审判长、杭州中院副院长池海江建议,通过治理工具创新,为个人、企业和监管部门提供可靠的鉴别技术,实现“用魔法打败魔法”。
与此同时,个人提高防范意识也十分必要。“不要点开来历不明的网络链接,也不要抱着聊几句的心态接听诈骗电话,因为声音也是个人信息的重要内容。同时,要谨慎在社交媒体上分享照片和视频,尤其是高清正脸。”池海江提醒,一旦发现自己或他人的照片和视频被滥用,要保存好证据,并第一时间向平台投诉、向监管部门举报。
为此,杭州中院于近期发布了浙江省首份关于人工智能的司法保障意见,即《关于以高水平知识产权司法服务保障杭州建设人工智能创新高地的意见》,以审判实践引导人工智能技术向善发展,努力打造健康有序人工智能创新生态。
打印本页 关闭窗口 |
最新要闻
ZUIXIN
YAOWEN