文/朱昌俊
(作者朱昌俊,荔枝新闻特约评论员,媒体评论员;本文系荔枝新闻客户端、荔枝网独家约稿,转载请注明出处。)
一段视频、一段语音未必是真人拍摄或者录制。在你不知道的手机App后台、支付界面、门禁闸机,或许有人正在盗刷你的脸……去年以来,多地发生“变脸”诈骗案。记者调查发现,随着深度合成技术迅猛发展、落地场景激增,一些不法分子趁机牟利。音频、视频等合成技术滥用,对人脸、声纹、指纹等个人敏感信息保护形成挑战。
前不久播出的电视剧《猎罪图鉴》中有这样一个令人唏嘘的情节:一位空巢老人与在国外的儿子常年没有联系,但在一段时间内,这位老人却陆续收到儿子在国外录制的视频,说自己有难处急需一大笔钱。为了救儿子,这位老人被骗走了一辈子的积蓄,最终走投无路和老伴跳海自尽。剧中的骗子正是使用了AI换脸技术,而在现实中,近年来全国多地都查处过这类新型诈骗犯罪案件。
不法分子非法获取他人照片或有偿收购他人声音等“物料”,仅需少量音视频样本数据便可合成媲美真人的伪造音视频,用来实施精准诈骗,或销售、恶意传播技术换脸不雅视频等。从警方查处的案件来看,一个足以乱真的合成视频的价格仅为2至10元,而“客户”往往是成百上千购买,将之用于诈骗犯罪。利用AI换脸技术进行诈骗,侵害他人人身和财产安全,造成肖像权人名誉受损。这是对人工智能技术的滥用和异化,我们必须提高警惕。
上个月,我国首个国家层面的科技伦理治理指导性文件《关于加强科技伦理治理的意见》正式印发,明确提出科技活动应最大限度避免对人的生命安全、身体健康、精神和心理健康造成伤害或潜在威胁,尊重人格尊严和个人隐私。“变脸”诈骗案无疑严重背离了最基本的科技伦理底线。
守住科技伦理底线,离不开法律和技术的双重保障。就目前来看,与合成技术的广泛运用趋势相比,相关的法律规制仍显滞后。如,法律规定禁止利用信息技术手段伪造等方式侵害他人的肖像权,但技术如何使用算合理使用,哪些情形下应禁止使用等,没有具体规定;收集或收购个人声纹、照片,使用人脸、指纹等个人生物信息等行为,在哪些范围内构成犯罪、将面临怎样的惩罚,也需要司法裁判进一步给出明确指引。
技术方面,尽管针对深度合成技术的识别技术不断迭代、检测手段持续增强,但依然没能跑赢“伪造”技术升级的速度。对此,专家建议以技术规制技术,利用技术创新、技术对抗等方式,提升和迭代检测技术的能力。我们在追求合成技术提升的过程中,也应该提高对“伪造”视频技术的识别能力。在合成视频传播的过程中,若平台能通过高精准识别给出必要的风险提示,则可以大大压缩骗子的生存空间。
除此之外,在视频化时代,也需要每个人提高对“假视频”的警惕性和辨别能力。相比文字等信息,人对图片、视频等信息更信任,所谓“有图有真相”的说法因此而生。但如今,有图有视频也并不能完全与真相划等号。我们要对各类音频多一些心眼,尤其是关乎个人利益时,一定要多些交叉验证,切勿偏听偏信。
语音、视频等合成技术的滥用,并不是技术本身的原罪。但确保它在安全规范的轨道上被使用,守住技术伦理底线,确实是一个必须高度重视的现实问题。它有赖于公众认知和辨别能力的整体提升,也需要法律完善速度、技术反制能力的与时俱进,以及风险治理的体系化、完善化。