荔枝特报专稿 记者/丁凤云
随着5G、人工智能深入日常生活,人脸识别、指纹收集、定向推送等在带来方便的同时,也让每个人都“裸奔”在大数据下,正在乌镇召开的第六届世界互联网大会上,部分与会嘉宾就网络空间数据的法律保护进行探讨,大家一致认为,公权执法、技术保护、私人诉讼都是可行的办法,关键是需要在数据开发与隐私保护之间寻找平衡点。
作为互联网公司的高管,同时也是互联网的用户,百度集团副总裁梁志祥直言,参加本届互联网大会时感受到快速人脸识别技术让他有些惊异,“离这个闸门还有大概两米的时候,就非常准确地把我识别了出来,速度比我在过飞机安检的时候还要快,而且也不会在乎你胖了还是瘦了”。同时,也有些担心,和所有网民一样,他想问:这东西会不会偷窥我?会不会强迫我?会不会控制我?他觉得,技术发展必须恪守用户隐私红线:“第一,你要充分地告知用户,它能看到什么,你能得到什么。第二个你要把这个权利给用户,不能够强制用户做事。第三个当它不喜欢什么东西,它有权利say no。”
当然,在法律层面来说,这道红线有点“弱”。北京大学法学院教授张平说,他们最近连续5年针对个人信息和隐私保护,进行了企业的隐私政策的观察和测评,发现数据治理和数据经济越发冲突,早期大家还在讲合规,但现在“合规”变得“徒有虚名”,她认为,在大数据的收集和深度分析是必然趋势之下,需要在数据合规和公共政策之间寻找一个平衡点:“尽管法律要求这些企业在隐私上要有同意和知情,还要有控制,还有删除等等一些权利,但实际上是做不到的。现在已经到了这样一个程度:有些企业把隐私政策企业作为了在发生法律纠纷的时候的说辞而已,也就是它能够给法院做一个善意的证明,我事先确实是通知你了,你又同意了。”
就这样陷入了僵局?与会嘉宾纷纷提出了“科技向善”, 张平认为企业有责任去有序、有伦理地使用数据。梁志祥则表示,技术不仅可以探知隐私,也可以保护隐私,技术本身是中立的,比如用隐私合作助手,能够测试到有没有窥视你的隐私:“它的意思就是说让各种数据变成可用不可见,可以有更多的医疗数据去帮助人们制造出更好的药来消除、治疗癌症,但是你不能暴露是谁得了癌症。”
阿里巴巴合伙人俞思瑛认为,算法创新已经成为全球创新的高地。一方面,我们会担心算法违反伦理道德、算法黑箱、算法合谋,期待算法的可透明、可解释性、可公开性。但另一方面,算法也不应被单独治理,而应该围绕着应用场景治理。比如公共管理和服务领域的算法,应该公开透明,有预见性。私人领域的算法,应当保持其专利或商业秘密属性,通过商业价值和竞争以激励其持续创新和超越算法合谋:“涉及到人的生命安全方面的特殊领域的算法,那么就应当接受检验,以建立起让用户使用的信心。”