人工智能技术发展迅猛,对包括法学教育等在内的社会各个领域产生了深远影响。清华大学智能法治研究院院长、法学院教授申卫星在AI法律法规及数据确权领域著述颇丰,对AI如何重塑法学教育模式、改变社会治理结构有着深刻洞见。
申卫星教授认为,AI技术无法做到纯粹的价值中立,应积极回归人本主义,将价值观嵌入人工智能,从而升级为体现人性光辉与温度的“人本智能”。AI发展的最终目标是服务于人性、人本,而不应该放任技术冲击人性,使人工具化、碎片化。
您作为法学领域的知名学者,目前人工智能技术(Artificial Intelligence, AI)发展方兴未艾,对此,您是怎么看待AI可能对法学产生的影响?
申卫星:2017年,我意识到AI可能会对法学教育产生巨大冲击。AI在为人类带来认知革命的同时,也引发了一场人类组织方式的重大变革,大家无法抗拒这一趋势,只能迎接新时代的到来。用《人类简史》作者赫拉利的话说,AI的发展将使得“无机生命”逐渐取代“有机生命”成为可能。
尽管法律学科相对保守,但无论是法学、法律还是法治,其模式都会随着技术变迁而发生很大变化,就如同社会发展受技术进步的影响一样。回顾历史,在农业时代,铁器的发明使游牧民族得以定居;在工业时代,蒸汽机的发明使得社会化大生产成为可能。
到了大数据和人工智能的“数字时代”,会有怎样的规则?文字模态的ChatGPT-4问世后,又有针对图像的Sora出现,将来还有怎样的新技术出现,我们完全无法预知。作为法学教育工作者,我们必须提前布局。
在数字技术与法学的交汇点,计算法学孕育而生。在泛在计算的社会里,综合各种信息进而得出结论的过程是一种计算,这与法学完全契合。大陆法系有法典,从大前提到小前提再到结论,这是演绎;英美法系从各种判例中抽象出规则,这叫归纳——归纳和演绎都是计算的过程。
具体而言,计算法学主要有三个维度。一是Law for AI,解决新一代信息技术广泛应用所产生的新兴问题,例如数字隐私、个人信息保护、数据权属、算法规制、平台治理等。二是AI for Law,力图以技术方式解决法律问题,处理如交通事故定损定责、民间借贷计息等目前处理起来不准确、费时费力的问题。三是Law Based-on AI,基于公开的裁判文书等资料进行实证研究,解决目前实证研究样本量偏小的问题。
一个好的教育工作者必须敏锐地洞察社会发展趋势,并且顺势而为,唯有如此才能引领国家的发展。
您如何看待AI对社会、对人的影响?
申卫星:AI对人类社会的影响是颠覆性的。过去大家提到AI对就业的负面影响非常大,我对此并不认同。一个时代有相应的主打产品和服务,技术进步虽会淘汰一批旧的业务,但又会催生新的业务。
然而,在自动驾驶出租车真正上街运营以后,我很受震动。因为出租车司机群体受到了很大影响,接单量锐减,而他们除了会开车之外尚未习得其他技能。由此可见,AI对社会的颠覆是彻底且全方位的,人们不得不重新组织自己的生存和生活方式。
同时,AI放大效应显著,人与人之间的差别会因所掌握技术能力的差异而进一步放大。作为一把双刃剑,AI一方面推动社会快速进步,为人们带来便利;另一方面也引发了很多风险和副作用,例如AI很可能扩大“数字鸿沟”。这就需要通过立法来消弭鸿沟,消弭的方式不是阻碍技术进步,而是制定规则来保护弱势一方,帮助他们享受到数字红利。
对于AI而言,法律一方面要为AI发展创造良好环境,帮助不同人群提升数字红利的可及性和平等性;另一方面要强制介入,强调价值先导,将价值观嵌入AI中,引导AI向善,规范AI发展。
需要明确的是,AI不是一个纯技术问题,它具有很强的社会属性。换言之,从社会意义上讲,技术并非完全中立。以生活中常见的菜刀举例,不能因为有人拿菜刀杀人,就不允许生产菜刀。但在生产时也需考虑基本的安全标准规范,必须有刀套作为保护,以避免使用不当而伤及他人。对于AI来说,在产品设计时就应该考虑可控性和透明性,以确保AI中人的价值能够落到实处,不受影响。
针对AI的政策、立法与治理,目前主要国家进展到了什么层面?
申卫星:美国和欧洲价值观不同,路线也不尽相同。美国的重点是鼓励创新,而欧洲则强调规范。欧洲人对生活安定的追求以及对内心平静的关注,远胜于对技术进步成果的关注。欧洲最典型的治理规则是《通用数据保护条例》(General Data Protection Regulation,简称GDPR),其具有长臂管辖效力,相关方不得不规规矩矩配合,以实现合规。
中国的个人信息保护立法在很大程度上借鉴了GDPR,但在AI领域中国是否还会继续效仿?目前判断,中国不会简单跟进,而是走出不同于欧美的第三条道路,旨在平衡创新与安全。
其中的核心问题在于人工智能立法的着眼点,是促进创新、促进发展,还是保护安全、进行管制?中国仍在探索发展路径,还是需要鼓励创新,因为不发展是最大的不安全。
如何把握管制和创新,或者说安全与发展之间矛盾的平衡点,是最大的问题。中国的立法并非纯粹管制,恰恰是通过鼓励创新,让中国处于AI技术和产业的领先地位,进而保障安全。
但中国所强调的创新与美国有所不同。一方面,中国追求发展;另一方面,也注重基本的人权保障。中国强调以人为本,不能因为技术的快速发展而挑战人的尊严。所以,从更本质的层面来看,我们应该回归人本主义——人来到这个世界,一切都是为了追求幸福,发展的最终目标是服务于人性、人本,不应该让技术进步冲击人性,使人工具化、碎片化,失去自主意识,这是非常大的风险。这就是所谓的“以人为本、智能向善。”
如前所述,AI不是一个纯技术问题,它涉及伦理和价值。因此在设计AI产品和服务时,应当将人类的价值预先嵌入其中。甚至在检验一个产品是否优秀时,也应当把是否促进人的全面发展作为主要衡量标准。
AI的发展离不开大规模的数据收集和使用,您如何看待个人数据所有权的赋权逻辑?
申卫星:其实,科技企业免费向民众提供的各种APP服务从来都不是真正免费的——因为用户贡献数据,完成了企业商业链路中的关键环节。无论是搜索引擎,还是社交聊天应用,广告推送都能做到相当精准。
在数字时代,消费和生产时有混淆,每个人可能既是消费者又是生产者。有一个概念叫作“数字劳动”,人们为了娱乐而使用某个应用程序时,同时也在进行着数字劳动,因为创造的数据能够助力精准广告赢得广告主青睐,让科技企业赚得盆满钵满。
这个逻辑也可以应用于新能源汽车等其他领域。厂家利用大量用户驾驶数据开展智能调试,相当于免费雇用了众多试驾员。在这种机制下,厂家并不吃亏,但鲜有厂家有这样的自觉认知。
针对个人数据,我在学术界倡导“两权分离”。作为数据来源者的用户和作为处理者的平台企业对数据的形成均有贡献,应当根据各自贡献程度的不同,分别赋予所有权与用益权。
企业在尊重来源者数据所有权的前提下,通过“获取授权+支付对价”模式取得的数据用益权,具有更稳定的权利地位,不仅可对抗个人信息权的部分权能,还可通过特别约定排他许可的方式,取得独占使用权,可以将该用益权进行转让、许可他人使用、质押融资、合伙入股,实现其独立的权利机能。
通过这样的制度安排,企业才能形成稳定的权利预期,才会增加对个人数据的开发投入,摒弃短期机会主义,转而谋求长期收益,实现“数尽其用”。
对于研发和应用AI的主体,即科技企业,您有什么期待?
申卫星:首先,科技企业确实应当承担历史责任。毋庸讳言,中国的AI企业在创新方面与美国相比仍存在差距。作为责任主体,中国科技企业应当有“时不我待”的紧迫感。
其次,企业和行业需加强自律。一方面要有创新意识,另一方面要在涉及产品和服务时嵌入价值观,保护人的基本权利,如个人信息和隐私权、人身财产安全等。
值得一提的是,有些科技企业对立法监管颇为担忧,担心立法会使中国丧失与他国竞争的绝佳窗口期。然而,中国在数字时代是否有必要重蹈工业时代“先污染后治理”的覆辙?
在工业时代,没有人反对“先污染后治理”,因为人们要先解决温饱问题,才能谈及环保。但在数字时代,如果放弃监管,通过侵害他人隐私、不保障个人信息安全的方式来发展技术,很可能带来巨大的隐患和风险。智能体在失控状态下进行训练,是无法走回头路的。任由“子弹飞”的野蛮生长可以休矣!
我希望中国科技企业一方面努力推动技术创新,另一方面秉持“科技向善、智能向善”的人本主义精神,将两者紧密结合,这才是现代科技企业应有的作为。
*本文刊发在财新promotion频道,不代表财新网编辑部观点