(通讯员:陆睿)2023年4月17日(周一)下午,“思辨·思变”互联网治理青年工作坊讲座在学院路校区如心楼101教室开讲。本期主讲人是中国法学会互联网与信息法学会理事、中国婚姻法学会理事、中国政法大学数据法治研究院张凌寒教授。张老师本次演讲的主题是“作为基础设施的生成式人工智能的分层治理”。讲座由北京航空航天大学法学院陆睿主持,北京大学法学院长聘副教授、副院长戴昕,中国社会科学院大学法学院副教授刘晓春,阿里巴巴法律研究中心研究员田喜清,中国信息通信研究院安全所数据安全事业部研究员葛鑫,北京航空航天大学法学院教授翟志勇、北京航空航天大学法学院副教授赵精武担任与谈嘉宾。
主持人陆睿同学对本次讲座的来宾进行了介绍并对各位专家表示热烈欢迎。
张凌寒教授首先从大模型驱动下的生成式人工智能应用现状出发,指出技术变革带来的知识生产平台化、信息传播精确化、产业赋能高效化等多方面深远影响。我国长期以来以服务提供者作为抓手进行监管,监管内容仍聚焦于内容安全,无法应对居于技术运行关键地位的生成式人工智能技术提供者,因此存在一定的治理错位。为解决透明度监管工具箱存在的实践难题,张老师基于界定基础设施的两条思路,从横向维度、纵向维度、总体维度三方面出发,认为可以将生成式人工智能视为数字社会生产的基础设施,从而更好地解决生产要素利用、算力资源调配、算法分配公平等问题,促进人工智能产业发展,增进公共利益。
在谈到具体治理框架时,张凌寒教授提出了“模型基座-专业模型-服务应用”的分层治理思路,不同层级治理思路与关注重点存在差异。例如,模型基座应以发展为导向,关注科技伦理、训练数据、模型参数。专业模型应以审慎包容为理念,关注关键领域与场景,训练数据来源与安全,个人信息保护,并在此领域可引入分级分类体系。服务应用层关注信息内容安全、市场竞争秩序与用户权益保护,沿用原有监管工具,并适时引入新兴监管工具、细化合规免责制度,给新兴技术发展留下试错空间。由于基础设施的公共属性,政府应充分发挥对生成式人工智能的治理作用,并与我国现有法律中的相关要求调试衔接,建立好以发展为导向的敏捷治理工具箱。
最后,张凌寒老师就安全与发展的关系问题提出自己的见解。在她看来,从一定意义上讲,不发展就是最大的不安全。我国在个人信息保护和数据立法领域与欧盟、美国并行,在算法治理和深度合成治理领域则成为了一定意义上的领跑者。在此基础上,应以促进生成式人工智能健康发展为契机,积极构建符合我国本土经济、社会、政治、价值观,能够促进我国人工智能技术产业长远合法发展的治理制度,才将有助于形成我国真正的制度竞争优势。
北京大学法学院戴昕教授首先与谈,戴昕教授十分认同将算法视为基础设施的观点,并且在发展与安全的关系问题上也与张凌寒教授的看法一致。在传统经济治理过程中,法律通过事后责任与事前监管来解决外部性内在化。而在技术变化较为快速的当代,常态的安全生产、风险责任已无法应对这一问题。而在基础设施监管方面,存在信息是否开放、是否需要基于公共利益给予一定补贴、算法平等使用等典型问题,有待进一步研究。
中国社会科学院刘晓春副教授谈到,张凌寒教授的研究全面深入,抓住了生成式人工智能法律风险规制的底层逻辑,并提出了两点疑问:首先是从何种角度界定基础设施,由于人工智能毕竟不同于公共通信、能源交通等传统意义上的关键信息基础设施领域,将此种特殊技术产品在基础设施框架下讨论似乎需要明确的论证与阐释。其次,如果生成式人工智能可以成为一种基础设施类型,是否要对此相关产业予以创新豁免、政府是否要采取相应政策,可以继续探讨。
阿里巴巴法律研究中心高级研究员田喜清老师从实践角度分享自己的思考。认为在实践中,企业很重视合规,包括数据安全、个人信息保护、内容治理等问题。其中,在内容治理方面,希望用户在使用过程中也尊法守法、合理合法。此外,田老师在一定程度上也赞同将大模型视为“基础设施”的观点,可在技术创新应用方面赋能各行各业。
中国信息通信研究院安全研究所数据安全事业部高级工程师葛鑫认同张凌寒老师提出的“模型基座—专业模型—服务应用”分层治理逻辑,能够清晰地呈现生成式人工智能的产业链条和主体链条。当前我国人工智能治理多聚焦于下游服务应用的服务提供者,《生成式人工智能服务管理办法》虽然提到了生成式人工智能产品研制的相关要求,但并未作为重点着力点,我国目前算法治理相对清晰,未来可以重点补充上游模型等技术主体的治理要求。生成式人工智能还处在发展阶段,从兼顾发展与安全出发,当前对预训练模型、专业模型等治理可以多注重发挥技术伦理、技术标准的作用,同时也统筹考虑数据治理,解决我国大模型、专业模型训练数据问题,为生成式人工智能产业发展提供助力。
北京航空航天大学法学院教授翟志勇提出了两个问题,第一个与刘晓春老师的困惑相似,翟老师认为人工智能作为一种技术手段,更多是与其他基础设施融合在一起,例如变成水电交通网络基础设施的一部分,其自身独立性在何处、履行何种公共职能还需要进一步厘清。其次,分层治理的理念非常新颖,但在实践中不论从技术层面还是责任层面是否具有可操作性似乎存在疑问。
北京航空航天大学法学院副教授赵精武指出,技创新迭代周期正在持续缩短,相应的技术风险类型同样发生变化。在我国人工智能法治体系步入新阶段的当下,更迫切的治理需求是如何引导企业、个人合理使用人工智能技术及其产品。事实上,我国也越发重视科技伦理理论和科技伦理审查机制的功能定位,背后的原因也是为了平衡技术创新与风险预防之间的内在冲突。在数字时代,技术风险早已无法按照过去观念中的技术升级、漏洞补丁等方式予以预防和化解,同样也不是单纯仅以义务性规范即可完成行业层面的风险可控,而是需要转型至包含科技伦理、义务规范以及技术标准等内容的风险治理框架之下,从应用场景、系统环境、内部管理流程、技术可靠性等多个方面进行全面的风险评估。
张凌寒教授就几位与谈人的发言进行回应,补充说明了将算法认定为基础设施的益处。首先将会带来相关投入的提高,促进国内人工智能产业发展,其次将会增加公共政策的考量,有利于数据要素共享以及算法更公平地惠及更多用户。
在问答环节,同学们踊跃向张凌寒教授提出问题,如“技术中立”在生成式人工智能治理情景下的解读、自主性技术治理有无特殊性、能否构建算法分类治理方案等。张凌寒教授从鼓励产业发展、技术控制并非必要等角度逐一进行了回应。讲座在热烈的掌声中落下帷幕。