“思辨·思变”互联网治理青年工作坊之 “ChatGPT交叉学科圆桌论坛”研讨会举办

点击数:    |    加入时间:2023-03-06

北航新闻网3月6日电(通讯员 唐浩隆)2023年2月27日,“思辨·思变”互联网治理青年论坛之“ChatGPT交叉学科圆桌论坛”研讨会在新主楼D111举办。本次研讨会由北航法学院、北航数字发展法治研究院联合主办,工业和信息化法治战略与管理重点实验室、北京科技创新中心研究基地、网络法前沿编辑部协办。研讨会由北航法学院赵精武副教授主持,邀请到了北航人工智能研究院、网络空间安全学院、计算机学院、软件学院、法学院等院系的青年学者共同研讨。

赵精武指出,作为一项新兴技术,ChatGPT受到各学科的广泛关注,本次研讨会拟从交叉学科视角出发,针对人工智能发展新趋势及风险,探讨ChatGPT及相关技术对我国网络空间治理带来的机遇与挑战。他以风险治理为视角,指出了当前ChatGPT应用可能带来的知识产权侵权、泄露商业秘密风险、数据安全、算法偏见、网络安全、“技术+资本”垄断等风险,并详细阐释了以ChatGPT为代表的人工智能技术与现行社会方式运行之间的冲突。赵精武认为,面对人工智能技术带来的风险,凭借不确定的技术应用场景和可能的安全风险径直推导出“法律需要对ChatGPT进行专门规制或特别监管”,只会陷入“一个技术对应一个法律制度”的谬误之中。法律与技术的关系并非简单的治理与被治理的关系,而表现为被需要与需要的关系。技术在不同的发展阶段,往往存在差异化的制度需求,或是产业促进制度,或是禁止性规范,又或是既有立法体系的法律解释与概念重述,在当前ChatGPT技术尚未落地、产业也未能形成足够清晰的认知之前,超前性地规划立法方案、制度建构路径可能压制技术的创新。区块链、元宇宙等领域同样存在类似问题,专门立法和配套措施等治理思路并不能真正解决这些问题,同时也会导致法律偏离原本的功能定位。

北航人工智能研究院王鑫助理教授从现代科学的核心瓶颈——如何处理、解释、预测真实世界的复杂系统出发,揭示了科学思想从简单系统还原论到复杂系统涌现论的根本转变。王鑫介绍到,当前主流科学方法主要包含Hypothesis-driven Science、Data-driven Science以及目前最受关注的、以神经网络为代表的“Data is Science”三种。在三种方法的影响下,形成了当前人工智能与复杂系统研究的两种主要范式:第一种就是以ChatGPT为代表的超级拟合范式,采取大模型、巨参数、海量数据,试图对客观世界进行无限逼近;第二种则是结合了Hypothesis-driven和Data-driven的寻找principles范式,追求复杂系统的可解释性数理建模和智能的本源。ChatGPT颠覆性的表现将会对很多行业产生变革性的影响。但从缺点而言,王鑫认为,ChatGPT从原理上仍未突破第一种范式的瓶颈,面临着不可解释性、可泛化边界未知、涌现原理未知、逻辑推理能力有限等问题。

北航网络空间安全学院李大伟助理教授分析了当前ChatGPT自身可能面临的诸如对抗样本攻击、模型逆向攻击、模型解释攻击、窃听攻击以及提示语注入攻击等威胁。此外,ChatGPT还可能带来一系列的安全问题。从机器的角度看,ChatGPT将带来模型安全、数据安全以及算法安全等问题,对此,李大伟认为可从完善AI模型、及时更新和修复漏洞、完善ChatGPT访问规则等方面强化对于机器的保护;而从人的角度看,ChatGPT将会对政治与舆论、军事与国防、恶意程序生成、情绪引导以及版权等带来新的影响,而制定配套规则、进行数据库监管、加强用户教育、引入自动纠错机制、限制语料库等措施则可以作为破局之道。

北航计算机学院刘艾杉助理教授以“人工智能安全挑战:从ChatGPT谈起”为题进行了分享汇报。刘艾杉首先指出,目前以大数据训练和经验性规则为基础的深度学习面临环境的动态变化、输入的不确定性、甚至是恶意对抗攻击等问题,暴露出安全性不足的隐患,这已经成为制约人工智能技术快速发展和深度应用的重要因素。接着,刘艾杉围绕“对抗样本”这种新型但危害巨大的攻击样本展开了详细讲解,并指出了对抗样本存在的广泛性和人工智能的普遍的安全性问题。而作为一种典型的人工智能系统,ChatGPT也面临着对抗攻击这种异常数据分布的挑战,其应用安全性和可信性存在明显的问题。最后,结合团队的最新研究成果,刘艾杉也给出了以智能安全评测和可解释性分析加固为技术体系的初步解决方案。可以看到,要确保人工智能在关键领域安全、可靠、可控的发展,开展针对人工智能技术的安全性研究已经刻不容缓。

北航软件学院周号益助理教授指出,ChatGPT是一种大规模语言模型(LLM),其本质是基于深度学习模型的自然语言处理技术,其前身GPT-3使用了Transformer为核心的模型范式。围绕该范式,ChatGPT通过预训练、微调、对齐、专门等4步完成构建。预训练可以促进其具备上下文学习、语言生成能力,微调允许模型遵循人类指令并泛化到新任务,对齐和专门化则是通过均衡损失使用模型能够输出更加符合人类认知的结果。同时,ChatGPT还扩展了思维链推理在对话文本正确生成中的作用,有研究表明其可能就是大规模语言模型出现显著能力涌现的关键。值得注意的是,ChatGPT中仍然存在着不少模型缺陷和使用风险,比如Prompt攻击、赛博精神病(Strong Belief)、事实性错误等。作为第三次人工智能浪潮的明星,ChatGPT等工程实践的出现,正呼唤下一代深度学习模型范式具备更强泛化性、鲁棒性、解释性的能力。

赵精武总结到,面对ChatGPT应用可能带来的种种不确定性,法学理论研究不必急于提出具体的风险的规制路径,不妨先对ChatGPT安全风险进行一个多学科角度的审视,倘若现行立法体系无法调整ChatGPT所产生的新型法律关系,则需要通过规则创设的方式予以介入,实现制度层面的技术风险事前预防。本次研讨会中,各位跨学科学者各抒己见,从不同的角度探讨了ChatGPT安全风险及发展的相关问题,为“信息法基础”课题成果的形成打下扎实基础,期待未来与各位专家学者进一步合作研究,为数字法学、推进数字强国建设贡献力量。

(审核:龙卫球)

编辑:贾爱平


打印
分享
更多新闻
04 月
11
04 月
12
04 月
11
04 月
11
04 月
11
04 月
11
04 月
11