会员登录|免费注册|忘记密码|管理入口 返回主站||保存桌面|手机浏览|联系方式|购物车
张心宇:人工智能大模型发展的法治保障
2024-12-30IP属地 湖北5

原创 张心宇 以下内容来自民主与法制周刊 ,作者张心宇

人工智能大模型发展的法治保障

北京理工大学智能科技法律研究中心研究员

张心宇

张心宇:人工智能大模型发展的法治保障

以生成式人工智能为代表的新一代人工智能技术加速创新发展,人工智能技术的自主性、通用性和易用性快速提升,使得人工智能系统开始能够像人类一样从事广泛的语言理解和内容生成任务。驱动着人工智能实现飞跃性发展的关键是人工智能大模型技术取得突破性进步,展现出强大的创新能力,不断催生新业态、新模式、新市场,同时也为传统行业的数字化转型升级提供了新的动力和可能性。

人工智能大模型,也称基础模型或通用人工智能模型,是一种基于深度神经网络和自监督学习技术研发的、具有大规模参数和复杂计算结构的机器学习模型。其通常预先在海量数据上进行大规模预训练,然后通过微调、上下文学习、零样本学习等方式以适应于人机对话、图片生成、音频合成等一系列下游任务。当前,人工智能大模型在推动社会进步、产业升级、科技创新等方面发挥着重要作用,是新一轮科技革命和产业变革的核心驱动力,是发展新质生产力的重要方向。但在人工智能大模型的现实应用过程中,由于其技术本身存在的局限性和技术滥用问题,也带来了新的纠纷争议、安全风险、责任分配等难题。2023年4月28日召开的中共中央政治局会议指出,要重视通用人工智能发展,营造创新生态,重视防范风险。面对人工智能大模型发展给世界带来的巨大机遇和难以预知的复杂挑战,需要进一步运用法治思维和法治方式,在发展中不断引导,确保人工智能大模型安全、可靠、可控。

2024年11月5日在第七届进博会技术装备展区AMD展台拍摄的“AI+文物修复”技术展示 新华社记者 王益亮/摄

加强人工智能大模型法治保障的时代意蕴

新一代人工智能等新兴技术发展迭代过程中,人工智能是引领这一轮科技革命和产业变革、发展新质生产力的战略性技术,深刻地改变着人们的生产与生活。国际社会日益关切如何在享受人工智能技术创新成果的同时,通过法治路径降低相关伦理和安全风险。自2017年以来,美国、欧盟、中国、加拿大、日本、新加坡等国家或地区陆续发布人工智能发展和治理的规范性文件。2024年3月,欧盟通过《人工智能法》,成为全球首部人工智能监管立法。我国虽未出台全面统一的人工智能立法,但曾先后针对算法推荐服务、深度合成服务出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》,以《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》为代表的地方立法也取得了积极成效。

在全球范围内,人工智能大模型先后向公众开放,各类应用、服务不断与人工智能系统融合,为人机协同、智能应用开发、跨界创新提供了广阔空间,但是也产生了传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题。谷歌、微软和OpenAI等在人工智能大模型领域领跑的企业呼吁政府应明确人工智能大模型的规范标准,以应对大模型的安全风险。在既有立法设计的基础上,各个国家和地区的立法探索也历经从宏观性准则和战略到条款逐渐细化的过程,开始关注对人工智能大模型产业的风险研判和防范。欧盟《人工智能法》专门针对人工智能大模型做出特别规定,要求模型提供者和部署者应进行模型评估和对抗测试。美国政府发布的《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》要求政府直属的研究机构编写大模型的安全测试指南,并要求模型开发者及时向政府汇报模型开发工作。2023年7月,我国出台了《生成式人工智能服务管理暂行办法》,针对大模型的训练数据来源、数据质量、数据安全等问题进行初步规范。现有制度设计已经开始关注到人工智能大模型的法律风险,但都未针对人工智能大模型作出系统全面的专门规范,体现各国立法机关对复杂前沿问题的谨慎态度。

对人工智能大模型治理的审慎态度固然体现了立法者的责任意识,但单纯依赖渐进式的、自发性的制度演化模式,显然无法满足当前人工智能大模型的产业发展要求和社会治理需求。人工智能大模型具有和一般人工智能技术所不同的独特风险,如人工智能大模型信息输出能力强,但可能产生不符合事实或逻辑的输出,导致错误信息传播或不当决策;大模型训练过程中使用的海量数据难以全面筛选,可能导致在应用端输出具有偏见、歧视、侵犯知识产权和影响意识形态安全等有害内容;在人机交互过程中,大模型可能会不当收集、处理或泄露用户的个人敏感信息;大模型一旦出现算法失控、数据污染等问题,可能会对众多下游应用产生广泛影响,其危害范围和程度可能远超传统人工智能技术的单一应用场景。针对这些风险,国内外相关企业和机构也都开展一系列技术治理措施,如优化大模型的训练数据集合、人机价值对齐、进行红蓝对抗演习等,这些技术层面的举措和研究对于缓解人工智能大模型的风险有一定作用,但鉴于人工智能大模型的复杂性以及风险的动态性特征,应摒弃所谓的技术中立主义和技术自治主义,运用法治思维和法治方式保障人工智能大模型的规范有序发展,从而积极抢占人工智能发展制高点,实现关键核心技术自主可控,以人工智能赋能高质量发展。

加强人工智能大模型法治保障的主要目标

随着科技创新成为国际战略博弈的主要战场,制度竞争也已经成为支配未来国际秩序演进的根本力量。针对人工智能大模型产业采取前瞻性的法律制度设计,能够有效防控安全风险,规范下游应用,促进技术创新,提高国际话语权,从而系统构建国家人工智能大模型发展新格局。

有效防控人工智能大模型安全风险。相对传统的人工智能技术,由于参数量更大、参数之间的关系复杂以及高效内容生成的特质,人工智能大模型更易遭受模型窃取攻击、投毒攻击、成员推断攻击、后门攻击、对抗样本攻击等安全威胁,可能导致系统权限被非法控制、隐私数据泄露、模型决策被操纵、输出错误或有害结果、侵犯知识产权等严重后果。安全是任何技术创新和应用开发的基础前提。在人工智能大模型的法律框架中,应全面嵌入安全意识,保证事前预防的优先性,加之以有效的事中应急处置和严格的事后问责机制,为人工智能大模型的开发应用设定明确的安全边界,牢固树立安全底线不能逾越的基本观念。保证人工智能大模型具备抗击安全威胁的能力,防止技术滥用,避免危及国家安全、社会安全和个人安全。

实现人工智能大模型规范化应用。基于人工智能大模型的复杂性、多层性和快速迭代性,相应制度设计要以促进人工智能开发、部署、应用各类活动有序进行为基本导向。设计人工智能大模型的法律制度不只是为了约束相应主体,更是通过系统性考虑人工智能大模型运转的各个环节、各个参与主体的权力边界和合理期望,明确人工智能大模型开发应用标准,保障人工智能技术发展和社会需求同步演进。法治是最好的营商环境,通过建立健全的法律框架,我国可以为人工智能大模型产业有序发展创造有利条件。

推动我国人工智能大模型产业创新发展。加强包括人工智能在内的新技术、新应用法治建设,首先要坚持立足中国国情。鉴于目前在人工智能大模型的国际竞争中,我国仍然处于追赶者的角色,加强人工智能大模型的法治建设更应该保持包容审慎的治理思路。人工智能大模型作为一种前沿技术,其发展速度快、应用范围广、带动能力强。加强人工智能大模型的法治保障必须以促进社会整体利益为导向,避免法律规范不当挤压大模型发展的空间,发挥法治建设对提高人工智能大模型技术水平、国际竞争力所应具有的推动和引领作用,保障相应关键核心技术自主可控,并以此吸引全球顶尖人才和企业,推动人工智能大模型技术创新和产业升级。

提升我国在人工智能治理领域的国际话语权。伴随着网络化、数字化、智能化的进程,人工智能大模型所面临的法律问题已经成为全球关注的焦点议题,主要国家、国际组织正努力搭建国际治理平台,尝试就推动人工智能大模型有序发展形成有效共识。在此趋势下,我国应加快推动人工智能大模型的规则制定,形成具有中国特色的治理理论和实践,为推动人工智能全球治理提供科学方案,贡献中国智慧,促进全球化的学术交流与技术合作,提升我国在全球人工智能治理中的话语权和影响力。在此基础上,建立开放、公正、有效的人工智能全球治理机制,确保治理框架能够兼顾不同国家的利益和关切,推动形成国际社会普遍接受的人工智能伦理准则、技术标准和法律规则,并以此产生的示范效应指导全球人工智能大模型产业的发展,从而践行构建人类命运共同体理念,让人工智能大模型更好造福人类。

加强人工智能大模型法治保障的实现路径

当前,人工智能的通用大模型、行业大模型、端侧大模型如雨后春笋般涌现,大模型产业的创新生态已经基本形成,关于人工智能大模型安全事件、知识产权纠纷以及训练数据使用纠纷也随之而来,人工智能大模型创新环境体系不健全、规制不到位等方面的问题愈发突出。在创新驱动发展战略实施和法治中国建设的背景下,我国要在人工智能法治建设已有阶段性成效的基础上,坚持安全、准确、透明、禁止滥用的基本原则,紧扣推进中国式现代化主题,进一步把握新质生产力发展规律,以更高水平的法治思维、法治方式持续解决人工智能大模型中的痛点、堵点和难点。

建立覆盖大模型全生命周期的安全责任机制。考虑到人工智能大模型运转周期长、环节多、参与主体多的特点,应从人工智能大模型技术特性、应用场景和风险特征出发,系统构建法律主体责任分配体系。在研发设计阶段,应要求人工智能大模型的设计者确保模型的公平性和安全性,把控训练数据集合的质量,提高模型的可视化和可理解程度,保障系统决策时的逻辑和推理过程清晰明了。在服务提供阶段,应要求人工智能大模型相应服务提供者确保系统稳定性和安全性,避免模型交互内容侵害他人合法权益和冲击社会秩序,明确禁止用户滥用大模型实施违法犯罪活动;在泛化应用阶段,应要求下游应用部署者保障模型和具体应用领域科学适配,对其所输出的专业信息内容负责。通过划分人工智能大模型生命周期的关键阶段并识别各阶段的主要参与主体,法律责任分配体系得以构建,有助于保障人工智能大模型的健康发展。

引入负面清单管理模式对人工智能大模型进行区分式监管。负面清单管理模式“非禁即入”的规控方式一方面可以最大程度地为人工智能发展铺平道路、松绑创新,让市场机制、事中事后监管机制更多发挥作用。另一方面通过设定负面清单事项,加强对风险较大、影响范围较广、每秒浮点运算次数高的人工智能大模型的管理力度,以此在创新发展与风险防控之间寻求平衡。为保证负面清单落地实施,应设立专门主管部门统筹负责负面清单的制定、实施、审批、更新和释疑工作。主管部门对涉及清单内事项的人工智能大模型产品和服务实行严格的许可管理,人工智能大模型研发者、提供者需在获取主管机构的审批后方可进行大模型的研发、提供活动,而对清单外的则采用相对宽松的备案管理措施。主管部门可以根据技术与社会的发展变迁,及时调整负面清单事项,从而实现人工智能大模型技术创新和风险防控的动态平衡。

促进人工智能大模型相关各方的合作共治。关于人工智能大模型的各类安全风险与法律挑战存在一定共生性与相互转化性,应避免线性思维、单向思维,而是要采用系统性、多维度的治理思路来把握人工智能大模型的发展挑战,充分调动人工智能大模型利益相关方的积极性,构筑多元主体参与的共治格局。国家应引导建立一个包容性强、参与度高的治理机制,围绕人工智能大模型治理的核心议题,在合理范围内解释模型的工作原理,进而吸收不同利益相关方的意见和建议,形成多方参与的社会监督体系,完善公众参与渠道以及跨界、跨国合作机制,在最大限度的范围内凝聚社会甚至人类共识,实现技术进步与社会发展的良性互动。

提高人工智能大模型的技术治理水平。加强人工智能大模型的技术治理水平,是确保人工智能系统安全可控的关键举措。应在制度设计中明确鼓励各利益相关方发展安全治理技术和专业安全模型。主管部门可积极借鉴域外先进经验,主动制定用于提高人工智能大模型安全技术能力的指南性文件,包括但不限于安全编码标准、漏洞评估体系以及风险管理框架,指导相关主体有序进行模型安全测试、模型生成内容真实性测试以及稳定性评估。相关行业组织可以发起本领域的红蓝对抗活动,以检验和强化安全防护能力。通过鼓励治理技术创新,人工智能大模型的各利益相关方可以持续增强安全防护能力,完善技术治理手段和机制,从源头上防范和化解风险隐患。

构建有利于人工智能大模型持续创新的制度环境。加强人工智能大模型法治保障应贯彻国家对人工智能发展的支持、引导和促进的基本要求,营造有利于原创成果不断涌现、科技成果有效转化的创新生态。为鼓励行业内先行先试,可考虑引入监管沙盒机制,通过区域性试点,推动人工智能大模型的研发人员在相对宽松但风险可控的环境中测试和完善大模型应用。为拓展创新力量,要求相应主体不得利用人工智能模型的优势实施垄断和不正当竞争行为,同时可明确部分特殊情形下人工智能大模型研发活动的责任豁免机制,如在科学研究、个人学习等不投入市场、不以营利为目的的场景中,免除相应主体合规义务,从而促进公平竞争,鼓励更多主体参与人工智能大模型的探索和创新。在促进发展和资源支持方面,为引导企业加大对人工智能大模型的研发投入,国家应在人工智能大模型所需算力、算法、数据、人才、资本、基础设施方面实施财政补贴、税收优惠、政府优先采购等激励措施,从而提高人工智能大模型的创新动力和促进相关技术快速转化,让新技术真正作用于解放和发展生产力,为高质量发展提供新动能。

本文内容转载自《民主与法制》周刊2024年第43期,在此致谢!