人工智能技术路线、应用场景的变数影响人工智能立法的体例结构和具体制度设计,是立法面临的重要挑战
在人工智能法律治理中引入适应性治理理念,容纳技术发展带来的高度不确定性与未知前景,统筹发展和安全,立足人工智能多重属性,实现法律治理路径拓展
文 | 张凌寒
人工智能技术正引领新一轮科技革命和产业变革,成为国家战略竞争的重要领域。如何构建科学有效的法律治理体系,既促进创新发展又防范安全风险,是当前亟待关注的重要课题。
当前,我国已初步形成人工智能法律治理体系,但仍面临传统治理模式适应性不足、责任认定与数据治理困境等挑战。
未来,应逐步构建体系化法律治理框架,构建适应性治理框架,推进高位阶立法与配套法律体系形成,完善责任分配与数据治理机制,加强国际合作与全球治理参与,推动人工智能在法治轨道上健康可持续发展。
初步探索
经过多年探索,我国已初步构建起涵盖多层次、多维度的人工智能法律框架。
在规范层面,我国陆续出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等前沿规范,发布《新一代人工智能伦理规范》《人工智能安全治理框架》等制度文件,在全球范围内率先开展人工智能规范探索。这些规范的出台标志着我国在人工智能治理领域已形成初步的法律制度体系,为产业发展提供了基础性法律保障。
在战略层面,党的二十届三中全会明确提出“完善生成式人工智能发展和管理机制”“建立人工智能安全监管制度”,为法律治理指明方向。这些战略部署体现了我国对人工智能发展与治理的高度重视,为后续法律制度建设奠定了坚实基础。
《国务院2025年度立法工作计划》将人工智能法相关表述调整为“推进人工智能健康发展立法工作”,《全国人大常委会2025年度立法工作计划》相应表述为“人工智能健康发展等方面的立法项目,由有关方面抓紧开展调研和起草工作,视情安排审议”。这一调整并非弱化立法重要性,而是体现了更为深层的战略考量。
从计划形式上看,国务院年度立法计划与全国人大常委会年度立法计划相衔接,既符合立法法相关要求,也有利于增强人工智能立法的系统性、整体性、协同性。从实质内容看,此次有关人工智能立法表述的调整体现了体系化推进人工智能法律制度建设的思路,采用“推进人工智能健康发展”的表述有利于统筹高质量发展和高水平安全。从立法趋势上看,在当前全球科技竞争背景下,人工智能领域的高位阶立法仍是人工智能领域法律制度建设的重中之重。
与会者在哈尔滨举办的第三十四届哈洽会中国移动展区参观(2025 年 5 月 19 日摄) 张涛摄 / 本刊
四类挑战
技术的快速发展和应用场景的不断拓展给我国人工智能法律体系建设带来了诸多挑战,具体体现在治理理念、责任认定、数据治理等多个方面,亟待深入分析并寻求系统性解决方案。
——传统法律框架与技术特性之间存在脱节。
人工智能法律治理的有效性取决于其能否适配人工智能的技术特性。法律的滞后性可能导致法律制度无法适应最新技术发展的情形,例如欧盟《人工智能法》采用的浮点算力阈值标准由于大模型架构不断创新、训练成本降低而充满争议。人工智能技术路线、应用场景的变数影响人工智能立法的体例结构和具体制度设计,是立法面临的重要挑战。
对此,各国采取方案各不相同,或是以促进法为主,或是以风险控制为核心,在人工智能立法路径选择上,我国需要基于本土制度环境、技术产业基础与发展目标做出判断,避免简单照搬国外模式。
——传统以过错为中心的责任追溯机制面临挑战。
人工智能价值链涉及技术研发、数据训练、算法部署、服务运营等多个主体与环节,在预训练、推理、实时数据输入、算法更新等动态因素影响下,开发者、部署者、使用者之间的责任边界日趋模糊。人工智能责任已有产品与服务二分的制度尝试,如将虚拟聊天机器人认定为服务、智能音箱则认定为产品。
然而,人工智能终端产品因其物理实体与服务高度紧密结合,难以明确厘清产品与服务边界。互联网发展初期,“避风港规则”为促进产业发展发挥了重要作用,其在多大程度上可以延伸至人工智能产业,亟待在法律制度设计中予以明确。
——训练数据获取的法律边界模糊制约了产业发展。
人工智能技术与产业的发展,迫切需要海量高质量的训练数据。在现行法律体系中,训练数据获取的合法性边界并不清晰。从训练数据来源的角度看,数据爬取行为的合法性边界模糊,训练数据交易的法律效力存疑,个人信息流通的授权标准不清,版权作品的合理使用边界不明,企业数据共享面临制度壁垒,知识蒸馏技术面临法律性质争议,训练数据相关法律制度供给不足,诸多问题共同制约人工智能技术产业发展。
如何通过法律制度和标准体系的建设,保障人工智能训练和精调数据处理规范的安全性,需要在法律制度设计中予以考虑。
——人工智能企业出海面临多重挑战。
我国人工智能企业出海面临制度层面的“水土不服”,还可能遭遇他国以国家安全为借口的政治打压。涉外法治服务保障体系怎样为出海企业提供有效支持值得思考。
国内层面,人工智能产业政策与法律制度衔接不足。产业政策的目标在于解决政策制定与法律框架之间的结构性矛盾,但现实中单个部门难以以整体全局思路推进技术创新与协调市场秩序。政府以公共资源支持数据、算法与算力供给的权限范围缺乏明确法律界定。如何在法律框架内讨论人工智能要素的供给规模、渠道和对象,如何引导企业选择适合的出海路径并稳定适用,都需要在法律制度设计中予以考虑。
在数字华夏(深圳)科技有限公司,技术人员在调试一款人形机器人的面部表情(2025 年 3 月 27 日摄) 梁旭摄 / 本刊
人工智能法律治理需体系化推进
面对人工智能发展带来的复杂挑战,我国需要构建系统性、前瞻性的法律治理体系,促进技术创新和产业发展,并有效防范各类风险。
——引入适应性治理理念,构建符合人工智能特性的法律治理框架。
在人工智能法律治理中引入适应性治理理念,容纳技术发展带来的高度不确定性与未知前景,统筹发展和安全,立足人工智能多重属性,实现法律治理路径拓展。通过建立持续动态监管和事后响应制度,为技术进步预留发展空间并划定安全底线。采用既有包容性又有激励性的灵活监管措施,根据技术特性关注可能的未来发展与功能变化,在确保安全前提下,充分激发经济社会发展的活力和创造性。设计包含法律、技术标准、科技伦理等多元工具的“制度工具箱”,整合算法备案、科技伦理审查、网络安全风险评估等现有工具,并积极发展模型测评、价值对齐等新型制度工具。
——探索建立更加合理的责任分担机制,完善数据治理体系。
针对人工智能价值链上技术研发、数据训练、算法部署、服务运营等多主体环节,建立合理的责任分担机制,明确开发者、部署者、使用者各自责任边界。为数据爬取、数据交易、API调用、数据众包等训练数据获取方式提供清晰稳定的合法性评估框架,解决训练数据获取的法律障碍。在人工智能企业海量获取作品需求与版权人合法权益保护之间,完善知识产权规则,支持人工智能创新发展。
对阶段性暴露的问题及时回应。如针对“知识蒸馏”是否构成对商业秘密的侵权或不正当竞争行为的争论,司法实践与行业监管应积极开展创新实践与探讨,探索最优路径。
——持续提升治理规则的全球影响力,加强国际合作与全球治理参与。
人工智能技术的可持续发展不仅涉及技术层面的竞争,更包含涉外法治软实力的博弈。
针对企业出海挑战,应构建涉外法治服务保障体系,通过事前风险评估、事中合规指导、事后争议解决的全链条机制,为企业化解制度壁垒。针对国际治理参与代表性不足、机制协调性欠缺、技术规则互认困难等问题,我国应扮演更加积极的角色,聚焦发展中国家关切,强化多方协同治理。
此外,可通过提供基础设施、开源平台、治理方案设计、安全工具等一揽子公共产品,将产业合作与治理合作有机结合,帮助发展中国家提升数字治理能力,推动我国人工智能治理规则与标准“走出去”,为“中国标准”名牌建设奠定基础。(作者单位:中国政法大学数据法治研究院)■