您当前的位置:检测资讯 > 法规标准

《生成式人工智能服务管理暂行办法》要点解析及发展建议

嘉峪检测网        2023-08-15 08:25

2023年7月10日,国家网信办联合七部委发布《生成式人工智能服务管理暂行办法》(简称《办法》),《办法》自2023年8月15日起施行,成为全球首部针对AIGC监管的法律文件。
 
一、《办法》关键要点梳理
 
1. 坚持发展和安全并重,对生成式人工智能服务实行包容审慎和分类分级监管
 
《办法》弱化了《征求意见稿》强调监管的基调。《办法》明确了“对生成式人工智能服务实行包容审慎和分类分级监管”,在一定程度上借鉴了欧美等国家人工智能相关法案之中根据风险分类分级管理的原则。
 
如欧盟《人工智能法案》将人工智能系统分为不可接受的风险、高风险、有限风险和低/轻微风险四类(见表1),针对不同级别的人工智能系统设置了不同的合规要求,如高风险类型的人工智能系统是监管重点,对其规定了全流程风险管理措施。
《办法》更加突出行业监管的特性。第十六条规定,“网信、发展改革、教育、科技、工业和信息化、公安、广播电视、新闻出版等部门,依据各自职责依法加强对生成式人工智能服务的管理。”
 
这种行业导向监管模式符合生成式人工智能的强技术属性,基于各行业特点分类施策,有助于实现各个行业、各风险类别AIGC服务的充分发展,同时也可针对性地控制其应用合规风险。
 
2.明确适用对象和范围:适用于向境内公众提供AIGC服务,对大量垂直领域如科研、工业应用等场景排除适用范围
 
一是明确了适用对象。主要针对利用AIGC向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务。境外AIGC服务提供者,无论是直接向境内提供服务,还是通过API接口等方式间接提供服务,都将受限于管理办法的相关规定。
 
二是区分了“服务”与“技术”。《办法》重点突出了AIGC服务应用层的信息内容安全,对模型及其相关技术作为基础设施的功能研发活动并不适用,鼓励AIGC在多领域探索应用,为人工智能领域的技术研发、应用保留了一定试错空间。
 
三是区分了“面向公众”和“面向非公众”。对面向非公众留有一定政策余地,为企业端落地AIGC技术、赋能企业生产运营、提高产出效率提供了有效支持。
 
3.以鼓励产业创新和发展为重,明确生成式人工智能技术发展路径和重点方向
 
《办法》体现了国家对生成式人工智能产业发展的鼓励和支持,既为产业创新提供了政策导向和法律保障,又为产业监管提供了科学合理且平衡适度的框架。《办法》深入聚焦人工智能基础设施建设、理论和技术创新、重大应用场景、人才发展、产业链供应链生态体系等领域,服务人工智能产业的高质量发展。具体包括:
 
(1)算力基础设施。推动生成式人工智能基础设施和公共训练数据资源平台建设。促进算力资源协同共享,提升算力资源利用效能。推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。
 
(2)理论和技术创新。鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新。
 
(3)应用场景。鼓励生成式人工智能技术在各行业、各领域的创新应用,探索优化应用场景,构建应用生态体系。
 
(4)生态体系。支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作。
 
4.搭建人工智能全生命周期监管体系,对数据、算法等业务适度“松绑”
 
一是放宽对于训练数据质量的要求。《办法》在《征求意见稿》提出的训练数据“真实性、准确性、客观性、多样性”基础上,从“能够保证”训练数据质量减轻至“提高”训练数据质量,“增强”训练数据的真实性、准确性、客观性及多样性。这种变化在一定程度上打消了提供者对使用训练数据、扩大训练数据范围的顾虑,有助其积极开展相关数据训练活动。
 
二是平衡“算法透明”与“商业秘密”间的关系。《办法》明确“算法机制机理”披露要求,有效回避算法的源代码披露对于企业知识产权、商业秘密的影响,同时也明确了监管职责,审慎考量算法透明问题。
 
二、启示建议
 
1.加快完善内部人工智能合规制度体系
 
搭建企业层面的人工智能合规体系,做好企业内部治理,打好制度管理基础。成立企业人工智能风险管理机构,落实AIGC治理与运营统筹职责,牵头制定集团层面相关制度规范,如人工智能开发管理制度、技术和服务监测制度、数据安全与合规管理规范、科技伦理审查制度等,以应对未来各种监管举措。
 
2.搭建涵盖人工智能算法、数据、模型的全生命周期审核体系
 
一是建立全生命周期的人工智能审核管理体系。在大模型的研发、生产和应用过程中,对生成式内容主动进行合理标记并在模型训练和预训练、提供服务等各个环节进行有效的合规管理和落实管控。
 
二是建立算法安全监测制度。对AIGC算法进行审查和测试,评估算法安全性与合规性。建立AIGC算法安全监测机制和流程,防止人工智能算法产生歧视、侵权、不正当竞争等行为,并确保服务公正性。
 
三是强化模型训练和数据安全。OpenAI日前受到美国联邦贸易委员会(FTC)调查,涉及不正当处理个人数据等问题,面临潜在的法律威胁。这次FTC调查凸显了正当处理AI数据和安全的重要性。企业在进行AIGC模型训练和应用时,应确保训练数据的合规性与安全性,保障数据来源合法性,特别是强化对外部数据提供方的审查;提升训练数据的多样性,避免从单一范围训练数据。
 
四是建立内部记录机制。AIGC算法需要进行持续监测和更新,及时发现和修复可能存在的安全漏洞和问题。建立完善的漏洞报告和漏洞修复机制,及时响应用户反馈和安全问题,实现对人工智能开发和使用的信息记录,满足算法透明性义务和及时响应监管的要求,有助于企业合规自证。
 
3.围绕《办法》提出的布局方向,推进自身AIGC业务发展
 
在算力基础设施领域,要结合自身算网融合禀赋,发展大模型基础设施,提供大规模智算和大模型开发平台服务;依据《办法》主动推进算力资源协同共享,并与产业合作伙伴联合攻关,提升算力资源利用效能。
 
在理论和技术创新领域,成立大模型创新中心,联合高校与科研院所聚焦下一代人工智能技术研发,助力大模型高水平自立自强;提升人工智能垂直领域技术研发,满足差异化大模型服务需求。
 
在应用场景领域,围绕自身优势构建行业大模型能力,重点从ToB端切入行业大模型领域,助力政企行业客户提质增效。
 
在生态领域,构建产学研相结合的大模型生态,积极参与大模型领域国家标准、行业标准制定,协同参与制定相关国际标准,助力数字中国建设。
 
 
分享到:

来源:企业管理杂志