评论 | 立法为人工智能行业发展系上“保险绳”
2024-11-8 01:55:0 Author: mp.weixin.qq.com(查看原文) 阅读量:4 收藏

 扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

人工智能正加速改变着产业、社会和世界,成为当前国际技术竞争与规则竞争的关键领域。今年5月,全国人大常委会公布的2024年度立法工作计划将“人工智能健康发展等方面的立法项目”列入预备审议项目。国务院公布的2024年度立法工作计划中,亦明确“预备提请全国人大常委会审议人工智能法草案”。强化对人工智能的立法保障,既要注重“治当下”,还应兼顾“谋长远”,既要解决人民群众迫切关心的问题,也要从宏观上把握促进和规范的尺度,在法治轨道上促进行业高质量健康发展。
党的十八大以来,党中央高度重视人工智能技术在推动科技跨越式发展、产业优化升级、生产力整体提升等方面的巨大驱动力,不断优化和改善人工智能产业发展的政策环境,按照边发展边规范的思路,不断划定人工智能技术的发展“底线”和安全“红线”。近年来,我国先后制定了《中华人民共和国网络安全法》《网络信息内容生态治理规定》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等法律法规,促进了人工智能技术推广和人工智能产业发展。2023年4月28日,中共中央政治局会议强调“重视通用人工智能发展,营造创新生态,重视防范风险”。2023年7月,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》,与《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》协同联动,构成了我国人工智能治理的“三驾马车”。总体来看,我国对人工智能的治理已经形成了独特的规范方式和治理模式,即依托于生成式人工智能服务提供者、算法推荐服务提供者、深度合成服务提供者的权利义务、主体责任渐次展开,并以提供者主体责任为规范主线。但是,伴随着不断出现的新的法律风险和社会治理难题,需要进一步总结生成式人工智能的技术特性、运行规律,以便更加科学地把握人工智能治理的发展规律,并以此为基础建立一套行之有效的法律制度体系,妥善规范人工智能技术可能带来的风险挑战。
我国人工智能技术在发展中呈现出了如下新的特点:生态复杂化、风险多元化,应用场景特点各异、区分明显,算法规范不足、缺乏透明性,技术周期短、法律规范滞后等。面对这些新特点,传统治理模式出现了应对较为滞后、弹性较为不足等治理挑战,与生成式人工智能的技术特性还有不相匹配之处。目前,我国已经出台了针对生成式人工智能的专门法规,但尚未形成通用立法和治理框架,必须加强前瞻性研究,建立以人工智能专门法为主、相关法律法规为辅的法律规范体系,在重视防范风险的同时,充分重视行业公约、伦理规范等“软法”作用,最终实现人工智能规范与发展的动态平衡。

建立基础模型、专业模型、服务应用模型的分层治理体系

基于所运用的人工智能模型的不同特点和功能,人工智能业态可以进一步细分为基础模型层、专业模型层和服务应用模型层。基础模型是人工智能的基石,为专业模型和服务应用模型提供了生存空间和运行底座。专业模型是在基础模型的支撑下,为满足特定领域、行业或场景需求而开发的在特定领域内通用的模型。服务应用模型面向用户并直接给用户提供服务、解决问题。分层治理体系兼顾了人工智能业态的层次性和规范构建的科学性。我国现行法律法规对人工智能数据、算法、主体、场景的相关规定较为零散、破碎,系统性、连贯性、协调性还不够强,个别规定存在“内部打架”现象。为改进上述不足,在未来立法中可采取综合治理模式,划分技术、产品与服务三个层次,关注基础模型、专业模型、服务应用等不同层次生产要素要求,通过出台统一、规范的人工智能专门立法,对生成式人工智能全产业、全业态进行综合性监管与规治,通过采用复合性、系统性的治理模式,为我国抓住人工智能大模型发展窗口提供有力制度支撑和法律保障。

完善以鼓励发展和支持创新为导向的基础模型层法律制度

生成式人工智能基础大模型迭代周期短的特点导致其发展窗口期非常短暂,基础模型作为新型数字基础设施具有高成本、高风险、高收益的显著特点,在法律制度层面应以抢占先机、鼓励发展为导向,大力鼓励基础模型层的技术创新、研发投入,明确其在科技伦理审查、训练数据来源、模型参数可靠、算法安全风险等方面的恰当义务。例如,完善《中华人民共和国著作权法》中的数据挖掘法定许可制度,建立面向人工智能研发的“公共数据池”等新规则,为基础模型研发提供相对自由的制度空间。

完善以审慎包容、分级分类为导向的专业模型层法律制度

第一,对专业模型层的监管应坚持审慎包容的理念。生成式人工智能专业模型主要对基础模型进行适应各专业垂直细分领域的个性化精调,在整个产业链中起到承上启下的作用。对专业模型层的监管应根据专业模型所处行业,引入分类、分行业管理规则,关注关键领域、关键模型,重视专业领域训练数据来源与安全,适时引入新兴监管工具,给新兴技术发展留下试错空间。第二,生成式人工智能专业模型层一般有具体应用场景和垂直行业划分,应将开发者及“模型”本身作为法律规制对象和责任主体,结合专业模型层应用的具体场景“量体裁衣”,区分应用领域、风险级别的差异,采取不同的监管规范策略。第三,专业模型既是基础模型层的商业端用户,又是服务应用层的模型服务提供者,这就要求专业模型开发者不仅应对训练数据的合法性负责,还要遵循相关行业规范的具体要求,所以在未来进行人工智能立法时,对专业模型层大模型的规定要合理设计兜底条款,强化法律之间衔接配套,争取实现监管的同向发力、协调统一。

完善以风险管理、敏捷治理为导向的服务应用模型层法律制度

服务应用模型层直接面向用户,最容易侵害用户利益,立法的重点是在有效区分已知风险和未知风险等不同风险等级的基础上构建法律与技术相结合的监管工具箱,通过治理手段、治理强度的差异性安排有效控制服务应用层的风险,最大限度保护用户权益。例如,在未来立法中,可按照服务应用模型层对个人基本权利产生威胁的程度,将相关人工智能技术划分为“不可接受风险、高风险、低风险、最小风险”几种等级,并对人工智能技术提出风险管理体系建设、提供高质量数据集、数据处理可追溯、适当人为监督等法定义务,还可规定智能生成内容提示告知、信息披露等差异化监管要求。此外,针对生成式人工智能服务应用层未知的长期风险,可以尝试建立“通知+删除”制度,建立一种弹性的监管框架。同时,注重发挥技术规范、行业标准在人工智能治理中的重要作用,通过政府、行业主管部门等出台的技术政策、技术标准、技术指南等,为各技术参与者在设计、开发和使用人工智能技术的过程中有效识别、评估和处理相关风险提供指引,并在技术专家、平台主体、行业自律组织、用户等社会力量的协同下,共同探索各类场景、功能下生成式人工智能的全行业自律公约、伦理规范。

(来源:学习时报)

分享网络安全知识 强化网络安全意识

欢迎关注《中国信息安全》杂志官方抖音号

《中国信息安全》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664229123&idx=6&sn=56fd5df1a2b40e9ceb9afa4aabfd858a&chksm=8b59ebfabc2e62ec465a995826761d99e07b7b1e915fa915dbe456d26119c5bed9edbcde23cd&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh