• 元宇宙:本站分享元宇宙相关资讯,资讯仅代表作者观点与平台立场无关,仅供参考.

迈向负责任 AI:中国 AI 治理趋势与展望

  • 2023年8月02日 20:16



21世纪是数字化、网络化、智能化深入发展的时代,人工智能(AI)作为其中的关键技术,其进展备受各界瞩目。而过去十年被认为是以深度学习为代表的AI的“黄金十年”。[1]通过深度学习,AI领域的神经网络技术(Neural Networks)迎来复苏,让AI领域迎来飞速发展的“第三个春天”。在这之前,自从1956年达特茅斯会议提出“人工智能”这一概念以来,AI领域已经历两起两落。具体而言,机器学习算法、大数据、云计算、AI专用芯片、开源软件框架等诸多技术要素的汇聚发展,推动了AI领域取得巨大进展,不仅AI的感知、理解、学习、决策等能力持续得到提高,而且AI因此迅速成为新的通用技术和经济社会的智能底座,被广泛应用于经济社会的各个领域,带来新的产品和服务。从消费互联网领域的算法推荐、AI生成内容(AIGC)、聊天机器人,到产业领域的无人驾驶汽车、AI医疗软件、AI质检,再到社会公共服务中的各种便民应用,AI对经济社会高质量发展的巨大价值持续得到彰显。[2]总之,作为引领新一轮科技革命和产业变革(第四次工业革命)的战略性技术,AI有望重塑人类经济社会,对生产力、劳动就业、收入分配、全球化等都将带来巨大影响。
在此背景下,AI成为国际竞争的新焦点,全球各国纷纷出台AI发展战略和具体政策,抢占战略制高点和发展机遇。2017年7月,cn发布《新一代人工智能发展规划》,AI上升为国家战略;2018年4月,欧盟出台AI战略,旨在让欧盟成为世界级的AI中心并确保AI是以人为本的、可信的;2019年2月,《美国AI计划》发布,启动AI战略,旨在提升美国在AI领域的领导地位;2021年9月,英国出台AI战略,希望通过十年计划把英国打造为AI超级大国。分析各国的AI战略不难看出,AI领域的国际竞争不仅事关技术创新与产业经济,而且牵涉AI治理等维度。随着AI的广泛应用,AI带来的诸多科技伦理问题持续引起社会各界的高度关注,诸如算法歧视、信息茧房、不公平的AI决策、个人信息滥用和隐私侵犯、AI安全、算法黑箱、责任承担、技术滥用(如大数据杀熟、AI造假和合成虚假信息)、工作和就业影响、伦理道德冲击等风险挑战。[3]因此,伴随着过去十年AI技术发展应用的“高歌猛进”,国内外各界同步推进AI治理,探索立法、伦理框架、标准和认证、行业最佳做法等多元治理措施和保障机制,支持负责任的、可信的、以人为本的AI发展。
本文立足国际视野,梳理过去十年cn在AI治理领域的重要进展,分析总结其中的规律和趋势,并展望未来发展。在可预见的未来,随着AI的能力越来越强,其应用和影响将日益加深,因此,负责任的AI(Responsible AI)将变得越来越重要。而负责任的AI的推进和落实,离不开合理有效的AI治理。换句话说,建立健全AI治理,是迈向负责任AI、保障AI未来发展的必由之路。希冀本文对未来AI治理的持续开展和落地有所助益

AI治理的八个趋势
宏观战略与落地政策并举,培育国家AI竞争力
自2013年2月发布的《关于推进物联网有序健康发展的指导意见》提出“经济社会智能化发展”以来,AI便进入国家宏观战略的视野,成为国家顶层政策文件的重要议题。例如,2015年《关于积极推进“互联网+”行动的指导意见》首次提出“培育发展人工智能新兴产业”。此后,国家对AI的重视程度不断提高,持续在战略层面对发展AI做出部署,确保实现核心技术自主可控,推进高水平科技自立自强(表1)。



落地政策同样重要。AI是新兴技术与新兴产业的综合体,AI技术创新只有转化为可持续的产业生态,并和实体经济深度融合,才能发挥好其作为新的增长引擎的强大作用。在这方面,试验区、先导区等先行先试模式发挥着重要作用。科技部着力推进的人工智能创新发展试验区建设成果显著,全国已经批复建设18个国家新一代人工智能创新发展试验区,在政策工具、应用模式、经验做法等方面起到了很好的引领带动作用。2019年至今,工信部批复建设11个国家人工智能创新应用先导区,促进AI和实体经济深度融合;2022年7月,科技部等六部门发布《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》,着力解决AI应用和产业化问题,以“数据底座+算力平台+场景开放”三驾马车驱动AI与经济社会发展深度融合,更好支撑高质量发展。
在国家宏观战略和落地政策的持续支持下,cnAI领域的创新创业持续活跃,AI领域的国家级实验室陆续建立,在AI领域的技术创新、产业应用、人才规模等方面均取得了重要成就。cn科学技术信息研究所发布的《2021全球人工智能创新指数报告》显示,目前全球AI发展呈现中美两国引领、主要国家激烈竞争的总体格局。[4]cnAI发展成效显著,AI创新水平已经进入世界第一梯队,与美国的差距进一步缩小。cn的超算中心、AI企业规模、专利注册数量、人才队伍建设和科研实力均处在全球领先行列,未来,AI对cn经济增长和社会发展的贡献将持续放大。普华永道的研究报告预测,全球来看,到2030年AI对全球经济的贡献将达到15.7万亿美元,cn将从AI中收获最大的经济收益,达到7万亿美元,意味着AI将推动cnGDP增长约26.1%;美国和北美其次,将达到3.7万亿美元。[5]


科技伦理制度不断完善,成为AI创新的重要保障
在数字时代,AI等新兴数字技术,具有不同于工业时代的技术应用的独特性和复杂性。主要体现为:(1)更广泛的联通性,网络的连接和数据的收集、处理无处不在;(2)更强的自主性,AI系统驱动各种产品和服务独立运行,无须人类干预;(3)更深的不透明性,AI系统的“算法黑箱”难以被理解和解释;[6](4)更高的拟真性,AI生成、合成的内容、数据和虚拟世界越来越逼近现实。正因如此,AI等新技术应用可能引发的社会伦理问题越来越具有突发性、隐蔽性、规模性、不可预测性等诸多特征,这给科技伦理治理提出新的挑战。在AI的发展应用过程中,同步考虑甚至提前考虑科技伦理问题变得越来越必要和重要。[7]科技伦理制度的调整完善,由此成为AI时代的重要议题,需要从关注人的伦理转向关注技术的伦理,实施对智能体进行道德约束,构建友善的数字社会秩序。[8]更进一步而言,随着全球科技竞争日益激化,科技伦理不仅事关科技安全风险挑战之防范,而且关乎国家科技竞争力之打造。
党的十八大以来,国家对科技伦理的重视程度不断提升,明确提出科技伦理是科技活动必须遵守的价值准则,并将科技伦理纳入顶层政策设计,作为科技创新的重要支撑和保障。《中共中央关于坚持和完善cn特色社会主义制度推进国家治理体系和治理能力现代化若干重大问题的决定》和《十四五规划和2035年远景目标纲要》对科技伦理做出了顶层部署,要求健全科技伦理治理体制,健全科技伦理体系。目前,国家持续建立健全科技伦理制度,塑造科技向善的文化理念和保障机制。主要体现在以下三个方面:
第一,组建国家科技伦理委员会,负责指导和统筹协调推进全国科技伦理治理体系建设工作。2019年7月,中央全面深化改革委员会第九次会议审议通过了《国家科技伦理委员会组建方案》,正式确立了cn国家级的科技伦理管理机构。2022年3月发布的《关于加强科技伦理治理的意见》进一步明确了国家科技伦理委员会的管理职责。
第二,出台科技伦理相关的政策法规,支持科技伦理治理落地实施。2021年12月修订的《科学技术进步法》的一大亮点就是增加了科技伦理相关条款,一方面对健全科技伦理治理体制做出了整体规定,另一方面要求科学技术研究开发机构、高等学校、企业事业单位等主体履行科技伦理管理主体责任,对科学技术活动开展伦理审查,同时明确科学技术研究开发和应用活动的法律伦理底线。《关于加强科技伦理治理的意见》则对科技伦理治理提出了更为全面的要求,涉及总体要求、原则、体制、制度保障、审查和监管以及教育和宣传六大方面,为科技伦理治理的落地实施奠定了基础。后续还将制定科技伦理审查办法、科技伦理高风险科技活动清单、细分领域的科技伦理规范等配套规定。
第三,强调AI领域的科技伦理治理。国家新一代人工智能治理专业委员会先后发布《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》,为发展负责任的AI提供伦理指南。《数据安全法》《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》等法律法规,对数据和算法活动提出科技伦理要求和管理措施。《关于加强科技伦理治理的意见》将AI、生命科学、医学作为“十四五”期间的三个重点领域,要求制定专门的科技伦理规范、指南等,加强科技伦理立法,并要求相关行业主管部门推出科技伦理监管举措。可以预见,未来AI领域的科技伦理监管将得到加强。此外,地方层面的立法如《深圳人工智能产业促进条例》和《上海促进人工智能产业发展条例》都把AI伦理治理作为支持AI产业健康发展的重要保障。


从以上分析可以看出,目前在AI的科技伦理治理方面,一个显著的趋势是把创新主体的科技伦理管理主体责任作为一个主要的抓手,这和互联网平台监管强调平台主体责任具有一定的相似性。政府对平台的监管,在很大程度上是通过落实、压实平台主体责任来实现的,网络领域的相关立法构建了事前、事中、事后全方位的平台义务体系,市场监管总局发布的《互联网平台落实主体责任指南(征求意见稿)》尝试对不同类型的平台的主体责任进行细化。政府对AI的监管,呈现出类似的思路。目前的相关政策法规尝试对科技伦理管理主体责任进行细化,要求创新主体建立伦理委员会、坚持科技伦理底线、进行科技伦理审查、开展科技伦理风险监测预警和评估、开展科技伦理培训等。
互联网领域算法应用成为AI监管的重点对象
算法推荐、算法自动化决策、AI深度合成等互联网领域的算法应用,由于应用广泛、社会公众关注度高、负面问题持续凸显等因素,成为政府在AI领域重点监管的对象。近年来,国家出台了一系列法律法规,积极规范互联网领域算法应用。[9]国家互联网信息办公室等九部门出台的《关于加强互联网信息服务算法综合治理的指导意见》提出了较为全面的管理要求,希望利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。该意见同样强调强化企业主体责任,包括算法安全责任、科技伦理审查等。
在算法推荐方面,《网络信息内容生态治理规定》提出针对算法推荐技术健全人工干预和用户自主选择机制。2022年3月1日起施行的《互联网信息服务算法推荐管理规定》则是cn第一部聚焦算法治理的立法,该规定针对算法推荐服务提供者提出全方位的义务和禁止性要求,提出算法安全风险监测、算法安全评估、算法备案管理等一系列监管举措,进一步强化平台企业的算法安全责任。业内人士以此为标志,将2022年称为算法监管元年。
在算法自动化决策方面,《中华人民共和国个人信息保护法》《中华人民共和国电子商务法》《在线旅游经营管理服务暂行规定》等都有相关条款对算法歧视、大数据杀熟等不公平、不正当的算法决策行为进行规制,提出了向个人提供选择权限、开展影响评估、个人可以要求说明和享有拒绝权限等规制方式,更好地平衡个人权益保护和算法商业应用活动。
在AI深度合成(主要是指利用AI技术生成、合成信息内容)方面,相关立法积极为AI深度合成技术划定应用红线,促进技术正向应用,如《网络音视频信息服务管理规定》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等都禁止将深度合成算法用于虚假新闻信息和其他违法违规活动。2022年11月通过的《互联网信息服务深度合成管理规定》,总结既往监管经验,从深度合成服务提供者主体责任、深度合成信息内容标识管理等方面,对深度合成技术应用进行全面规范,通过内容标识、检测识别、内容溯源等必要的安全保障措施确保深度合成技术应用安全可靠,更好地促进技术创新发展和积极正向应用。
整体而言,互联网领域的算法监管强调安全可控、权益保护、公平公正、公开透明、滥用防范等多元目的,在算法应用分级分类基础上,重点规制高风险类算法应用。算法分级分类监管和《欧盟人工智能法案》对AI系统的监管思路是类似的,后者按照不可接受风险、高风险、有限风险、最小风险对AI系统进行分级,并对不同风险程度的AI系统提出不同的监管要求。在此背景下,学界对算法治理的研究兴趣浓厚,提出了算法解释、算法影响评估、算法审计等诸多思路。未来,各界还需进一步探索完善算法监管的方式方法和治理举措,更好地保障算法应用向上、向善。
以监管创新促进AI在传统强监管领域应用落地
对于交通、医疗等传统强监管领域而言,自动驾驶汽车、载人无人机(无人驾驶的飞行汽车)、AI医疗软件等新生事物面临的主要问题是,其商业化应用仍面临较大的法律和监管障碍。这些障碍不仅影响消费者和公众对技术的信任,而且打击创新者和投资者的积极性。因此,有效的监管创新是这些新事物发展应用的关键所在。以自动驾驶汽车为例,只有加快革新旨在规制传统汽车和人类司机的立法和监管框架,进而建立新的、有效的监管框架,才能加快实现自动驾驶汽车的商业化应用。
cn的政策制定者积极创新监管方式和手段,通过“监管沙盒”(Regulatory Sandbox,详见后文介绍)、试点、示范应用等方式支持、促进AI新事物应用落地。在自动驾驶汽车领域,国家出台了一系列立法和规范性文件,鼓励、支持和规范自动驾驶汽车道路测试与示范应用活动,探索自动驾驶汽车安全标准的“监管沙盒”,完善自动驾驶汽车准入和上路通行规则,保障自动驾驶汽车运输安全。由于监管政策利好,北上广深等各地纷纷抢占发展高地,部分城市已向自动驾驶厂商发放了允许车内无驾驶人、可以收费运营的无人驾驶汽车试运营牌照;深圳则在全国率先出台《深圳智能网联汽车管理条例》,为商业化应用奠定立法和监管框架。在AI医疗领域,由于AI医疗软件具有不同于传统医疗器械的诸多全新特征,包括自主性、学习进化能力、持续迭代性、算法黑箱、不可预测性等,这使得传统审批程序难以有效适应AI医疗软件的发展需求。为此,监管部门积极完善AI医疗器械的注册申报和审批程序、使用管理规范,支持智能医学影像等辅助诊断和辅助治疗的AI医疗软件加快临床应用;目前国内已有AI医疗软件获得审批,如腾讯觅影的AI辅助诊断青光眼软件、肺炎AI辅助诊断系统都已获批第三类医疗器械注册证(“三类证”)。未来,监管部门还需持续完善、优化针对AI医疗软件的注册申报和审批程序,让AI医疗应用更好地增进民生福祉。
加快探索AI的知识产权保护规则


AI生成内容(AI-Generated Contents,缩写AIGC)已经成为AI的新疆域,代表着AI的未来发展方向[10]。在互联网领域,AIGC是PGC(专业生产内容)和UGC(用户生产内容)之后的内容生产形态,带来自动化内容生产的巨大变革。目前,AIGC技术已能自主生产多种形式的内容,包括文本、图片、音频、视频、3D内容(3D物品、3D虚拟场景)等。AIGC技术及其应用的知识产权保护规则由此成为绕不过去的重要议题,诸如“AIGC内容的著作权保护及归属如何确立”“AIGC技术使用他人版权内容是否侵权”等都是亟待解决的问题。[11]国外有学者提出,需要建立专门的AI知识产权保护规则和国际条约,因为AI技术打破了创作者和发明人只能是人类的既有模式。
国内外已在积极探索AI生成内容的知识产权保护规则。在国外,英国、欧盟、日本、南非等在考虑或者已经制定了专门的AI知识产权保护规则,如英国《版权、设计与专利法》中的计算机生成作品保护条款、欧盟《单一数字市场版权指令》中的基于AI技术的文本与数据挖掘版权例外条款等。在专利方面,英国的政策指出,由于AI还没有先进到可以独立自主地进行发明创造,所以当前还没必要对专利法进行修改,但需密切关注技术进展并及时评估AI的专利问题。
在国内,北京菲林律师事务所诉百度“百家号”著作权侵权案中,法院虽然认为只有自然人创作完成的独创性作品才可获得版权保护,由此否定了AI直接且独立生成的作品的版权保护可能性,但却指出可以通过竞争法等方式对AI生成内容的相关权益(如竞争性权益)进行保护。深圳市腾讯计算机系统有限公司诉上海盈讯科技有限公司侵害著作权及不正当竞争纠纷案中,法院基于AI领域的人机协作现实,指出AI写稿软件Dream writer在技术上“生成”作品只是创作过程的一个环节,原告主持的多团队、多人分工形成的整体智力活动才是创作的核心环节,并由此认定涉案文章是原告主持的法人作品。关于Dream writer案的认定更符合当前AIGC技术及其应用的发展状况,对将来通过立法进一步明确AI生成内容的知识产权保护规则具有较大的借鉴意义。在立法上,2020年新修订的《中华人民共和国著作权法》采用开放性的作品认定方式,在明确作品构成要件、列举主要作品类型的同时,规定了开放式的兜底条款,为AIGC等新技术应用带来的新客体保护预留出制度空间。
标准化建设是AI治理的关键一环
《国家标准化发展纲要》指出,标准化在推进国家治理体系和治理能力现代化中发挥着基础性、引领性作用。对于AI领域而言,AI标准不仅是支持、促进AI发展进步和广泛应用的重要手段(如技术标准),而且是推进落实AI治理的有效方式(如治理标准、伦理标准),因为AI治理标准可以起到“承接立法和监管、对接技术实践”的重要作用。再者,AI治理领域的标准相比立法和监管更具敏捷性、灵活性和适应性。因此,AI治理标准已经成为AI技术和产业发展中的一个制高点,国际社会纷纷提出落地举措。典型代表有欧盟的可信AI标准,美国国家标准与技术研究院(NIST)主导的AI风险管理、AI歧视识别等治理标准,英国的AI认证生态系统发展规划,IEEE的AI伦理标准等。在落地方面,IEEE已面向行业推出了AI伦理认证项目;英国希望通过5年时间培育一个世界领先、价值数十亿英镑规模的AI认证行业,通过中立第三方的AI认证服务(包括审计、影响评估、认证)来评估、交流AI系统的可信性和合规性。
cn非常重视AI领域的标准化建设,《国家标准化发展纲要》要求在AI、量子信息、生物技术等领域,开展标准化研究。近年来,各界持续推进AI治理领域的国家标准、行业标准、地方标准、团体标准等标准化工作。例如,国家标准化管理委员会成立国家人工智能标准化总体组,全国信息技术标准化技术委员会设立人工智能分技术委员会,都旨在推进制定AI领域的国家标准。2020年7月印发的《国家新一代人工智能标准体系建设指南》明确了AI标准领域的顶层设计,该指南将安全/伦理标准作为AI标准体系的核心组成部分,旨在通过安全/伦理标准为AI建立合规体系,促进AI健康、可持续发展。未来,AI治理相关标准需加快制定并落地实施,从而为AI领域的技术创新和产业发展提供更多保障。
行业主动探索AI治理的自律措施,践行负责任创新和科技向善理念
有效的AI治理需要政府、企业、行业组织、学术团体、用户或消费者、社会公众等多元主体的共同参与,其中,科技企业的自我治理和自律管理是落实“伦理先行”理念的重要方式。之所以呼吁“伦理先行”,在很大程度上是因为面对AI的快速发展,“法律的滞后性”现象变得越来越突出。在AI领域,“伦理先行”首先表现为科技企业的科技伦理自律管理,而且领先企业的最佳实践做法往往能够起到很好的引领带动作用,推动整个行业践行负责任创新和科技向善理念。


在行业层面,近年来,相关研究机构和行业组织纷纷提出AI的伦理指南、自律公约等,为企业的AI活动提供伦理指引。这方面的典型代表有cn人工智能产业发展联盟(AIIA)的《人工智能行业自律公约》和《可信AI操作指引》、北京智源人工智能研究院的《人工智能北京共识》和《人工智能产业担当宣言》、全国信息安全标准化委员会的《网络安全标准实践指南——人工智能伦理安全风险防范指引》等。
在企业层面,科技企业作为AI技术创新和产业应用的主体,担负着负责任地研发应用AI的重要责任。在国外,从提出AI伦理原则,到成立内部的AI伦理治理机构,再到开发管理和技术工具甚至商业性的负责任AI解决方案,科技公司探索出了较为成熟的经验,积累了很多可资推广的实践做法(表2)[13]。近年来,国内科技公司积极落实监管要求,探索相关自律措施,主要包括:发布AI伦理原则,建立内部的AI治理组织(如伦理委员会),针对AI活动开展伦理审查或安全风险评估,对外披露算法相关信息、促进算法公开透明,探索应对AI伦理问题的技术解决方案(如针对合成信息内容的检测识别工具、AI治理测评工具、联邦学习等隐私计算方案),等等。

Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM