人工智能的出现大大提高了数字时代的社会生产力,但人工智能也引发了一系列数据、伦理和社会问题。为此,多国政府颁布了人工智能相关法律法规。由于法律传统、人工智能技术、政策导向等因素的不同,不同国家和地区的人工智能治理模式存在差异。欧盟、美国和日本的人工智能治理模式各有特色:欧盟呈现以伦理优先为导向的集中式治理模式;美国呈现以创新优先为导向的分散式治理模式;日本则呈现以技术发展为主导的非约束性软法治理模式。虽然人工智能治理路径各具特点,但谋求发展与安全、平衡促进与规制是一致性目标。
欧盟:以伦理优先为导向集中式治理
在治理理念方面,欧盟的人工智能治理模式坚持伦理优先,主张在促进人工智能发展与创新的同时,防范人工智能风险,确保公民基本权利和安全。2018年12月,欧盟委员会发布了《人工智能协调计划》,明确提出将欧盟建设成为开发和部署前沿性、合伦理性及安全性的全球人工智能治理领导者目标,并在全球范围内推广伦理优先的治理方法。2019年4月,欧盟委员会出台《人工智能伦理准则》,确定了人工智能治理的尊重人类尊严、防止伤害、公平和可解释性四项伦理原则,并提出了实现这些原则的七项要求,即应有能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉和问责机制。2023年6月,欧洲议会通过《人工智能法案》,主张人工智能应当符合人类伦理,不应背离人类基本道德和价值观。
在治理架构方面,欧盟采取自上而下的垂直治理架构。欧盟以《通用数据保护条例》(以下简称《条例》)为基础,形成了从欧盟到成员国再到企业层面的垂直治理体系。具体而言,在欧盟层面,设立欧盟数据保护委员会和欧洲数据保护专员公署,负责数据治理和协调,确保《条例》在成员国中得到一致执行。在国家层面,每个成员国在域内设立专门的数据治理机构,如丹麦的数据监察局和法国的国家信息与自由委员会,负责监督《条例》在本国的实施情况,并对相关事件进行深入调查。在企业层面,企业、公共机构等设立数据保护官,负责监督机构内部对《条例》义务的履行情况,并与数据治理机构进行合作。
在治理强度方面,欧盟治理模式较为严格,对企业的数据保护和隐私要求较高,企业拥有的容错空间较少。为了科学且系统地规制人工智能风险,欧盟提出了分类管理的方法,并设立了监管沙盒、高风险人工智能系统数据库,以平衡风险规制与激励发展的诉求。此外,欧盟《人工智能法案》为人工智能系统开发者和服务提供者设定了一系列义务,主要包括:识别和减少对健康、安全、权利、环境、民主和法治的可预见风险;仅使用受适当数据治理措施约束的数据集;设计、开发基础模型以实现适当性能;利用公布后的标准设计、开发基础模型,减少资源浪费等。
美国:以创新优先为导向分散式治理
在治理理念方面,美国人工智能治理模式坚持创新优先,强调维护和促进人工智能技术的创新发展。从2011年美国“国家机器人计划”、2016年《美国机器人发展路线图——从互联网到机器人》《国家人工智能研究和发展战略计划》,到2023年《国家人工智能研发战略计划》,均鼓励人工智能创新发展、高效竞争。2023年10月30日,美国总统拜登签署颁布《关于安全、可靠、可信地开发和使用人工智能的行政命令》,明确了美国发展的重要方向是人工智能。作为目前美国最为完善的人工智能行政规范,该行政令意在根据风险等级和影响领域,综合利用“标准+测试”“最佳实践”等治理手段,确立人工智能安全的新标准,促进创新和竞争,确保美国在人工智能技术和产业领域的全球领先地位。
在治理架构方面,美国人工智能治理架构呈现分散的特点。一方面,美国采用分散式治理架构,各州拥有独立的立法权和执法权,可以独立制定和实施自己的法律。在数据治理规则上,联邦政府倾向于行业主导的模式,而州政府则采取了更为综合性的立法方式,如《加州消费者隐私法》和《加州隐私权法》等。分散式治理架构使得美国人工智能治理架构兼具灵活性和高效率。另一方面,治理架构具有多部门协同的特点。美国的人工智能治理涉及多个联邦部门和机构,如白宫科技政策办公室、消费者金融保护局、司法部、联邦贸易委员会等,相关部门在各领域内负责审查和监管人工智能技术的风险和应用。
在治理强度方面,美国模式呈现企业友好型和弱治理特征,给予企业更多的容错空间和创新自由。2023年7月21日、9月12日,拜登政府先后召集15家人工智能领军企业,共同作出自愿性承诺,旨在提升人工智能系统和产品的安全性和可信度。与欧盟的严格治理模式相比,美国多数州的《消费者数据保护法》赋予了中小企业一定的豁免权,减少了中小企业的合规负担。同时,诸如《加州消费者隐私法》等相关法律并没有对数据控制者和处理者的义务进行严格和系统的规定。尽管2023年美国参众两院已召开超过30场关于人工智能的听证会,同时联邦贸易委员会、商务部、管理和预算办公室、国防部等各部门及其下辖机构也围绕人工智能发布了各种研判和报告,但这些报告仍侧重于原则性要求的阐述,尚未形成具体、可执行的义务性内容。
日本:以技术发展为主导非约束性软法治理
在治理理念方面,日本人工智能治理模式以优先发展技术为前提,主要采用政策性文件等方式对人工智能进行规范。日本确立人工智能治理遵循以人类为中心、教育、隐私保护、确保安全、公平竞争、问责制和透明度、创新等7个原则。2023年8月,日本政府宣布制定《人工智能指导方针》,旨在为人工智能企业的研发与应用提供参考,以期促进人工智能企业自愿采取行动,实现“以人类为中心的人工智能社会”愿景。
在治理架构方面,日本建立了多元化、多层次、多主体的治理架构。在治理主体上,日本纳入了政府、行业、企业以及社会等多元主体。其中,政府以引导为主,通过民主讨论的方式凝聚共识,推动政策实施;行业协会与相关经济团体协同参与监管,确保政策的落地与执行;企业则提供详尽的技术信息,明确促进人工智能技术发展的具体要求,同时积极发挥自主规范与自我监督的效能;社会团体作为第四方力量,从多元化视角提出具体治理需求。在制度架构上,日本构建了包括原则层、规则层、监督层以及执法层的多层级架构。原则层设定人工智能伦理治理的目标,规则层确立实现上述目标的路径,监督层引导企业自主规范,执法层对违规行为进行追责。目前,日本人工智能治理仍以软法为主,缺乏强制力,一定程度上影响了治理效果。
在治理强度方面,日本对人工智能的规制力度不大。日本政府通过建立奖优惩劣的激励机制,增强企业与政府之间的合作,为企业营造了宽松发展环境。首先,政府邀请在人工智能领域占据领先地位的企业代表参与规则制定,既确保所制定的规则具有前瞻性,又增强了企业履行规则的责任感。其次,政府每年对企业开展监管调查,表彰在实践中表现优秀的企业,以此带动行业整体发展。最后,行业团体为符合条件的优秀企业颁发合格证书。例如,2022年4月实行的“人工智能云服务的安全、信赖信息公开认证制度”是专门对云服务运营商安全、信赖信息公开现状认证的制度。通过认证的企业可以提高客户对其的认知度,这种认证在未来很可能会成为市场准入的重要标准或先决条件。
欧盟、美国和日本在人工智能治理问题上采取了不同的模式,反映了各自的政治制度、文化传统和经济发展需求。域外人工智能治理实践表明,人工智能治理模式的构建应立足自身,正确把握国情差异性,在处理好技术创新与风险管理的同时,促进人工智能产业的健康发展。