原创 智能society

图片

图片

内容摘要:本报告概述了欧盟与美国在人工智能风险管理模式上的异同,包含立法广泛性、完善性、可操作性等。报告表示,欧盟在人工智能风险管理模式上走得更远,已经形成了完善且操作性较强,且涉及不同领域的完整体系。美国则依然存在立法模糊、标准不一致等问题。这将可能为欧美双方在这一领域的合作带来挑战。

图片

1.美国的人工智能风险管理方法

美国联邦政府对人工智能风险管理的方法大体上可以被描述为基于风险的管理、基于特定部门的管理以及基于高度分散的联邦机构的管理。这种做法有其优点,但也导致了人工智能政策的不均衡发展。虽然白宫有几份关于人工智能危害的指导性文件,但它们并没有制定出公平统一的联邦层面的方案来应对人工智能风险。

2019年2月联邦政府发布了行政命令《维持美国在人工智能领域的领先地位》(Maintaining American Leadership in Artificial Intelligence,EO 13859),其中要求“管理和预算办公室(Office of Management and Budget,OMB)”提出第一个关于人工智能监督的联邦方案。2020年11月,在EO 13859规定的最后期限的15个月后,OMB指导方针明确阐述了一种基于风险的方法,指出当人工智能出现重大问题时,该方法可以帮助了解适用于该风险的监管级别与监管方案类型。

拜登政府没有进一步执行EO 13859,而是通过《人工智能权利法案蓝图》(Blueprint for an AI Bill of Rights, AIBoR)重新讨论人工智能风险。由白宫科技政策办公室制定的AIBoR详细阐述了人工智能对经济和公民权利的危害、减轻这些危害的五项原则以及相关的联邦机构行动清单。但AIBoR没有强迫联邦机构减轻人工智能风险。此外,尽管AIBoR概述了五项原则,但大多数联邦机构只能使其先前存在的法律机构适应算法系统。

2.欧盟的人工智能风险管理方法

欧盟对信息安全风险管理的做法更为复杂,它建立在已实施的立法的基础上,如《通用数据保护条例(General Data Protection Regulation,GDPR)》;也涵盖新颁布的法律,如《数字服务法》(Digital Services Act,DSA)和《数字市场法》(Digital Markets Act,DMA),以及仍在讨论中的《人工智能法案》(EU AI Act)等。

GDPR除了与数据隐私相关,还包含两项与算法决策相关的重要条款。首先,GDPR规定,在没有任何人的监督的情况下,算法系统不应被允许做出影响合法权利的重大决定。第二,GDPR保证个人有权获得关于算法系统逻辑的有意义的信息。

EU AI Act则将是欧盟在人工智能风险的许多领域进行人工智能风险管理的关键组成部分。目前可从2021年4月“弗罗宾委员会提案”、2022年12月“欧盟理事会的最终提案”及正在进行的“欧洲议会讨论”中推测其关键特征。

EU AI Act并不是人工智能风险领域的唯一立法。欧盟已经通过了DSA和DMA,且《未来的人工智能责任指令(AI Liability Directive)》也可能发挥重要作用。DSA于2022年11月通过,将人工智能视为其在线平台和搜索引擎整体方案的一部分。DSA将披露许多关于人工智能在这些平台中的功能和危害的新信息。此外,DSA要求大型平台解释其内容推荐,并为用户提供不基于敏感用户数据的替代推荐系统。

DMA的广泛目标是增加数字市场的竞争,并考虑在这一范围内部署一些人工智能。例如,根据法律被视为“看门人”的大型科技公司将被禁止对自己的产品和服务进行自我偏好设置,而不是第三方,这一规定肯定会影响人工智能在搜索引擎中的排名和电子商务平台上的产品订购。欧盟委员会还能够对看门人的数据和人工智能系统进行检查。

3.欧盟和美国在人工智能风险管理方面的方法对比

两国政府都相当支持以风险为基础的人工智能监管办法,并表达了对值得信赖的人工智能的相似原则。事实上,纵观美国最新的指导性文件(即AIBoR和NIST AI RMF)和EU AI Act中的原则,发现它们在大量领域有很高的相似度。这三个文件都主张准确性、健壮性、安全性、非歧视性、透明度和问责制、可解释性以及数据隐私。此外,欧盟和美国都希望标准组织(包括政府和国际机构),在为人工智能设置限制方面发挥重要作用。尽管在概念上大体一致,但双方在人工智能风险管理方面的分歧远远多于共识。总体而言,欧盟的做法相较于美国而言更聚焦于协调和全面的监管覆盖。

4.欧盟和美国通过贸易和技术理事会在人工智能风险方面的合作

贸易和技术理事会(TTC)是欧盟和美国就贸易和技术政策进行谈判和更好合作的论坛。2021年9月在匹兹堡举行的美欧TTC第一次部长级会议之后,附件III中包含了一份关于人工智能协作的注意事项。该声明承认欧盟和美国都是以风险为导向的方法,并致力于推进值得信赖的人工智能的三个项目:(1)讨论值得信赖的人工智能的衡量和评估;(2)合作开发旨在保护隐私的人工智能技术;(3)联合编写一份关于人工智能对劳动力影响的经济研究报告。自此,所有三个项目都确定了具体的交付成果并开始执行,由此产生了在众多领域的具体成果。

5.跨大西洋人工智能风险管理面临的新挑战

建立跨大西洋、更具全球性的Al风险管理协调将是一项持续进行的工作,涉及一系列数字政策问题。虽然达成跨大西洋共识存在许多潜在障碍,但本文基于欧盟和美国在人工智能问题上的做法比较提出了几个新出现的重要挑战。

最直接的是,针对有影响力的社会经济决策的新规则已经导致了严重的失衡。最明显的原因是,EU AI Act允许监管机构对许多类型的人工智能系统进行广泛的覆盖,普遍允许执行欧盟原则的规则。另一方面,美国联邦机构在很大程度上受到限制,只能使现有的美国法律适应人工智能系统。

为应对在线平台带来的第二个重大挑战,欧盟已经通过了DSA和DMA。这些行为对整个社交媒体、电子商务和在线平台都有重大影响,而美国似乎还没有准备好相关立法。这尤其令人担忧,因为越来越多的数字系统正逐步整合到平台中,这意味着它们更有可能将许多跨国用户连接起来。

第三个新出现的挑战是人工智能部署的性质发生了变化。这一领域的新趋势包括多组织的人工智能开发以及边缘计算、联合机器学习等技术的扩散。开发人工智能系统的过程正变得越来越复杂。

发布时间|2023年4月

文章来源|布鲁金斯学会

原文标题|The EU and U.S. diverge on AI regulation: A transatlantic comparison and steps to alignment

原文地址|https://www.brookings.edu/research/the-eu-and-us-diverge-on-ai-regulation-a-transatlantic-comparison-and-steps-to-alignment/(25页)

Last modified: 2023年 7月 4日
Close