内容摘要:本报告指出威权主义国家的人工智能产品与服务给民主国家的个人自由与集体安全带来大量风险。报告通过对比美国与欧盟两种管理人工智能风险的模式,提出了一个审慎的识别、分流、管理风险的三步走框架。报告强调民主国家应对此类风险的根本目的是保护自身的数字生态系统免受来自威权主义国家的技术风险的威胁,因此要采取相对平衡的政策而非与其进行经济和技术上的脱钩。

1 管理威权主义人工智能技术的方式

1.1美国的方式

为应对中国人工智能技术所带来的风险,今年三月初,美国参议院两党共同提出了一项强有力的法案——《限制危及信息和通信技术的安全威胁的出现(RESTRICT)法案》。该法案提出了一个基于风险的程序,以适应快速变化的技术和威胁环境,通过指示商务部识别并减轻信息和通信技术产品和服务所面临的外国威胁。法案的摘要列出了当下所面临的威胁:过去几年内,外国技术包括通信设备、社交媒体应用软件、安全软件和电商平台进入美国市场,并愈发嵌入美国信息的通信网络,对美国的公民数据信息、关键基础设施、美国个人和商务交流的隐私性以及信息生态系统和日常产品的安全性构成了新的威胁。为应对这些威胁,该法案要求商务部建立程序以识别、威慑、破坏、阻止、禁止和减少那些外国对手在其中有利益并对国家安全构成不当或不可接受风险的信息和通信技术产品交易。

1.2欧盟的方式

欧盟管理人工智能风险的方式远不止于打击威权主义人工智能技术。欧盟目前正在审议的《人工智能法》草案采取了第一原则的方法,即在所有的人工智能应用领域中,对风险最高的情况进行分流,以引起监管部门的注意。其目的是保护欧盟公民免受人工智能技术带来的风险——使人工智能技术安全、可信、负责,并且不会因为无法解释的算法偏见而歧视弱势群体。与欧盟的《通用数据保护条例》一样,拟议的人工智能条例也是基于“保护人的尊严和基本权利”。

拟议条例为供应商提供了非常全面的遵约步骤,但也因其过重的合规负担而受到批评。数据创新中心预估,该法规会阻碍对人工智能领域的投资、造成巨大的合规成本(尤其是对中小型企业而言)、减缓经济的数字化进程,并导致欧洲从事人工智能行业的企业家流失,最终损害欧洲的竞争力与技术主权。

欧盟的拟议条例为识别带有风险的人工智能系统提供了系统性的方法,产品将根据其功能而非来源被禁止或监管,但该草案也意识到了欧盟不能也不需要对一切事项都进行监管。欧盟法规的缺点在于其雄心壮志与法规的复杂性导致了执行方面存在大量风险。它试图一次性解决人工智能存在的问题,可能会分散对重要问题的关注度(如威权主义的人工智能)。更深层次的问题在于,该法规关注的是如何让人工智能更加“以人为本”,其目的是保护公民的个人民主权利,而非民主国家整个数字生态系统的安全。民主国家需要制定法规同时应对这两种挑战,因为它们代表着不同类别的风险。

过去,欧盟在打击来自中国的数字风险方面反应滞后。如今有迹象表明,欧洲对中国的态度正在发生转变。今年4月,欧盟委员会主席在访问中国前夕发表的强硬讲话中指出“根据法律要求,中国公司有义务协助情报搜集行动并进行保密”,“中国的明确目的是改变国际秩序并形成一个以中国为中心的新秩序”。6月中旬,欧盟委员会宣布将逐步取消与华为和中兴的采购和合同,并督促成员国紧急采取欧盟“2020 5G网络安全”工具箱中所建议的相关措施,以快速、有效地应对已确定的供应商所带来的风险。

采取行动的权力在欧盟国家手中,但法德两大主要成员国在中国的问题上摇摆不定。尽管两国都签署了针对中国供应链和经济胁迫的《七国领导人关于经济和经济安全的声明》,马克龙在访华期间承诺“继续在两国法律法规的基础上,以公平、非歧视的方式处理中国公司的申请许可”。德国对中国的态度更为矛盾。一方面,今年3月有报道称,德国网络安全机构正准备禁止华为和中兴的新设备进入德国5G网络;另一方面,今年2月中兴声称德国已认证其5G无线电设备,且在同年3月,德国铁路运营商Deutsche Bahn选择华为为其数字基础设施构建基础网络。

2 在国家安全威胁与道德恐慌之间寻求适当的平衡

美欧的政策目标是采取谨慎措施保护其数字生态系统,而不是在经济上与中国脱钩或削弱中国的技术出口(尽管这两者可能都会产生二阶效应)。一个识别、分流和管理威权主义人工智能产品和服务风险的框架可以包括以下三步流程:

1.步骤1——审计/排查。识别在目的和功能方面最需要仔细调查的人工智能系统。其目的是评估这些产品或服务的潜在暴露规模,其对基本服务、公共卫生与安全、民主进程、开放市场、言论自由和法治的重要性,以及这些系统被破坏或不可用情况下的依赖和冗余级别。

2.步骤2——设置专家组/分类。任何人都能识别部署在敏感领域(如政府基础设施)的中国人工智能技术的风险,但对于风险级别不明确的情况,可以实施“贼喊捉贼”的策略。其目的是攻击利用供应商系统中的“合法”功能进行有害行动的对手。一支由具有情报行动、网络安全,或许还有军事规划经验的人员组成的团队,再加上相关的技术主题专家,可以提供宝贵的见解,以确定我们真正应该关注的设备、系统和使用案例。

3.步骤3——监管。针对已经确定的高风险人工智能系统制定和实施适当的风险管理策略。可采用的措施包括禁止政府采购或使用、全面禁止、公众教育、国际合作共同监管等。

本报告所提出的框架只是解决中国人工智能产品和服务所带来的风险的一项审慎的步骤,但不是一个完整的解决方案。民主国家的最终目标是为了实现“持久安全的数字生态系统”,为达到这一目标,还应考虑设立标准、全球伙伴合作与法律框架等方面的措施。

发布时间|2023年7月

文章来源|澳大利亚战略政策研究所

原文标题|De-Risking Authoritarian AI: A Balanced Approach to Protecting Our Digital Ecosystems

原文地址|https://www.aspi.org.au/report/de-risking-authoritarian-ai (共40页)

Last modified: 2023年 8月 15日
Close