内容摘要:本报告揭示了人工智能监管面临的三个挑战:一是如何应对人工智能发展的速度。随着高科技企业不断加码投资,技术快速发展,人工智能驱动的变革速度可能会超过联邦政府现有的专业知识和权威,应对速度挑战既需要将人工智能管理置于机构职权范围的前沿和中心,也要注意摆脱旧的监管管理方式,增加灵活性以跟上技术的步伐。二是解析要监管的内容,本报告将需要监管的内容分为三类,分别是传统的恶意网络行为,如网络欺诈、普遍的数字滥用情况以及人工智能本身的不可控性。三是确定谁监管以及如何监管的问题。报告认为针对上述挑战,需要一个专注的专家机构,实行灵活的新型监督,这种监督必须侧重于减轻技术的影响,而不是对技术本身进行微观管理,通过评估不同行为对应的风险水平,强制执行不同的行为期望,实现敏捷管理。

监管什么?

1 传统非法活动

人工智能可以为非法活动拓展范围和规模,在这一情况下,可以借鉴旧的监管工具来应对威胁。诈骗消费者和企业犯罪行为都在人工智能的“协助”下,达到前所未有的复杂程度。在人工智能的帮助下,电子诈骗从目标的选择到消息的创建和传递,整个过程都可以实现自动化。人工智能语音诈骗可以自动生成来自朋友或亲人的逼真信息,AI语音模型甚至能够与目标进行“对话”。

除了诈骗外,歧视是人工智能可能加剧的另一个问题。平等就业机会委员会(EEOC)警告说,使用人工智能模型“在雇佣工人、监控工人绩效和确定薪酬或晋升”时可能会产生歧视性结果,违反联邦法律。司法部也同样警告说,应用人工智能筛选和选择租赁申请会导致歧视。

2 应对持续的数字滥用

目前在网络上猖獗的数字滥用问题,诸如侵犯个人隐私、扩大非竞争性市场、操纵个人以及传播仇恨、谎言和错误信息等危害,可能会因为人工智能应用而加剧。为了处理这些问题,本报告认为首先要解决数字活动本身的基线后果。几十年来,占主导地位的数字公司收集个人信息,并将其作为公司资产以维持市场控制,利用市场主导地位来控制消费者接收的信息。

人工智能模型的运作,将进一步扩大占主导地位的人工智能公司加速这些滥用行为。据报道,GPT-4有3万亿个参数,这包括窃取在线服务用户所写、录像或说出的大量内容。Alphabet/Google、Meta/Facebook、Microsoft等平台公司被允许从事的侵犯隐私的做法造成了当今公认的问题。现在,随着这些公司进入人工智能领域,这些不受监管的做法构成了进一步隐私侵犯的基础。在人工智能环境中,使用数据来控制市场的潜力也得到了扩展。随着训练数据的扩展,人工智能模型将变得更加准确,处于人工智能服务领先地位的公司也是从收集用户信息中获利匪浅的公司。

3 处理人工智能本身

前两个小节可以被描述为人工智能的“已知”影响,人工智能也带来了一波“未知”的浪潮。面对这些未知的挑战,在讨论监管监督的实施之前,有必要确定监管参与的四个点:注意的义务、透明度、安全和责任。任何监督都始于公司履行“注意的义务”,即商品或服务的提供者有责任识别和减轻任何潜在的不良影响,而不履行这一义务可能引发包括监管在内的法律行动。

谁监管以及如何监管

1 监管的先发优势

当ChatGPT在其他AI模型中脱颖而出,它在市场上建立了先发优势。同样,在监管方面,率先出台的规章制度也具有先发优势。比如《欧盟2108通用数据保护条例(GDPR)》,已成为全球隐私政策的标准。欧盟似乎在制定人工智能政策方面也处于领先地位,6月14日,欧洲议会以压倒性多数通过了《人工智能法案》,此后欧盟委员会的监管机构将开始制定可执行的政策。

2 谁来监管

OpenAI的Sam Altman在5月16日的证词中赞同建立一个致力于AI监督的联邦机构的想法。Microsoft的布拉德·史密斯(Brad Smith)和Meta的马克·扎克伯格(Mark Zuckerberg)此前曾支持联邦数字监管机构的概念。5月16日听证会两天后,参议员迈克尔·贝内特(D-CO)和彼得·韦尔奇(D-VT)提出了创建数字平台委员会(DPC)的立法。该法案不仅创建了一个新的机构,有权监督包括人工智能在内的数字技术带来的挑战,而且还采用了一种基于风险的敏捷方法来制定该法规。美国国会面临的挑战是,在思考新机构及其运作时,要像数字革命的创新者一样富有创造力。

3 如何监管:许可

联邦政府长期以来,以颁布从事某些活动的许可证明作为监管方式。如联邦通信委员会(FCC)为无线电和电视广播、卫星通信和移动设备的无线电波频谱提供许可,并设置操作规则。但许可证作为一种监管监督的工具有其弊端,最重要的一点是许可证倾向于加强获得许可证的人的战略地位。许可证通过创造进入壁垒,使任何试图进入该行业的投资者增加成本,从而加强目前行业巨头的主导地位。

4 如何监管:基于风险的敏捷管理

数字时代不仅需要一个专注于人工智能的专家机构,还需要一个新的监督形式。这种监督必须侧重于减轻技术的影响,而不是对技术本身进行微观管理。这意味着监管理念从微观管理转变为基于风险的监管,并灵活实施,而这也是欧盟在发展人工智能监督时采取的方法。

实施这种监督,首先要认识到,由于数字技术的影响并不统一,对这些影响的监督不是“一刀切”的解决方案。为了实现这一目标,欧盟对人工智能进行了多层次的、基于效果的分析,认识到人工智能的许多不同用例伴随着应用、采用和固有风险的差异。根据对风险水平的评估,将强制执行不同的行为期望。

5如何监管:一个计划

数字管理系统的核心是技术标准。这些标准由受影响的公司设计,是一种确保标准随着技术变化而发展的机制。一个明显的例子是移动通信技术标准,从第一代技术(1G)到2G、3G、4G和现在的5G(正在进行6G标准化)的演变,表明标准如何与新技术和新的市场机会保持同步。问题是这些标准适用于公司面临的技术问题,但并不同时适用于技术应用导致的行为问题。

敏捷监督将采用类似于技术标准的流程来制定行为标准。本报告认为可以从以下步骤的角度考虑这种透明、响应迅速和敏捷的方法:

1.数字机构确定要解决的问题,并为标准设置过程制定时间表。

2.该机构就技术应用可能导致的行为问题提交详细报告,以及考虑补救措施。

3.对该机构任务的拟议回应将由一个多利益相关方专家组制定,该专家组代表来自各行业、民间社会和政府。

4.在指定的截止日期当天或之前,该小组将向代理机构提交相关的标准建议,以便批准和/或修改该项目。

5.一旦获得批准,新标准将成为机构可执行的政策。

6.行业-学术-民间社会咨询小组将跟踪政策结果并进行分析,确定新出现的问题,并再次开启上述流程。

发布时间|2023年6月

文章来源|布鲁金斯学会

原文标题|The three challenges of AI regulation

原文地址|https://www.brookings.edu/blog/techtank/2023/06/15/the-three-challenges-of-ai-regulation/(24页)

Last modified: 2023年 7月 25日
Close