原创 智能society

图片

图片

内容摘要:本文调查了对AI风险可能的广泛反应,并讨论了更灵活、适应性强和自下而上的治理方法往往更适合解决快速演变的算法问题。各种组织已经在努力通过复杂的最佳实践框架、算法审计和影响评估工作使AI伦理过程专业化。这些分散的“软法”治理工作在许多方面都建立在现有的硬法之上。政府也必须发挥其应有的作用,以决策者的身份解决问题。美国国家电信和信息管理局 (NTIA) 和美国国家标准与技术研究院 (NIST) 已经在这方面做了重要的工作。政府行为者还可以促进数字扫盲工作和技术意识建设,这有助于减轻公众对新兴算法和机器人技术的恐惧。

1. 分权治理和软法律:概念和特点

新治理方法的试金石往往包括“灵活性、敏捷性、适应性、实验性和权力下放”。这些新方法的众多名称中的一部分,包括适应性监管、基于结果的监管和沙盒。其他人则使用共同监管、灵活监管、政策原型和企业管理等术语。这些概念之间存在细微差别,但它们都共享同种技术治理方法,该方法由许多不同的元素和可能的解决方案组成。

软法被定义为设定实质性期望但不能由政府直接执行的程序。由于软法不受地理管辖权的约束,任何实体都可以制定、修改和采用,因此在可预见的未来,它将成为AI治理的主要形式。无论是出于选择还是必要,软法在一段时间内都将继续在AI治理中发挥核心作用。

软法有一些明显的优势,使其更适合AI等快速发展的技术。它可以更迅速、更灵活地适应新的情况,使其具有应对复杂的技术治理挑战所需的敏捷性水平。此外,“与监管当局采取的硬性监管不同,硬性监管在法律上仅限于特定的地理管辖范围,而软法措施没有类似的限制,因此往往在本质上是国际性的”。

最后,软法机制可以在制定其他更正式的硬法政策时填补空白,并可以帮助政策制定者确定在解决AI等新兴技术的具体问题时采用哪些硬最有效。

2 .软法律方法和当前应用

软法律方法通常是针对不断变化的具体问题和风险而制定的,因此这些努力所产生的治理建议可能是相当详细和具体的。许多软法律工作中推荐的一个常见的最佳做法是设计适当的数据收集和存储程序。

虽然有些人认为软法的非正式性和无定形的性质是一个弱点,但这也是它的主要优势。软法特别适合于解决像AI这样快速发展的技术的治理问题,”人们越来越一致地认为传统的政府监管不足以监督新兴技术”,因为硬法机制要么无法跟上技术发展的步伐,要么就是太不灵活,无法适应新的现实。

3. AI道德准则和最佳实践框架的增长

许多AI初创公司都意识到了潜在的伦理问题,而且许多人正在采取措施主动解决。然而,还需要做出更多努力以确保其他AI供应商采用道德准则和最佳做法,特别是在要求正式监管的呼声越来越高的情况下。

在更广泛的基础上扩大道德原则的最大希望在于专业组织和标准机构所做的重要工作,如计算机协会(ACM)、电气和电子工程师协会(IEEE)、国际标准化组织(ISO)和UL(以前称为保险商实验室)。这些组织作为独立的标准创建机构,通过设计通过软法律程序建立的准则和最佳做法,帮助对创新者进行问责。ISO、IEEE和ACM的工作值得更多关注,因为这三个组织已经努力为AI和ML的发展创建详细的国际标准。这些组织在专业领域拥有巨大的影响力,大多数主要技术公司的员工都是它们的某种成员,或者至少与它们密切合作。

4. AI伦理的嵌入在实践中的运作及改进

要使行为准则、自愿标准和职业道德规范产生持久影响,还需采取其他方法。AI软法发展的第一阶段是前瞻性的,侧重于由软法学者、政府官员、行业专业人士和其他各种利益相关者团体制定价值观和最佳做法。目前和未来几年,重点将越来越多地转移到这些价值观和最佳做法的实施和执行上。在思考如何改进ML技术和开发更复杂的AI系统时,AI专家越来越多地谈论“转移学习”的重要性。转移学习即 “通过转移已经学习过的相关任务的知识来提高新任务中的学习效果”。通过转移学习技术,算法被训练为参考和学习相关的数据集和过程,以便在不同的领域取得卓越成果。

“迭代放大”是另一种思考如何随着时间的推移改进AI系统的方法。当我们把迭代放大作为一种治理策略时,总的目标就是上面反复强调的那个目标:把重要的价值观植入AI的发展中,并让人类在这个过程中不断完善和改进调整过程,直到它变得更安全和更有用。总的来说,迁移学习和迭代放大本质上是边做边学的形式。将AI安全或算法伦理视为具有单一解决方案或最终目的地的静态现象是错误的,不断的、意想不到的变化才是新常态。

6 .算法审计和人工智能影响评估的内涵和外延

人工智能伦理的专业化可以通过算法审计和人工智能影响评估进一步正规化。人工智能审计和影响评估将要求开发或部署算法系统的人进行审查,以评估这些系统与各种道德价值观或其他承诺的一致性。这些评估可以在系统启动之前或之后进行,或者同时进行。政府、私营公司和任何其他开发或部署算法系统的机构可以采用这种审计或评估。

然而,这里的重点将是如何利用审计或评估来解决人工智能和ML的私营部门用途,这些用途引起了对隐私、安全、安保或偏见的担忧。目前许多学术界关于算法审计制度的建议都认为这必须是一个正式的监管认证过程,以其他现有的监管制度为模式。美国的政策制定者已经在提出法案,要求进行算法审计和影响评估。其中《2022年算法责任法案》建议开发者进行影响评估并向联邦贸易委员会提交。该法案在联邦贸易委员会内部设立了一个新的技术局来监督这一过程。

这类任务的管理范畴还有待观察。如果通过严格的监管制度来执行,遵守算法审计任务可能会成为一个耗时的、复杂的、官僚化的过程,可能会大大减缓人工智能的发展速度。

7 .事后硬法如何补充软法

围绕人工智能治理的许多文献忽略了许多现有的事后法律机制,这些机制可以补充各种人工智能软法治理方法。这可能是因为许多倡导更多预防性监管制度的人坚持认为,事前预测性监管必须是人工智能治理工作的核心。虽然一些事前的限制最终可能变得更加必要,但更明智的做法是利用已经存在的其他法律和监管补救措施。新的道德框架和软法治理机制可以建立在这些现有的法律解决方案和补救措施之上。这样一来,软法就得到了硬法的支持。

发布时间|2023年4月

文章来源|布鲁金斯学会

原文标题|Flexible, Pro-Innovation Governance Strategies for Artificial Intelligence

原文地址|https://www.rstreet.org/research/flexible-pro-innovation-governance-strategies-for-artificial-intelligence/(40页)

Last modified: 2023年 7月 4日
Close