内容摘要:本报告为欧盟AI法案中“通用人工智能”(GPAI)的监管提供了政策指导。由于大型语言模型、图像生成器和其他生成式AI技术的发布,防范与解决随之而来的安全隐患迫在眉睫。为此,报告强调了五个考虑因素来指导对GPAI的监管。GPAI的监管政策必须具有前瞻性和普适性,在未来可以适用于包括但不仅限于聊天机器人或大型语言模型的一系列人工智能产品。政策要注意GPAI存在内在固有风险会蔓延到应用层,因此需要对产品全周期进行监管,避免部分大企业逃避责任。欧盟在制定GPAI监管方案时可以广泛征求社会意见

引言

欧盟委员会于2021年4月提出的《人工智能法案(AI Act)》,实际上免除了通用人工智能(GPAI)的开发者遵守法律中一系列规定和其他问责要求的义务。欧洲理事会随后进行的三方会谈的“一般方针”采取了不同的立场,其中原始GPAI提供商将受到法律中某些要求的约束。最近的报道表明,欧洲议会也在考虑针对原始GPAI提供商的特定义务。

如何理解和分类GPAI?GPAI模型存在哪些固有风险?这些风险与基于特定用途产生的下游产业链的危害之间有什么关系?GPAI模型是否以及在哪个阶段需要监护、监督和审查?

基于这些问题,我们提出了五个关键的考虑因素,以指导GPAI的监管:

1.GPAI是一个广泛的类别;

2.GPAI模型具有内在风险,并已造成了广泛的伤害‘

3.考虑到涉及各方利益相关者,GPAI必须在产品周期的各个阶段进行监管,而不仅仅是在应用层;

4.GPAI的开发者不应该通过一个标准的法律免责声明以逃避责任;

5.监管应该避免对GPAI采用狭隘的评估和审查方法。

GPAI是一个广泛的领域

欧盟理事会在三方会谈协商一般方法中使用的对GPAI的定义十分宽泛,目前的定义是:GPAI具有一般适用性功能,如图像和语音识别、音频和视频生成、模式检测、问答、翻译等,一个通用AI系统可以在多种情境中使用,并且可以集成到多种其他AI系统中。

这个广泛的定义可以避免一些易犯的错误。首先,一个合适的GPAI定义应该包括许多方法(“任务”),其他AI系统可以基于这些方法构建:这应该包括计算机视觉(例如面部分析和识别、对象定位和识别、场景分割)、文本处理(例如机器翻译、文档摘要)、自动语音识别以及多模态分析(从文本提示生成图像、反向图像搜索)等技术。

其次,将GPAI的定义仅限于新颖的图像和文本生成AI系统,如OpenAI的DALL-E和GPT模型,也存在进一步的风险。将GPAI的定义限定在这些系统上,将忽略一大类可能在不受检查的情况下造成重大负面后果的模型。为了使GPAI的定义尽可能地中立,重点应该不是放在支撑这个领域最新创新的特定技术上,而是放在任何足够灵活以适应AI法案意义上的各种不同(“高风险”)用途的AI模型上。

GPAI模型具有内在风险且已造成广泛的负面影响

在考虑GPAI的监管方法时,我们应该考虑当前的AI技术的状况及其用途和功能。目前,一部分通用AI模型可以作为许多其他当前概念化和想象中的任务的基础,对它们进行“微调”。尽管这些不同任务的下游危害的风险似乎是不同的,但有例子表明,风险是固有存在于作为下游工作基础的GPAI模型中的。

同时,这样的GPAI模型可以针对特定用途和任务进行微调,只会增加产生不公平、不准确或意料之外的危害的风险。GPAI模型对一系列任务的广泛适用性最初似乎降低了支持特定任务技术的GPAI模型的风险,但它们无论用于何种特定用途,都会对私人个体带来许多相同的风险。

考虑到各方利益相关者,GPAI必须在整个产品周期内接受监管,而不仅在应用层

为了有效监管,通用人工智能系统必须在整个产品周期内都受到监管,而不仅仅是在它们被实施到特定目的和场景的应用层时。这包括数据收集、清洗和标注,以及模型开发、测试和评估。GPAI 生命周期中有巨大的监管空白,企业将有强烈动机利用这一空白。这些监管空白包括:AI系统的实施和最终工具化是监管干预的重要点,但仅关注 GPAI 系统在应用层的使用方式而忽略了AI 开发的关键方面。;如果不在开发层进行监管,AI 供应链的当前结构实际上使得这些模型的开发者能够从下游远端应用中获利,同时逃避任何相应的责任;在实施后,许多 GPAI 系统仍然保留着与原始开发者相关的结构依赖性,并且会有预实施阶段与这些结构依赖性相关的风险;忽视监管将激励AI开发者专注于发布可逃避监管审查的“白标签”GPAI系统,造成重大的责任漏洞。

任何允许GPAI开发者使用标准法律免责声明逃避责任的监管方法都是错误的

GPAI的原始开发者可以通过这种方法(通常是资源充足的大公司)将全部责任推卸给资源、渠道和能力都不足的下游行为者,以减轻风险。理事会的一般方法,虽然包括了针对 GPAI 原始开发者的专门义务,但也有一个例外,即只要 GPAI 开发者在使用说明或附随信息中“明确排除了所有高风险用途”,并且没有“充分理由认为系统有被滥用的可能”,就可以摆脱责任。这种方法是不可取的,原因如下:

法律免责声明,为大型开发者提供了一个有利的漏洞,削弱了调查原始开发阶段的动力。隐私的“通知和同意”模式在使用格式化语言来强制执行问责制存在风险。

预训练的 GPAI 模型携带着一些内在风险,这些风险源于初步阶段做出的数据和设计选择(见第2点和第3点)。这表明,无论最终使用环境或用途是什么,GPAI 开发者在发布之前都应该履行某些尽职调查要求。

法律免责声明的方法将有效地将所有责任转嫁给下游行为者,他们缺乏足够的资源、渠道和能力来审查和减轻 GPAI 系统带来的风险。

监管应该避免对GPAI采用狭隘的评估和审查方法

监管应为原始开发者阶段的广泛且强有力的审查留出充分的空间:标准化的文档实践和其他评估GPAI模型(特别是生成式AI模型)可能造成的多种危害是一个活跃的研究领域。这些实践对于确保AI规则的有效执行是必要的,如果没有这样的文档实践,监管者在评估这样的系统时基本上无从下手。

监管不应支持狭隘的评估基准:不同的GPAI系统在评估基准方面有不同的成熟程度。这些基准通常围绕评估数据集的性能指标,如准确性等。然而,这种方法存在多个问题。第一,有更成熟的基准的某些类别的 GPAI(例如人脸识别),虽然在整个评估数据集上的准确性可能很高,但对于种族和性别少数群体的表现可能要差得多。第二,对于非常新型的 GPAI,几乎没有公认的评估策略和指标。最后,基准测试过程可能不适合减轻GPAI的风险。

发布时间|2023年4月

文章来源|AINOW Institute

原文标题|Five considerations to guide the regulation of “General Purpose AI” in the EU’s AI Act: Policy guidance from a group of international AI experts

原文地址|https://ainowinstitute.org/wp-content/uploads/2023/04/GPAI-Policy-Brief.pdf(12页)

Last modified: 2023年 5月 25日
Close