美国人工智能倡议办公室(National Artificial Intelligence Initiative Office)于2022年5月25日提交关于国家人工智能研究资源(National Artificial Intelligence Research Resource)的中期研究报告。报告主要探讨了目前美国人工智能研究资源受到大型科技公司与顶尖大学的垄断,未能很好地惠及大众,由此形成了严重的资源鸿沟。该办公室随后提出诸多建议,希望能够让人工智能研究资源更为普及,同时兼顾安全与公平。

01摘要

人工智能正在改变我们的世界。该领域是一个创新引擎,已经在推动科学发现和经济增长,也是解决方案的组成部分,将影响从日常任务到社会层面的挑战。为了实现这一承诺,我们必须确保全国各地的每个人都有能力从事最前沿的人工智能研究。然而,目前人工智能前沿领域的进展往往与获取大量计算能力和数据有关。这种机会往往仅限于大型科技公司和资源丰富的大学。这种日益扩大的资源鸿沟有可能对我们的人工智能研究生态系统产生不利影响,并在此过程中威胁到我们国家培养丰富多样的人工智能社区与劳动力,并以此服务所有美国人的能力。

鉴于目前的形势,NAIRR工作组认为,协调行动至关重要。我们国家必须团结起来,扩大对推动人工智能的资源的获取,为更多美国人追求人工智能研究与开发提供途径,并获得最先进的资源。这些途径将扩大人工智能研究人员的范围,发展人工智能的应用多样性,并为所有科学领域和学科的进步开辟机会,包括审计和测试人工智能、评估人工智能的可信度、减少人工智能偏见、加强人工智能安全等关键领域。增加视角的透明度和多样性,才能为新想法的实现提供可能性,并为开发设计包容性的人工智能系统创造条件。

NAIRR工作组在这份中期报告中提出了相关愿景,重点是通过共享的研究网络基础设施,将研究人员与推动人工智能研发的资源和工具连接起来,以满足这一国家需求。该工作组提出了一条途径,分为:以现有的联邦投资为基础实现这一目标;强化在保护隐私、公民权利和公民自由方面的设计;促进多样性和公平获取。如果成功,NAIRR将通过加强美国基础的和转化型的人工智能研发并使之民主化,从而改变美国的国家人工智能研究生态系统。

本报告提供了工作组对NAIRR的总体设想,以及对NAIRR架构、资源、能力和用途的设计的一组初步发现和建议:
01
建立NAIRR的战略目标是,以保护隐私、公民权利和公民自由的方式,加强美国人工智能创新生态系统并使其民主化。

02
NAIRR需要一群代表人工智能利益相关者的联邦机构的共同努力。

03
NAIRR要求以用户友好的方式访问关键的资源元素,包括精心设计的数据集、计算能力、测试平台以及教育工具和服务。

04
NAIRR的日常运作需要一个独立的、非政府的实体和专门的专家人员。

05
用于访问NAIRR资源的资源分配流程必须为预期的用户范围提供可访问的入口,并尽可能保证轻量化与兼容性。

06

NAIRR必须确保研究、数据、资源和用户的安全,同时平衡提高人工智能研究参与率所需的可用性属性。07

NAIRR可以通过其治理流程的设计和实施,为负责任的人工智能研究制定标准。

02对NAIRR的展望

NAIRR被设想为一个大规模的、共享的网络基础设施,促进人工智能发现和创新,并为不同领域的研究人员和学生提供服务。它将通过提供支持数万用户的数据和计算能力,帮助民主化访问各种尖端计算资源。NAIRR将提供对数据集的访问,并汇总或编录人工智能相关工具、测试平台、环境和培训资源。NAIRR有机会利用和增强国家现有的网络基础设施,以推进各种人工智能相关学科的知识。

工作组对NAIRR的共同愿景解决了第1章中描述的美国人工智能研发生态系统的机会,符合2020年国家人工智能倡议法案中概述的目标和属性。本章对NAIRR的战略目标、一般组成和访问机制以及预期用户基础提出了建议。
01NAIRR的战略目标

    建议2-1:NAIRR的战略目标应该是以保护隐私、公民权利和公民自由的方式加强美国人工智能创新生态系统并使其民主化。

02NAIRR的建立和维护目标

    建议2-2:NAIRR应旨在帮助实现人工智能研发的四个主要目标:(1)刺激创新;(2)增加人才的多样性;(3)提高能力;(4)推进值得信赖的人工智能。

03NAIRR的组成

    建议2-3:NAIRR应被制定为一个由单一管理实体运行的联邦网络基础设施生态系统,具有治理和外部咨询机构。

04访问NAIRR

    建议2-4:NAIRR用户访问策略应遵循公平、公平和安全的原则。

    建议2-5:NAIRR管理实体应该致力于提供一个集成的访问门户,通过它所有的资源都是可用的。05NAIRR用户群

    建议2-6:NAIRR的设计应支持来自不同背景的研究人员和学生的需求,他们正在从事基础的、受使用启发的和转化型人工智能研究。

03建立并维持NAIRR

为了建立能够实现第2章中概述的目标的NAIRR,响应用户需求并具有高成功概率,必须参与适当的人员和组织。为了取得成功,NAIRR将需要资金、组织和运营管理、治理结构和监督机制。本章提供了这些方面的初步建议。

机构资金,角色和责任

建议3-1:应该为多个联邦机构提供资金,以合作支持NAIRR的资源和管理,从而服务于最广泛的研究社区和国家利益。

建议3-2:各赞助机构的代表应与NAIRR管理和行政部门合作,提供专业知识和监督。

建议3-3:联邦机构应通过NAIRR提供相关的网络基础设施资源。

建议3-4:国家资源研究所的日常运作应由一个独立的非政府实体管理,并配备专门的专家工作人员。

建议3-5:NAIRR应与资源提供者合作,通过NAIRR用户访问门户提供各种各样的资源。

建议3-6:NAIRR管理实体在与私营部门签订合同、建立伙伴关系或签订其他协议方面应具有灵活性,并有适当的政府监督。

建议3-7:NAIRR管理实体应明确负责解决与NAIRR支持的人工智能研发相关的多样性、公平性、包容性和可访问性问题。
管理和监督

建议3-8:NAIRR的管理和行政应受正式章程和相关政策的约束,并由行政领导团队管理日常运营。

建议3-9:NAIRR的治理政策和绩效应由理事会监督,并辅以外部建议、监督和评估机制。
资源分配与维持

建议3-10:获得NAIRR资源应以研究项目提案审查为条件,受明确的使用政策和用户协议的约束,并遵守开放共享研究成果的相关要求。

建议3-11:NAIRR资源分配流程应为预期用户范围提供可访问的入口,要尽可能轻量级,并尽可能兼容。

建议3-12:拨款费用应采用分层模式,有些资源是收费的,有些资源是免费提供的。

建议3-13:设计NAIRR资源分配框架时,应鼓励对NAIRR用户社区或公共利益的贡献。

建议3-14:NAIRR管理实体还应探讨激励数据和元数据贡献的机制,以帮助增加资源的价值。
NAIRR的性能指标

建议3-15:NAIRR评估方法,包括定义NAIRR成功的指标,应以既定的最佳实践为基础。

建议3-16:合格的外部评估人员应定期评估NAIRR的绩效。

建议3-17:NAIRR管理实体应捕获和记录数据,以支持资源评估,并应及时与公众共享这些数据。

建议3-18:NAIRR管理实体应为稳健的数据收集和评估活动预算充足的资金,并设计NAIRR流程,从一开始就捕获关键的分析措施。

建议3-19:NAIRR管理实体应建立一个可公开访问的平台,跟踪NAIRR支持的研究的使用和输出,以及外部评估的结果。

建议3-20:NAIRR章程应该建立机制,通过评估可以直接通知调整NAIRR的战略目标、业务职能和资源能力,以优化影响和满足不断变化的需求。

04NAIRR资源构成和能力

2020年国家人工智能计划法案指导NAIRR路线图和实施计划,包括发现和建议在“功能需要创建和维护一个共享的计算基础设施促进访问计算资源为全国各地的研究人员,包括可扩展性、安全的访问控制,驻地数据工程和管理专业知识,提供经过管理的数据集、计算资源、教育工具和服务,以及用户界面门户。”

本章介绍了工作组关于人工智能研发资源和需求的初步发现,以及关于NAIRR一旦建立,如何为人工智能研发社区提供一套集成资源的建议。它还描述了这些资源的理想属性,以及实现这些属性所需的一些必要功能。除了数据、计算和教育资源之外,NAIRR还有机会为基础的、受使用启发的和转化型人工智能研发提供测试平台和其他测试工具。

数据

建议4-1:NAIRR应该协调一个由可信数据、计算提供商和主机组成的网络,以建立一个健壮、透明和负责任的数据生态系统。

建议4-2:隐私应通过遵循安全使用的“五个安全”框架(安全的项目、安全的人、安全的数据、安全的设置和安全的输出)来保护。

建议4-3:NAIRR领导层应建立并定期更新政策和治理结构,以解决、衡量和报告数据质量、使用和公平获取。

建议4-4:NAIRR应通过采用最佳技术方法来建立治理政策,资助监督实体和评估,促进公众参与,提高透明度,并减少与NAIRR数据使用相关的偏见和潜在危害,从而保护公民自由和公民权利。

建议4-5:NAIRR生态系统应通过激励联邦系统为人工智能研发提供高质量数据,从而最大限度地利用社区访问。

建议4-6:NAIRR应在与NAIRR工作人员协商后,为提供商、托管机构或社区数据管理提供基础设施和长期工作人员支持,并激励社区驱动的标准的持续发展和相关领域确定的数据质量改进。

建议4-7:应投入大量资源建立关于NAIRR数据政策、使用和管理的培训计划,以最大限度地提高领域社区提供实质性贡献和促进最佳安全实践的能力。

建议4-8:NAIRR应该围绕可用于人工智能的数据建立一个价值生态系统,并支持数据搜索和发现。

建议4-9:如果决定在NAIRR中包含机密或敏感数据,对这些数据的访问应该分级,由数据提供者控制,并通过提供计算资源的同一门户提供。
政府数据集

建议4-10:NAIRR管理实体应探索通过NAIRR提供三种类型的政府数据:统计数据、行政数据和由联邦资助的研究产生的数据。

建议4-11:NAIRR管理实体应以现有的联邦数据共享努力为基础,利用其基础设施支持必要的控制和保护,为研究人员获取数据集以供批准使用提供便利。
计算资源

建议4-12:NAIRR应该为不同的利益相关方提供访问本地和商业计算资源的联合组合,包括传统服务器、计算集群、高性能计算和云计算。

建议4-13:用于NAIRR计算资源的软件应该跨越三个“级别”,以支持广泛的用户基础。

建议4-14:NAIRR不应容纳可能降低总体产能的生产应用程序,而应使支持人工智能研发的服务能够在适当情况下进行试点和规模化。

建议4-15:计算资源的部署应采用分阶段的方法,这样就不会在同一年内获得所有资源。

建议4-16:NAIRR应支持外部边缘计算资源的联合。
测试平台

建议4-17:NAIRR应促进人工智能研发试验台的获取。

建议4-18:NAIRR应优先考虑使用比较试验台,以加速人工智能研究,并包括支持开卷建模、闭卷建模和模拟感知-决策-行动比较试验台的基础设施。

建议4-19:NAIRR工作人员应确保所有人工智能比较试验台,包括真实世界的测试、比赛和生活实验室,都被编目,并使尽可能广泛的群体可以使用。
用户界面

建议4-20:为了帮助实现其愿景,NAIRR必须提供对综合服务、资源、数据和培训材料的安全和用户友好的访问。

建议4-21:NAIRR应该利用现有最先进方法中的用户门户概念。

建议4-22:NAIRR应尽可能采用标准(包括事实标准)和最佳的开源解决方案,以确保一个充满活力、不断增长的人工智能生态系统。

建议4-23:应将适合不同技能水平和社区建设特点的技术支持和培训材料集成到NAIRR用户门户网站中。
教育工具及服务

建议4-24:NAIRR应促进人工智能和NAIRR相关的适合不同技能水平的教育和培训材料的识别、管理和编目。

建议4-25:NAIRR应促进相关教育活动,但不应开发新内容。

建议4-26:NAIRR管理实体应该提供几个级别的用户支持,包括帮助台和解决方案咨询,并鼓励基于社区的支持。

03系统安全和用户访问控制

随着新的行动者、攻击方法和漏洞的出现,网络安全威胁状况正在迅速变化和适应。人工智能模型本身呈现了新型的安全漏洞,例如旨在欺骗人工智能系统的对抗性例子,以及旨在提取潜在敏感数据用于训练人工智能模型的模型反演攻击。人工智能研究作为经济增长和国家安全的一项资产,是一个高价值的目标。

网络安全的威胁表面已经超出了技术利用,延伸到了人的因素。创建一种有用的安全和培训的文化是减少可能导致妥协的人为错误的关键。就像便利可能与安全冲突一样,促进开放的研究环境也需要在提供对高价值信息和资源的安全访问和保护知识产权之间进行权衡。不仅安全漏洞状况在迅速变化,网络安全解决方案和政策环境也在变化。

NAIRR必须确保研究、数据、资源和用户的安全,以提供一个有效和可信的研究环境。工作组考虑了如何最好地实现一个可用、安全、值得信赖的NAIRR;以下是初步建议。

建议5-1:

在2年的过渡期内使用FedRAMP标准(而不是FedRAMP批准),同时制定与适用法律法规相一致的NAIRR特定批准流程(例如,当NAIRR有助于获取政府数据时)。

建议5-2:

NAIRR应使用零信任架构和五大安全框架(安全项目、安全人员、安全设置、安全数据和安全出口)实施系统保障措施。

建议5-3:

如果NAIRR包含机密或敏感数据,NAIRR管理实体应实现分层访问模型,以满足异构安全需求。

建议5-4:

为NAIRR工作人员和用户提供定期和持续的实际操作培训。

建议5-5:

应将定期的系统监控和更新以及相关的安全控制作为NAIRR管理、治理和管理活动的一部分。

建议5-6:

为适应不断变化的需求,NAIRR应拥有专门的技术安全人员专家,他们应能够跟上不断变化的需求,获得足够的薪酬,并由NAIRR管理实体直接聘用。

04隐私权、公民权利和公民自由

最近人工智能偏见的例子在人工智能和人工智能应用程序的使用加剧不平等或影响人权的方式提高了公众意识的个人数据是如何被收集,和人工智能是如何被用来通知和个性化日常生活的主要方面包括招聘、金融服务和数字通信。此外,作为NAIRR RFI的一部分提交的回复还表明,与人工智能使用相关的关键利益领域包括隐私和公民自由、安全和人工智能研发的监督。NAIRR必须谨慎地解决隐私、公民权利和公民自由的适当保障问题,同时培养对知识的好奇心,这可以为我们国家的长期竞争力带来好处。

为了赢得和维护公众信任,可能影响隐私、公民权利或公民自由的领域的研究需要以符合公民社会期望和保护受试者权利的方式进行审查、批准和执行。公众和公民社会团体可能希望了解使用NAIRR开发的人工智能在何时何地被使用,并确保由NAIRR用户开发的模型正在指导公平和公平的决策。美国国家科学院、工程院和医学院目前正在进行的一项研究将有助于为未来关于这个话题的讨论提供信息。

工作组利用了RFI的回应、工作组会议的小组讨论以及与专家的额外对话,以了解在NAIRR的设计、实施和运行中与确保隐私、公民权利和公民自由相关的问题、要求和潜在解决方案。研究结果和建议,遵循反映主题和原则,并描述当前人工智能方面的研发景观NAIRR可以改进提供一个研究环境,集成了隐私,公民权利和公民自由方面的考虑在所有分人工智能研究连续介质。

建议6-1:

透明度、对不同用户的访问和监督应推动NAIRR努力保护隐私、公民权利和公民自由。

建议6-2:

NAIRR应建立道德审查程序,以审查系统中包括的所有资源以及在该系统中进行的研究。

建议6-3:

NAIRR用户应被要求在获得NAIRR权限之前完成培训模块,该培训应每年更新一次。

建议6-4:

应分配NAIRR资源专门用于支持人工智能可信度的研究,并应制定处理有缺陷的模型和信息的最佳实践。

工作组的下一步工作

本临时报告中提出的初步调查结果和建议概述了国家灾害应急机制工作组目前对国家灾害应急机制的设想。中期报告的目标是为NAIRR及其关键组成部分制定这一愿景,而不是深入探讨设想的NAIRR将如何实施的细节。中期报告之后,将于2022年12月提交最终报告,为实现这一愿景提供更详细的路线图和实施计划。

今后,工作组将完善其关于NAIRR设计的调查结果和建议,并审议剩余的未决问题。在此过程中,工作组将制定与建立NAIRR所需的具体步骤相关的建议,并实现工作组对NAIRR的战略愿景:以保护隐私、公民权利和公民自由的方式加强和民主化美国人工智能创新生态系统。

文章来源|NAIO官网

译者|吴宇昂

原文链接:https://www.ai.gov/wp-content/uploads/2022/05/NAIRR-TF-Interim-Report-2022.pdf

Last modified: 2022年 9月 6日
Close