编者按
人工智能技术的发展对国际关系尤其是国际安全会产生什么样的影响?本文认为,人工智能军事应用的持续发展无法动摇人类在战争中至关重要的地位,还会更加强化人的重要性。以“狭义人工智能”即机器学习为研究对象,本文主要聚焦于这一技术在军事决策领域的应用和影响。作者将决策分解成数据、判断、预测、行动四个环节,描述了人工智能支持下的决策过程,指出人工智能技术降低了预测的成本,凸显了数据和判断环节的重要性。除了肯定了人工智能在支持预测方面的优势,本文的亮点是关注了人工智能运用的必要背景条件——影响决策数据和判断的战略环境和制度因素。结合一系列商业和军事应用案例,作者综合了数据和判断两个因素对人工智能效用的影响,归纳了人工智能军事运用的四种决策类型。最后,作者指出人工智能的应用将加剧敌对双方在数据和判断上的冲突竞争,进一步凸显人在军事决策和战争中的重要作用,而不是导致机器人战争和军事力量的决定性转变。
PS:顶刊译评由政治学评介外文编译团队义务提供,团队坚持分享、翻译学界研究成果,旨在方便大家了解更多的学术资讯,为促进国内政治学特别是比较政治学的发展略尽绵薄之力。如有任何意见和建议请多多批判指正,期待您在后台给我们公众号留言,或添加政治学评介的官方编辑部微信-政评君(Z-Pjun)。我们也诚邀志同道合的学友加入我们,共同领略政治学的风采,为学术公益贡献力量。
# 作者介绍 #

Avi Goldfarb,多伦多大学;

Jon R. Lindsay,佐治亚理工学院;
# 文章来源 #
Avi Goldfarb, Jon R. Lindsay; Prediction and Judgment: Why Artificial Intelligence Increases the Importance of Humans in War. International Security 2022; 46 (3): 7–50.
# 期刊介绍 #
International Security(国际安全),简称IS,2020年影响因子为7.486,2019年影响因子在所有国际关系期刊中排名第一。文章内容导读
一、引言
人工智能(Artificial Intelligence, AI)将改变国际政治这一观点逐渐成为一种政策共识。正如美国人工智能国家安全委员会2021年最终报告所述,“机器具有比人类更快更准确的感知、评估和行动的能力,在任何民用及军事领域都是一种竞争优势,人工智能技术将成为企业和国家巨大的力量来源。”然而,人工智能的基本概念尚不明确,使得人工智能的安全影响尚难以评估。在本文中,作者主要论述的是“狭义的人工智能”,即机器学习,这项被广泛使用的关键人工智能技术在新闻、管理和经济学研究中广受关注。
“人工智能将改变每一个行业”,但其对不同领域的不同使用者所产生的影响程度是不同的。就其在决策支持方面的影响力来说,人工智能并不是人工决策的简单替代品。诚然,机器学习的快速发展提高了人类的统计预测能力,但决策不仅包括预测这一个环节,还包括数据和判断这两个重要的要素,与预测环节形成互补。一方面,高质量的数据将为人工智能的预测模型提供大量的有用信息;另一方面,数据驱动的机器预测可以有效地提供优化给定效用函数所需的信息,但人类的判断才起决定性的作用。人类的判断将决定什么样的模式和结果在哪种情形、和对谁是有意义或问题的。而当人工智能能够获取到高质量的数据、使用这项技术的组织能作出明确的判断时,人工智能就能优化他们的决策。
本文主要关注商业决策和军事决策中的人工智能应用,并侧重于对其军事应用的探讨。文章认为,如果人工智能可以降低军事组织的预测成本,数据和判断的价值也将得到更多重视。这一论点包括两方面重要内涵。第一,人工智能在商业领域获得成功的两个条件——高质量的数据和明确的判断,在军事领域不一定能够发挥作用。在军事领域,判断受到指挥意图、交战规则、行政管理和道德领导等无法自动化处理的因素影响,因此人工智能的军事应用并不能削弱人类在军事中的重要性。第二,数据和判断的重要性提高,将加剧战略竞争对手在这两个领域的冲突竞争,增加协调的困难,这种冲突与人们想象中的人工智能战争或机器战争不同,将会具有环境不确定性、组织摩擦和政治争议的三个特点。
最近关于人工智能和国际安全的学术研究主要聚焦于以机器取代人类士兵的政治和道德后果,就自动化决策的前景提出了一系列问题。但技术并不是军队的简单替代品,人工智能也不能简单取代人工决策,其使用还受到组织机构、能力和理论的影响,取决于其所处的组织和战略环境。本文质疑了有关人工智能替代性的观点,探究了人工智能互补性的含义,并分析了人工智能的战略影响。为此,本文的论述包括五个部分。文章的第一部分介绍了其分析框架,描述了人工智能支持下的决策过程,解释了人工智能的两个补充性要素——数据和判断,是如何影响决策中的人机分工的;第二部分分析了战略条件和制度条件分别对数据质量和判断难度的影响,这些条件在商业领域和军事领域中具有不同的特征;第三部分将数据质量与判断难度两个因素相结合,归纳了人工智能军事运用的四种决策类型,并通过一系列案例加以说明;第四部分则讨论了数据和判断重要性的提高将产生的战略影响;最后一部分对全文进行了总结。
二、决策的政治背景和技术背景
商业组织和军事组织在很多方面都很相似,但它们的运作环境却截然不同。在图1中,作者将决策的经济模型纳入国际关系框架中,以分析这两个领域在人工智能运用的异同点。决策能够影响其所处的政治背景和技术条件,但同时也受这些因素的影响:决策数据和判断的质量分别受政治背景中的战略环境和组织制度的影响,预测的成本也受到机器学习技术发展的影响。
(一)决策过程
60多年前,赫伯特·西蒙(Herbert Simon)的经济决策理论认为“现实生活中的决策涉及目标或价值观、关于所处环境的事实,以及由这些目标和事实得出的一些推论”,本文将这三个要素归纳为判断、数据和预测,由这三方面共同作用的行动能够导向一定的经济或政治结果,又将产生更多的反馈数据,支持进一步的预测和决策或对判断的重新解释,类似于军事理论中所谓的“包以德循环”(OODA循环)。抽象的决策模型无法解释决策的实施,但实施正是人工智能的关键所在。图1描述了数据、判断、预测和行动共同影响决策中的人机分工协作的过程,即军事组织将由特定政治环境所决定的具体数据和判断与由机器学习支持的预测相结合,最终做出决策。

(二)政治背景:战略环境、组织制度及偏好
决策的政治背景包括两个方面。其一,“战略环境”(strategic environment)指的是军事组织所面临的一系列外部问题。要实现其军事目标,军事组织需要把握国际和国内形势的多方面信息,据此来分析它所面临的威胁和机会、拥有的资源和存在的不足等条件。这些与战略环境有关的信息就是军事决策所需的数据,数据质量受到战略环境的动态变化的影响。其二,“制度及偏好”(institutions & preferences)指的是军事组织解决其战略问题的方式,主要涉及一些可能影响军事组织的目标、价值观或其针对特定情况之解释方式的国内政治问题,这些制度因素不仅能够反映组织的偏好,更能反过来影响决策判断的质量。
此外,人工智能的军事决策应用还将逐渐和决策的战略环境和制度偏好相互影响。而随着数据和判断重要性的提高,战略竞争各方将更加重视其数据和判断的质量,围绕信息而展开的竞争冲突将会更加突出,组织协调也将更加困难。
(三)技术背景:机器学习与预测
进入21世纪以来,机器学习这一分支领域快速发展,人们对人工智能的兴趣再次兴起。不同于强调演绎的定理证明和搜索优化的“有效老式人工智能”(Gd Old-Fashioned Artificial Intelligence,GOFAI),机器学习是一种统计预测,即一种利用现有数据归纳生成缺失信息的过程。机器可以将图像识别、导航等人类的预测任务自动化,还可以增加预测的数量、提高预测的速度、复杂性和准确性,有可能将改变人类的工作。在机器学习降低预测成本的同时,组织也在不断创新,通过提高数据和判断的质量来做出更好的决策。
预测通常是指通过归纳一组训练数据,来进行数据分类或新数据合成的过程。21世纪初,随着信息存储等一系列技术的改进,机器学习在商业的运用愈加明晰,谷歌、亚马逊、脸书等公司从消费者行为中获取“大数据”,并将其与机器预测相结合,实现了广告和数字服务的精准投放。与此同时,间谍和监视活动达到了前所未有的规模。从经济角度来看,现代人工智能是一种速度更快、成本更低的统计预测方式,但它对决策的总体影响还是不确定的。基于这项技术,军事以及其他各领域的组织在未来都能作出更多的预测,但这并不一定意味着能作出更好的决策。
(四)人机分工与协作
在分析或使用人工智能时,我们的分析单元是决策任务,即产生特定结果的决策数据、预测、判断和行动的集合,因此必须考虑服务于特定目标的特定任务。大多数组织执行着战略、管理、营销等许多不同但相互关联的任务,每一项任务都能直接或间接地支持该组织的总体任务。而在任何一个给定任务中,人工智能的实际作用都受到数据质量和判断难度的约束。这两个补充要素为自动化决策提供了必要的背景条件,数据质量的高或低、判断的清晰或模糊,决定了人类和机器在决策中的相对优势。其中,数据质量高指的是相关信息丰富、不存在系统性偏差,判断明确则指的是目标清晰,且受利益相关者一致认可。表1总结了数据和判断的不同情况对人工智能效能的影响。相比之下,机器预测这个替代要素则不是决定性的。只能决定自动化的技术潜力,即降低预测或行动的成本。

三、人工智能的商业应用与军事应用
关于民用人工智能的大量实证研究表明,人工智能在决策方面的运用依赖于高质量的数据和清晰的判断。由于决策活动具有普遍性,这个结论在也将一定程度上适用于军事领域的决策。但本文认为,军事决策与商业决策具有不同的特性,将人工智能商业应用的结论简单地推广到军事领域是不恰当的。
一方面,二者所处的决策背景不同、可获取的数据条件不一样:商业活动通常具有制度化的市场环境,这样的制度环境能够保证交易的持续与高效,能够为自动化决策所必须的高质量的数据和清晰的判断提供必要的支撑;军事活动所面临的国际体系环境则具有无政府性,缺乏具有约束性的国际机构,使得行为体的活动与互动充满了不确定性,无法为人工智能的使用提供高质量的数据和清晰的判断。或许一个强大的国内军事组织机构的存在能够减轻国际机构缺失给军事任务带来的不确定性,但其效用在固有的国际无政府大背景下仍然是有限的,军事决策自动化的可行性仍然受制于其决策数据和判断所处的复杂特定环境。
另一方面,二者所执行的任务和目标不同。商业活动往往持续进行,以获得利润、实现股东价值等为目标,交易各方可能存在共同的期待和利益;而在军事领域,战争属于罕见事件,国家发动战争的动机常常是有争议的,其任务目标主要是更难以定义的,例如,取得胜利、维持安全等,并在一定程度上具有零和性。
(一)数据与战略环境
商业人工智能系统要生成高质量的预测往往需要大量实例,这种对大量具有相关性的数据及详细的元数据的需求是众所周知的,但人们的重视仍然不够。数据相关性不足可能是由于两种情况:一是数据存在偏差,二是针对特定情况的数据不存在。其中后一种情况更常见,即这种特定情况从未出现过,组织从未以某种方式行事,所需数据就无法获取,有关的统计预测也将无法进行。竞争一方想要降低对方预测的可靠性,就可以从数据方面下手。一方面,它可以设法访问并操纵对方用于设定人工智能系统的数据,制造数据偏差或阻断数据的供应,降低数据的相关性;另一方面,它可以进行战术创新,创造一种在机器学习数据中没有先例的情况,“超越(对方的)训练数据集”,使得对方的人工智能无法有针对性地提供解决方案。
卡尔·冯·克劳塞维茨(Carlvon Clausewitz)在《战争论》中写道:“战争中充满不确定性,战争中四分之三的行动都或多或少处在不确定的迷雾当中。”他用“阻力”(Friction)这一概念来描述战争中积累起来的困难,并指出“没有经历过战争的人对这种阻力是不会有正确的概念的”。战争中的不确定性来源包括天气、地形、情报等,但除了这些,计算机故障和配置等方面的困难也会制造“迷雾”。为了应对这些信息技术上的巨大阻力,军事组织往往会组织大量黑客活动来对系统进行维护和重塑,但这些管控风险的干预又会引发与责任和安全等有关的问题,从而产生更多的阻力。换句话说,旨在“驱散战争迷雾”的人工智能系统很容易将迷雾“转移”到其组织内部,加剧组织内的困难和阻力。
除了作为宏观战略环境的战争充满了不确定性,数据的质量还会受到战略环境的微观结构的影响,评估数据的特定战略背景也至关重要。例如,作者认为有关友军的数据更加可靠,后勤和行政报告比容易受敌人影响的作战报告更可靠;关于敌人部署和能力的情报比较不可靠,但其中关于对方武器系统的位置和能力等方面的情报,可能比与对方的意图和决心有关的情报更可靠;敌人的欺骗和传播虚假信息等行动也会降低数据的质量;依靠技术系统产生的数据与需要大量解释的人类情报报告相比,往往结构更好、数量更大。
(二)判断与军事组织制度偏好
即使有足够的相关数据,人工智能系统还是由人来决定的。在技术上,机器学习的三种算法——监督学习(supervised learning)、无监督学习(unsupervised learning)、强化学习(reinforcement learning),它们的预测对象、标注类别及奖励强化机制都需要依赖于人类的判断。在商业领域,企业的商业模式、价值观和谈判目标等需要依赖于企业的判断;而在军事领域,由于战争本身具有严重的后果,军事组织的判断还受到国家利益、政治偏好、指挥官意图、交战规则和道德等因素的影响,这就使得这个组织的判断和决定更加困难也更加关键。
从经济学的角度来讲,判断是效用函数的具体化,而效用是由主体的偏好和评价来决定的,与追求实现效用最大化的理性策略不同。例如,人们是否会携带雨伞出门,不完全取决于天气预报的预测,还受人们的偏好,即带伞的意愿与对被淋湿的接受程度的影响。类似的例子还有臭名昭著的“电车问题”,一辆自动驾驶汽车在面临着两种选择时应该如何进行判断和反应:一是撞倒四名儿童,二是转向而导致车内颇有成就的乘客死亡。选择一基于生命平等原则,选择二则考虑人的生命价值,使得人工智能在涉及生命的问题上面临着伦理困境。这些例子都凸显了判断所具有的不可低估的复杂性,人工智能预先设定的判断并不一定能很好地适应特定的具体情形,从而作出恰当的反应并获得有益的结果。
一个成熟的人工智能设定有两个特点,也是作出明确判断的两个要求。第一个要求是其目标是事先明确的。如果这一系统的设计者无法对所有可能情况指定好收益和优先次序,就需要对每种可能的预测都进行判断,但这需要太多时间,因此无法事先进行判断,只能在看到预测后再就复杂的具体情况的细节进行判断。这实际上是一种不完全契约问题,在军事领域也存在:虽然军事行动的目标、交战规则、操作程序常常是确定的,但在充满了不确定性的战争中,不可预测、无法事先判断的风险也很可能出现,授予前线指挥官自由裁量权、让他们根据具体的形势自行进行判断并调整行动,是非常必要的。用克劳塞维茨的话来说,要应对战场上的“迷雾”和组织中的“阻力”,就必须充分发挥指挥官的“天赋”即判断力,这在多域、多兵种联合作战的现代战争中也尤为重要。因此,现代军事行动倾向于通过赋予指挥官以一定的自由解释权和行动权,兼顾军队预先设定的标准化、制度化程序和前线灵活指挥,实现标准化与灵活性的结合。
第二个特点则是利益相关者就组织目标达成一致,但这种共识的达成往往较为困难。安东尼·金(Anthony King)指出一名将军必须做到三点:确定行动使命、管理行动任务、进行军队动员。其中,第一点明确了其行动的目标和限制,几乎完全依靠于人的判断,人工智能难起作用;第二点是判断和预测的结合,人工智能能够提供一些支持;第三点就是指挥官的领导力,需要领导者在整个组织内构建起共同的目标、价值观和任务认知,这一点实际上也属于不可忽视的判断问题。事实上,在这三个领域中,指挥官扮演的不再是一个能够单独指挥作战的核心控制者角色,而更多是一个调节“集体指挥”中多方互动的协调者。集体指挥作为一种集体行动,在某些情况下可能较为顺利,但有的时候,组织内不同成员会在行动目标、行动战术等问题上出现分歧,导致组织内的混乱和分化,增加集体判断和决策的难度,也会使人工智能的使用变得更加困难。
四、人工智能在军事决策任务中的应用
上一节探讨了政治环境的两个因素——战略条件和制度条件,对人工智能的数据和判断质量、乃至人工智能决策运用的影响,本节则综合这两个因素,提出了两个基本假设:第一,稳定、合作型的战略环境将有利于有效数据的大量获取,动荡、竞争型的战略环境则往往会产生有偏差的数据;第二,标准化程度高、内部较团结的制度环境将有利于统一明确的判断之形成,标准化程度低、内部分歧较多的制度环境则往往会产生有争议的或模糊的判断。如表2所示,这两个假设描述了人工智能军事运用的四种决策类型,分别是“自动化决策”(Automated Decision-Making)、“不成熟的自动化决策”(Premature Automation)“人机协作决策”(Human-Machine Teaming)和“人工决策”(Human Decision-Making)。

(一)自动化决策
“自动化决策”是人工智能运作效果最佳的机制类型,其基本前提条件是获得高质量的数据和拥有清晰的判断。在商业领域,人工智能常被运用于完成一些重复性高、意外风险少的工作中。在较为稳定的环境中,人工智能面临的情况单一,既使提前预测变得容易,又使需要收集的数据较为集中,质量较高,有利于人工智能进行判断和运作。具体的应用有自动驾驶卡车、人工智能摄像头等。在军事领域,人工智能可以很好地运用于高度常规化的行政和后勤任务中,因为这些重复性事务会生成大量可用于人工智能培训的高质量数据,行使管理职能的官僚机构的行为受标准化程序限制,容易进行提前预测和判断,且这些任务在和平的环境下可以免受战争不确定性的影响,意外风险少。在这种情况下,人工智能的运用能够有效提高这些常规任务的效率和规模。但是,高质量的数据和明确的判断两个条件在实践中可能难以同时实现,这一决策类型往往会滑向其他三类,尤其是人机协作决策类型。
(二)人工决策
“人工决策”是另一个极端,是人工智能运作效果最不理想的机制类型,指的是在数据质量低且缺乏清晰判断的情况下,机器预测非常困难,所有决定都要由人来做出,即使这些决定也并不总是正确的。这种情形在商业领域没有相应的例子,但在军事领域,则正是克劳塞维茨所说的战场上的“迷雾”和组织中的“阻力”共同作用的结果,而应对的关键就在于充分发挥指挥官的“天赋”,即人的判断力。当面临的“迷雾”和“阻力”越严重,人的“天赋”越重要,人工智能起的作用就越低。但同时也应注意到,决策任务也可以被划分成两类,第一类是可以由人工智能提供支持的子任务,另一类是必须由人来执行的子任务,人工智能系统仍然能够在情报和规划等方面作出一点贡献,为第一类任务提供一些辅助支持。当然,对任务的划分本身也是一种判断行为,人的判断在这种情况下变得更加重要。
(三)不成熟的自动化决策
在自动化决策和人工决策这两个极端之间,还存在着“不成熟的自动化决策”和“人机协作决策”这两种人机分工情况更为复杂的类型。其中,不成熟的自动化决策指的是人工智能在不确定的环境下运行,无法获取高质量的数据,却被赋予了明确的任务目标。在这种情况下,最有保障的决策机制应该是人工决策,但人们不一定能及时发现数据上的不足,却仍使用人工智能、选择自动化决策来实行任务。这就很可能导致人工智能无法适应环境变化,作出错误的决策,造成不良后果。
不成熟的自动化决策运作的逻辑在商业领域和军事领域中是一样的。在数据方面,数据质量不高包括两种情况:一是针对特定问题的数据不存在,二是由于机器对特定决策的理解不足,所收集的数据存在偏差。在判断方面,在军队标准操作程序和战略战术理论的指导下,军事任务行动往往具有较为明确的目标。加之作战时间紧迫,就会难以抑制使用致命自动化武器进行战术行动的诱惑。但是,这种不成熟的自动化军事决策可能带来灾难性的后果。一方面,许多国家都已经建立起或正在建设自主武器系统(autonomous weapon systems),这种宏观作战环境的不断改变使得原有的训练数据集的相关性日益减低,同时也会加剧误判的风险;另一方面,自主武器破坏力的提高也将增加误判导致的代价,尤其是在核领域。因此,人们在运用人工智能时应该根据具体的情况进行调整,重视人的判断作用,加强人机协作,而不能盲目追求高度的自动化,避免由此带来的风险。
(四)人机协作决策
最后一种决策类型是人机协作决策,指的是人工智能能够获取高质量的数据但难以预先作出判断时,将人的指挥控制与机器的高质量数据相结合,共同进行决策。在这种情况中,人工智能能够基于高质量的数据提供一系列预测,为人工决策助力;同时人们也能认识到人工智能的不足,不盲目采取全面自动化的决策,也不企图全面取代人的判断,避免不成熟的自动化决策带来的更多不良后果。这一种决策类型是较为常见的。
在军事领域,人机协作决策能够在情报、监视、侦察(intelligence, surveillance, and reconnaissance, ISR)任务和指挥控制(command and control, C2)任务中发挥重要作用。在情报分析和作战规划任务中,人工智能可以帮助进行大量的数据分析和识别,大大减轻数据处理负担。在指挥控制任务中,人工智能也可以帮助进行跨库数据查询和整合、评估作战条件、模拟战场和作战演习等。但在实践中,战略环境和任务目标不可预见的变化可能会降低数据的相关性,操作人员只能在个案数据的基础上,综合自身的专业知识和经验来做出判断,并将这种判断应用于人工智能的预测中。因此,人工智能主要在数据分析和预测方面发挥作用,但在决策判断方面仍需由人来负责。
人机协作决策不仅涉及平衡人与人工智能之间的认知负荷,还需要随着环境的变化对这种负荷进行调整。具体而言,属于人机协作决策这一机制的任务可能会被分解为一系列子任务,这些复杂的子任务须被划分为完全自动化的和完全人工的两类,而在这个细分的过程中,尤其要注意避免走向上文所提及的不成熟的自动化决策。
五、军事人工智能的战略影响
本文的中心论点认为人工智能或机器学习能够降低预测的成本、凸显数据和判断的价值,但人工智能的有效运作还依赖于高质量的数据和明确的判断,而这两个条件在军事任务中较难得到满足,那些能够实现这些要求的组织可能会获得更大的竞争优势。以上论点具有两个重要意义。其一,依赖于人工智能的军事组织会积极采取措施来提高决策数据和判断的质量。其二,竞争各方将会采取措施将相关数据和判断复杂化,破坏对方的决策。
但需要强调的是,随着战争复杂性的提高,由高质量数据和明确的判断构成的这种竞争优势,核心还是人的能力,因为数据和判断仍然依赖于人。一方面,判断完全依赖于人,人工智能的效用函数是由人来设计和管理的,系统的目标设定和结果评估也是由人来负责;另一方面,数据也依赖于人,数据基础设施建设、数据管理和清理、数据政策制定和实施都需要人来进行。同时,在战略竞争中,竞争各方也可以通过操纵和破坏数据、表现出难以预测的行为,来扰乱对方的判断和预测,但这种由数据和判断引起的冲突加剧,本质上也还是来源于人类自身的目的和动机。作者认为人工智能的军事应用提高了数据和判断的价值,不仅加剧竞争各方围绕信息的冲突,也将微妙地改变各方的行动动机。因此,人和组织才是引起基于数据和判断的竞争冲突的核心,是影响军事实践和战争的核心,而不是机器运用和机器部队。作者得出结论,认为人工智能在军事运用上的持续发展必将强化和提高人的重要性。
(一)信息竞赛
数十年来,信息数据在战争中的重要性不断增强。随着信息基础设施建设的完善,军事组织能获取的可用数据量也急剧增长,但这些日益增加的数据并不一定能够转化为有效的军事能力,反而会增加数据管理工作的困难,加剧竞争各方间的情报竞争和网络冲突,增加军事任务实践的复杂性。
可用数据量的增加给数据管理工作带来了三方面的挑战。首先是数据收集获取的问题。一系列新问题的出现会促使对军事数据要求的改变,凸显对新数据源的紧迫需求,要求军队拓宽收集获取数据的渠道,加强数据政策的制定和获取数据的协商。其次是数据清理的问题。不同数据库之间的信息共享可能会将一些有偏差的数据纳入其中,影响数据的质量,所以需要军队定期对数据源进行管理和清理。最后是数据保护的问题。由于信息数据会为使用人工智能的组织提供竞争优势,竞争各方围绕数据信息的竞争不断加剧。军事组织会竭力强化其训练数据集的保密性和有效性,其竞争对手也会采取间谍活动等措施,来窃取、控制或破坏其用于机器学习的数据。因此,军队需要在信息的保护工作上投入更多。
上述数据管理工作面临的三类挑战,分别对应着网络安全问题中组织数据的可用性、完整性和机密性问题,由人工智能的崛起及其日渐深入的军事运用引发的信息数据竞争将加剧本已十分严峻的全球网络冲突,而网络冲突的加剧也将增加军事实践的复杂性,影响人工智能冲突的形态。
(二)组织复杂性
除了在数据信息上的管理和竞争,判断重要性的提高也将为军事组织带来一系列复杂的挑战。人工智能扩大了人的判断的影响,它赋予了设定系统编码的人巨大的权力。因为一个人类编程的判断程式将会影响整个系统的算法及其运作,当被广泛使用的判断出现错误,由它引导的人工智能系统就会产生非常多的问题。
这首先给人工智能的运用带来了一个非常重要的问题,即人机协作决策人才的招募与管理。作者认为,由于人工智能系统对人的依赖,负责系统设计、操作和维护修改的基层技术人员的判断和决策将起到更加重要的作用。这样一个人工智能时代的“战略士兵”(the strategic corporal)不仅应是克劳塞维茨式的、能理解复杂政治军事形势的“天才”,还须是一名具有丰富人工智能技术的黑客。但是,一些军事人员可能无法符合所需的要求、发挥出积极的战略影响,因此人工智能的广泛运用要求军队既要加强对相关人才的招募和培养,还要建立起对整个自上而下的指挥链的强有力领导。
除了人才问题,人工智能在显著提高组织效率的同时,也可能造成许多集体行动的挑战。运用人工智能后,军队中将出现新的负责数据和判断资源管理的专门工作,这可能会产生一系列涉及制度公平和内部人员整合的新问题,而其中更具挑战性的问题可能是如何在设计、使用和维护人工智能系统的各方工作人员间建立相互信任。
许多运用人工智能的组织都越来越重视人机协作,大量的研究也聚焦于探索促进人机结合、改善决策的方法。要更好地协调人机协作,军队需要更多地考虑为什么以及怎么样将人类与机器结合起来。军队倾向于在分散的组织网络下共享相关的技术、情报、后勤资源。这种联合运作的整体力量可以实现“1+1>2”,但这要求其中的每个部分都能做出正确的判断,这将使得政治和军事判断变得更加困难、涉及的组织更加分散、在地理上也更加广阔。
总的来说,如果一个军事组织能够解决好人才的招募与管理问题,并彻底下放权力,重组其指挥控制机构,那这个组织就能更好地协调各个部分的判断,充分地在战争中发挥人机协同的作用。
六、结论
本文以“狭义人工智能”为研究对象,认为人工智能还无法在战争以及其他任何竞争领域中取代人类。为理解人工智能在各领域的影响,作者将一个决策任务分解为数据、判断、预测和行动四个部分。运用人工智能后,机器学习能实现更有效的预测,机器人技术能实现更有效的行动,但在一个完整的决策链条中,这两个环节的自动化只能是发挥人工智能作用的必要条件,而不是充分条件。这样的情况凸显了另两个环节的价值。数据和判断两个环节受到自动化决策背景的限制,也就是说,自动化决策的环境、领域、方式及目的,将决定自动化决策可行性和可取性。
具体而言,战略环境和组织制度分别决定了数据的质量和判断的难度。基于不同数据质量和判断难度的结合,本文归纳了人工智能军事运用的四种决策类型:以高质量的数据和明确的判断为基础的“自动化决策”、高质量数据和明确的判断同时缺乏时的“人工决策”、在低质量数据的基础上被赋予明确判断、易造成不良后果的“不成熟的自动化决策”、拥有高质量数据但缺乏明确的预先判断时,将人类的判断与机器数据相结合的“人机协作决策”。
对于人工智能对战争的影响,作者认为在人工智能时代,战争在战略、组织和道德领域的复杂性将会增加,高质量的数据和可靠的判断变得更为重要;更密集的人机协作将导致军事组织网络中的判断更加分散化,战略对手之间的竞争更为激烈,它们的对抗性互动又将反过来进一步增加判断的复杂性,加剧战争固有的损害。但无论人工智能运用如何发展,人类都将在战争中占据至关重要的地位。
文章来源|政治学评介
编译:李紫晴 | 吉林大学
审校:肖童天
排版:李坤璐
