Skip to content

Integrating AI and ML into COP and COA Development

将人工智能与机器学习技术融入通用作战图与行动方针制定

C. Anthony Pfaff
Christopher John Hickey

2025年7月

战略研究院
美国陆军战争学院

本出版物中所表达的观点仅代表作者个人观点,并不一定反映美国陆军部、国防部或美国政府的官方政策或立场。战略研究院与美国陆军战争学院出版社的作者在不泄露机密信息、不危及行动安全或不歪曲官方政策的前提下,享有充分的学术自由。这种学术自由使他们能够从新的、甚至具争议性的视角出发,推动关键议题的讨论。本出版物经批准公开发布,传播不受限制。

ISBN 1-58487-865-7
©2025 C. Anthony Pfaff. 保留所有权利。

战略研究院(Strategic Studies Institute,简称SSI)作为陆军的智库发布国家安全与战略研究及分析成果,旨在回答战略安全问题、为战略决策提供信息支持,并在陆军与联合作战部队之间建立战略安全知识网络。

SSI 是思想与批评的重要源泉,提供创新方法与独立分析,并为外部读者展示美国陆军对国家安全的贡献。它同时作为桥梁,连接更广泛的国际安全学者与从业者社群。

SSI 由民间研究教授、现役军官与专业支持人员组成,成员均具有丰富的资历与经验。其战略研究与分析部门聚焦全球、跨区域及功能性安全议题;其战略参与项目(Strategic Engagement Program)则与全球战略分析人士及军事战略领域的顶尖学者保持长期合作。每年约有一半出版物由这些外部合作伙伴撰写。


SSI研究重点领域:

  • 地缘战略综合评估:区域与跨区域威胁分析;对手行为驱动因素;盟友、合作伙伴、跨机构、商业与联合组织之间的互操作性
  • 地缘战略预测:地缘政治、地缘经济、技术发展、颠覆与创新
  • 应用战略艺术:战争与作战功能、联合及多国战役行动、冲突谱系
  • 工业/企业管理、领导与创新:伦理与职业规范、组织效能、变革性发展、人才培养与管理、力量动员与现代化

前言

《将人工智能与机器学习技术融入通用作战图与行动方针制定》旨在探讨联合作战部队如何更好地理解并应用人工智能(AI)与机器学习(ML)技术于军事规划过程中。为实现这一目标,本研究聚焦现代防务机构所面临的关键挑战之一:如何利用AI与ML的变革性力量提升态势感知(situational awareness)并优化行动方针制定(course of action development)。

本研究延续了《信任人工智能:将人工智能融入陆军专业知识体系》(Trusting AI: Integrating Artificial Intelligence into the Army's Professional Knowledge)的基础成果,深入分析将AI整合入美国陆军通用作战图(Common Operational Picture, COP)的技术、组织与资源需求,重点关注其伦理实施与作战可持续性。通过多维度方法,作者不仅探讨技术演进,还分析为充分发挥AI决策支持作用所需的结构与文化变革。

本研究发布于关键时刻。美国国防部已认识到AI在形成持久决策优势方面的潜力,但其应用仍受制于组织壁垒、数据挑战与资源限制。研究通过详尽分析识别了关键缺口,并为自上而下的战略规划与自下而上的实操落地提供可行性方案。

最终,本研究为利用AI增强军事规划与作战准备提供了系统框架。当陆军与联合作战部队在日益复杂的作战环境中运作时,本报告中的洞见与建议将对领导者、规划者及技术人员在数字时代的适应与创新起到重要参考作用。

——C. Anthony Pfaff
战略研究院与美国陆军战争学院出版社主任


执行摘要

本综合研究项目探讨了如何将人工智能(AI)与机器学习(ML)技术融入联合作战规划流程,特别是用于提升通用作战图(COP)与行动方针制定(COA)环节。研究通过技术、组织、资源及伦理四个维度,分析AI/ML的应用机会,以优化态势感知与决策制定。

AI/ML 技术能够处理海量数据、简化规划任务并生成可操作洞察,但前提是具备稳健的数据采集、结构化与管理机制。研究同时考察组织层面的影响,包括角色变动、分工调整及外部承包商的参与;并分析资源约束下的可持续性问题。此外,研究贯穿伦理考量与“负责任人工智能(Responsible AI)”原则,以确保技术应用符合社会价值与军事标准。

研究采用非结构化访谈与二手数据审查方法,评估自上而下与自下而上两种AI/ML整合路径。发现的主要障碍包括数据标准化不足、跨密级访问受限及组织实践与新兴技术间的不匹配。研究强调建立集中而灵活的框架,以系统性应对上述挑战,并提出推动AI/ML在军事规划中落地的可执行建议。整体而言,本研究为在复杂动态的军事环境中开发、应用与优化AI/ML提供了战略指导。


关键发现

  1. 技术挑战:AI成功集成依赖高质量、结构化且精心整理的数据。虽然AI可自动执行重复性任务(如数据过滤与目标识别),但其有效性取决于数据结构与数字基础设施。诸如Maven Smart System(MSS)与STORMBREAKER等新兴工具展示了AI在提升传感器数据融合与异常检测方面改进通用作战图(COP)的潜力。
  2. 组织影响:AI的引入要求文化与结构性转变。规划人员需掌握AI工具技能,军队需在规划过程中长期引入私营承包商。AI的应用还将重塑总部作业模式,重新分配职责、减轻参谋负担。
  3. 资源需求:AI系统依赖云计算、带宽与算力,而这些资源在作战条件下可能难以维持。当前自下而上的创新缺乏长期资金支持,而自上而下的政策则需更好地对接作战需求。
  4. 伦理考量:对AI输出的信任是作战成功关键。系统必须符合“负责任人工智能”原则——可靠、透明、可治理——同时规避数据偏差、过度依赖与“幻觉”(AI生成错误)等风险。

尽管AI为规划流程带来巨大潜能,其成效仍取决于技术、组织与资源层面的系统应对。通过负责任地利用AI,美国军队可提升决策能力、保持作战优势并更好地应对复杂战场。


引言

在《信任人工智能:将人工智能融入陆军专业知识体系》研究基础上,本项目从技术、组织、资源与伦理四个维度探讨人工智能(AI)驱动的军事规划决策支持系统的研发与采购,旨在为理解与优化这类新兴技术提供系统性框架,从而更高效地将AI融入美军规划流程中。

AI 技术正如十九世纪末至二十世纪初的电力革命般,重塑一切运行机制。美国国防部寄希望于此颠覆性技术,期望通过其获得长期的决策优势,包括:战场感知与理解、灵活的兵力筹划与运用、快速精确的杀伤链(kill chain)、有韧性的保障支援以及高效的企业运营。\({ }^{1}\) 本研究分析防务体系当前AI整合情况,并展望未来前景。除关注技术挑战外,亦探讨国防部如何应对AI带来的组织与资源变革压力。

技术层面

探讨AI/ML如何改进联合作战规划流程,特别是在生成更及时、更准确的通用作战图(COP)与推动行动方针制定(COA)上。研究指出,关键在于理解AI/ML加速与未加速环节的区别,其核心在于数据的获取、结构化与管理。基于当前技术能力与局限,研究进一步提出AI作为联合作战赋能者的政策建议与数据治理策略。

组织层面

军事规划依赖团队协作。AI的引入影响到组织架构、知识需求与技能分布。AI的应用将导致总部结构调整、信息流优化及分工再配置,几乎所有参与规划的人员都需掌握新知识与技能。由于高端技术能力主要集中在私营部门,如何长期将外部厂商融入规划流程将是关键挑战。

资源层面

AI/ML虽能提高规划效率,但对资源依赖极高,包括云接入、数据采集与管理、GPU算力及模型成本。可靠连接与高带宽在战场上可能无法保障,导致系统可持续性受限。研究评估了自下而上与自上而下两种AI/ML能力建设的资源投入是否充足与长期可行,并明确单位在利用新能力时所需资源的构成与成本。


研究方法

本研究采用非结构化访谈与二次文献分析方法,首先确定在联合作战规划中将AI/ML融入通用作战图(COP)与行动方针制定(COA)所需的技术、组织与资源条件;其次,分析当前的自上而下(top-down)与自下而上(bottom-up)整合路径。前者包括陆军首席数字与人工智能办公室(CDAO)及陆军未来司令部(AFC)等机构;后者包括印太司令部、美军欧洲与非洲司令部、第18空降军及驻韩美军等的实践经验。


参考术语定义

规划(Planning):指在战略与战役层面,为实现特定目标而协调手段、方式与资源的军事过程,同时考虑约束与威胁。\({ }^{2}\)

通用作战图(Common Operational Picture, COP):国防部将COP定义为“由多个指挥机构共享的单一、统一的相关信息显示,以促进协同规划并帮助各级指挥层实现态势感知”。\({ }^{3}\)

行动方针(Course of Action, COA):依据《国防部军事与相关术语词典》,COA是个体或单位可采取的活动序列或完成任务的方案。\({ }^{4}\)

人工智能(Artificial Intelligence, AI):计算机科学与工程的多学科领域,旨在构建能执行通常需人类智能的任务之系统,如学习、推理、问题求解、感知、语言理解与交互。

机器学习(Machine Learning, ML):人工智能的一个子领域,专注于开发能基于数据学习并进行预测或决策的算法与统计模型。ML系统通过分析数据中的模式不断提升特定任务的表现。鉴于AI与ML高度重叠,本研究以“AI/ML”统称,表示二者在军事应用中的综合影响与发展。

数据(Data):数据是经过编码的信息,是知识推导的基础。测量产生信息,信息被处理并可存储与传输后即成为数据;将数据置于上下文中即可形成数据集。例如,将士兵姓名、体能测试成绩与训练时间关联组成的数据即为数据集。\({ }^{5}\)

自然语言处理(Natural Language Processing, NLP):使机器能够理解并以有意义且有用的方式响应人类语言的能力。\({ }^{6}\)

人机协同(Human-Machine Teaming, HMT):由至少一个人类与一个AI/ML系统组成的团队,共同为实现目标而协作。HMT结合人类的判断、直觉与创造力,与AI的数据处理、模式识别与预测分析能力,形成更具韧性与效率的混合决策模型。\({ }^{7,8}\)

负责任人工智能(Responsible AI):指在设计、开发与部署AI系统时,使其符合伦理原则、社会价值与法律标准。其核心特征包括:负责任、公平可及、可追溯、可靠与可治理(responsible, equitable, traceable, reliable, governable)。国防部《负责任人工智能战略与实施路线图》强调,应通过防止偏差、保护隐私、促进公平使用来建立信任,确保AI系统为所有相关方带来积极效益并最小化潜在负面后果。\({ }^{9}\)

人工智能与数据的挑战(The AI-Data Challenge)

要有效运用人工智能(AI)与机器学习(ML),必须收集足够数量且类型正确的数据,并对其进行结构化处理或以其他方式使算法能够访问。有效应用AI还要求对模型(即数据与算法的组合)进行测试与评估,以确保其在实际使用中表现良好。此外,需高度重视数据卫生(data hygiene),以便模型能够检测并修正算法偏差(algorithmic bias)与数据漂移(data drift),这些内容将在第一章中进一步讨论。然而,现实世界中往往缺乏质量或数量合格的数据,因此开发者不得不依赖仿真数据。仿真数据可用于模型训练,但也存在强化原始数据偏差的风险。此外,判别式人工智能(discriminator AI,用于分类数据)与生成式人工智能(generative AI,用于生成数据)的比较也带来了问题,尤其是在确定哪些内容应被整合以支持决策时。建立稳健的评估框架至关重要,但仍需依赖真实数据来测试与评估系统的有效性。

尽管许多技术问题可以解决,但行政障碍与权限问题常阻碍进展。采购过程中的挑战——包括聘请具备专业合同管理能力的专家——需要不同层级的专业知识,而这些知识通常与作战职能无关。和平时期与战时的训练差异也是一大难题,因为和平时期收集的数据可能无法反映战争中的真实环境。和平与战争数据的差异强调了全作战层级标准化的必要性,以及系统更新的权限应明确分配。尽管存在行政与授权方面的顾虑,但依赖商业供应商仍是国防部(DoD)AI采购项目的优势之一。由于商业AI应用能带来可观收入,且通常易于适配军事需求,因此商业部门能够承担比传统军工系统更大的研发负担。

人工智能(AI)有潜力通过简化诸如通用作战图(Common Operational Picture, COP)生成与行动方针(Course of Action, COA)制定等流程,彻底变革军事规划。但要实现这种革命性变革,军队组织结构必须进行重大调整,尤其是在规划人员的知识与技能方面。尽管AI的应用可以减少规划参谋的人数,但转向AI驱动的作业方式将需要重新分配职责,包括长期将外部供应商纳入规划流程。个体参谋的角色也将受到显著影响,因为AI与数据分析技能将成为关键能力。

本项目回顾的几乎所有应用都采用了判别式模型(discriminator model),其作用是将数据分类为不同类别,如识别威胁或区分正常与恶意活动。判别式模型在检测异常、识别模式与基于历史数据进行二元决策方面尤为有效。通过在带标签的数据集上训练,这类模型能够学习预定义类别间的差异并据此预测结果,这对于欺诈检测、垃圾邮件过滤与网络安全中的威胁识别等任务至关重要。尽管这类模型功能强大,但通常需要大量高质量的标注数据,并且容易受到训练数据中偏差的限制。

目前,生成式人工智能(generative AI)在规划与作战中仍处于早期阶段,但其作用正逐步扩大。判别式模型主要负责数据分类,而生成式模型则旨在生成与训练数据相似的新数据。生成式模型通过学习数据的底层分布,生成逼近真实世界的合成数据点。如何将生成式AI融入军事规划仍在探索中。例如,判别式模型可用于目标识别,而生成式模型则可帮助理解打击的战略意义。当判别式模型(如 Maven Smart System, MSS)可精确识别作战区域内的敌方坦克时,生成式模型则可解释摧毁这些坦克的重要性。例如,生成式AI可能生成这样的分析:“在Alpha目标点摧毁五辆敌方坦克将暴露敌军翼侧,迫使其从主攻方向调动相同兵力或放弃翼侧防御。”\({ }^{10,11}\)

其他应用场景包括可辅助规划人员的AI助理。例如,美国陆军战争学院的 William Barry 开发了一种混合生成式AI助理——“人工智能赋能战略顾问”(Artificial-Intelligence-enabled Strategic Advisor, AIeSA),结合了机器学习(ML)与自然语言处理(Natural Language Processing, NLP),用于增强人类的规划过程。在一次模拟太平洋地区人道主义任务的演习中,AIeSA 成功执行了关于步兵营机动至港口的复杂计算。在课堂教学中,AIeSA 还能通过总结复杂内容、回答教师问题来帮助学生理解课程。\({ }^{12}\) 虽然这并非严格意义上的军事规划,但与参谋为指挥官提供决策方案的过程非常相似。

AI/ML 的整合同样资源密集,需要云技术访问、数据管理与高性能计算资源,导致训练成本上升,并且在野战条件下难以维持。例如,在作战环境中维持AI的可持续性受到带宽与算力等资源限制的挑战。本项目评估了国防部现行资金机制与资源分配模式的可行性。


国防部人工智能整合简史

美国国防部(DoD)在自上而下与自下而上的两个层面都进行了AI/ML的整合。机构层面的AI整合始于2018年,当时国防部成立了联合人工智能中心(Joint Artificial Intelligence Center, JAIC),并发布AI战略,强调加速AI的采用与整合,以保持战略与作战优势。\({ }^{13}\) 正如本研究所指出的,与产业界的合作及其融入军事行动的机制将是AI成功采用的关键,同时还需建立一支具备技术素养的部队。AI战略最重要的成果之一是成立JAIC这一专责机构,以统筹国防部内的AI整合工作。

JAIC 被赋予四项关键任务:识别与交付原型、共享经验并将研究成果融入行动、推广成功原型以及提供持续支持。\({ }^{14}\) 战略文件指出:“尽管其主要职责是执行,JAIC在协调国防部各组成部门的AI活动方面也将发挥关键作用。”\({ }^{15}\) JAIC 还承担着协调国防部、其他政府机构、工业界、学术界及盟国伙伴间AI合作的职能。\({ }^{16}\) 此外,作为集中机构,JAIC 能调解军种间的AI分歧,避免重复建设与资源浪费。

次年,即2019年,《国防部数字现代化战略》(DoD Digital Modernization Strategy)强化了AI作为国防创新支柱的地位。\({ }^{17}\) 战略指出,AI是仅次于网络安全的军事准备与杀伤力关键支撑,要求国防部采用敏捷实践、培育创新文化,并加强与产业界和学术界的协作。

继之,2020年发布的《国防部数据战略执行摘要》(Executive Summary: DoD Data Strategy)提出了改进数据质量、敏捷性与可访问性的方案,为数据驱动决策创造良好环境。\({ }^{18}\) 战略强调需建立遵循伦理准则且能抵御对抗攻击的AI基础设施,目标是打造“数据可见、可访问、可理解、可关联、可信赖、可互操作且安全”的数据中心文化。\({ }^{19}\)

该战略特别强调,应建立集中化的数据治理机构与作战一线用户间的双向联动机制,以实现“自下而上的优化”。作战单位可据此参与训练设计并验证上级机构(如JAIC)的假设与成果。同年,国防部发布《AI教育战略》(DoD AI Education Strategy),旨在培养具备AI整合能力的专业人才。\({ }^{20}\) 战略将AI培训划分为六种类型:引领AI(lead AI)、驱动AI(drive AI)、创造AI(create AI)、促进AI(facilitate AI)、嵌入AI(embed AI)与应用AI(employ AI),以在全政府范围内建立系统化教育体系。

2021年,《国家安全人工智能委员会报告》(National Security Commission on Artificial Intelligence Report)发布,提出多层次国家安全AI战略,包括加速AI在防务与安全任务中的应用、建设AI人才队伍及保持美国AI技术优势。\({ }^{21}\) 报告建议国防部应“在2025年前建立AI广泛整合的基础”,包括建设统一的数字基础设施、培养数字素养军队,并从不适配AI的传统系统中战略性退出。\({ }^{22}\) 报告强调:“五角大楼领导层必须立即推动组织改革。”\({ }^{23}\)

2022年6月,国防部长办公室设立了“首席数字与人工智能办公室”(Chief Digital and Artificial Intelligence Office, CDAO),负责推动AI与数据驱动技术在整个国防体系中的整合与互操作,以形成从战略层到战术层的决策优势。\({ }^{24}\)
CDAO 确定了未来AI人才所需的五类关键角色:
1. 创新领导者——负责制定组织的AI愿景、政策与解决方案;
2. 风险与伦理专家——评估AI使用的技术与社会风险;
3. 应用与平台专家——设计、开发与维护AI应用与平台;
4. 测试与评估专家——验证平台以确保其可靠、安全与可治理;
5. 采纳专员——支持组织内用户的AI应用。
CDAO计划于2024财年推出军民人员在线培训项目,持续建设AI赋能的国防体系。\({ }^{25}\)

2023年,美国人事管理办公室(US Office of Personnel Management)发布《2023–2026年数据战略》(Data Strategy: Fiscal Years 2023–2026),将数据确立为制定政策、预算与运营决策的战略资产。\({ }^{26}\) 战略重点在于通过强化数据治理与分析创新,培养以数据驱动创新的公务员队伍,并树立联邦机构榜样。其核心目标是提升分析能力,使人员能够理解并应用数据分析,以应对复杂的公共管理环境。

随后,《2018国防部人工智能战略摘要》与《2020国防部数据战略执行摘要》被2023年发布的《国防部数据、分析与人工智能采纳战略》(DoD Data, Analytics, and Artificial Intelligence Adoption Strategy)所取代。\({ }^{27}\) 国防部副部长 Kathleen Hicks 强调:“本战略是我们在整个国防体系中部署数据、分析与AI能力以实现持久决策优势的指南。”\({ }^{28}\) 她指出:“实现数据、分析与AI的全部潜力,不是一家机构或单一项目的职责,而是我们共同的使命。”\({ }^{29}\)
该战略凸显集中化指导与作战层反馈机制之间的互动关系,强调快速整合新能力与灵活响应战场反馈的重要性。然而,文件并未具体说明各级单位应如何在组织层级上落实AI的采纳步骤。

总体而言,国防部各项战略勾勒了维持竞争优势与支撑决策流程的AI采用目标,并展示了防务体系通过组织变革积极拥抱AI的努力。这些互相支撑的战略文件与结构调整表明,国防部正视AI为下一代独特作战工具及潜在革命性基础技术的角色。

然而,这些战略文件与举措在实际AI落地步骤上仍显不足,例如缺乏基础设施建设细节、人员技能培养路径及最优的组织整合模式。当前的战略治理尚未明确如何在现代化改革及部队结构裁减(如陆军计划到2029年减少2.4万现役人员\({ }^{30}\))的背景下加速AI应用。因此,落实自上而下的战略指导,仍需各军种自主承担。服务层面必须应对AI整合的四大挑战:
1. 确定AI在传统规划中的增效范围
2. 评估组织变革的需求与影响
3. 量化资源需求与机会成本
4. 确保伦理规范贯穿AI整合全过程


结论

将AI/ML融入陆军规划流程代表军事战略演进的关键一步。尽管在数据处理与资源配置方面仍面临重大挑战,但AI在提升决策速度、优化COA制定及增强态势感知方面的潜力不容忽视。未来工作应聚焦于建立支持AI的稳健基础设施、整合伦理准则,并确保AI/ML应用在各作战环境下的可及性与可持续性。

本研究为国防部在将AI技术融入军事规划时提供了可操作的框架与建议。以下章节将围绕引言中提出的四大挑战展开分析,构建一套系统框架,用以识别AI的技术能力边界、组织适应路径、全寿命周期成本及伦理考量。总体而言,本项目为AI/ML在军事规划中的现实应用确立了合理预期,并为未来AI整合提供了切实可行的路线图。

Endnotes

  1. US Department of Defense (DoD), Department of Defense Data, Analytics, and Artificial Intelligence Adoption Strategy: Accelerating Decision Advantage (DoD, June 27, 2023), 4.
  2. Joint Chiefs of Staff (JCS), Joint Planning, Joint Publication 5-0 (JCS, June 16, 2017).
  3. JCS, DOD Dictionary of Military and Associated Terms (JCS, March 2017), 46.
  4. JCS, \(D O D\) Dictionary, 46.
  5. Alex J. Gutman and Jordan Goldmeier, Becoming a Data Head (Wiley, 2021), 16-18.
  6. Cole Stryker and Jim Holdsworth, "What Is NLP (Natural Language Processing)?," IBM, August 11, 2024, https://www.ibm.com/topics/natural-language-processing.
  7. Vincent A. Lillard et al., DATAWorks 2022: Topological Modeling of Human-Machine Teams (Institute for Defense Analyses, April 2022).
  8. Lillard et al., Topological Modeling, 67.
  9. DoD Responsible AI Working Council, U.S. Department of Defense Responsible Artificial Intelligence Strategy and Implementation Pathway (DoD, June 2022), 4-8.
  10. Joe O'Callaghan, interview by the author, November 6, 2024.
  11. O'Callaghan, interview.
  12. William Barry and Aaron Wilcox, "Hybrid Intelligence: Decision Dominance at the Strategic Level," War Room, October 17, 2024, https://warroom.armywarcollege.edu/articles/hybrid-intelligence/.
  13. Terri Moon Cronk, "Joint Artificial Intelligence Center Has Substantially Grown to Aid the Warfighter," DoD, November 18, 2020, https://www.defense.gov/News/News-Stories/Article /Article/2418970/joint-artificial-intelligence-center-has-substantially-grown-to-aid-the-warfigh/; and DoD, Summary of the 2018 Department of Defense Artificial Intelligence Strategy: Harnessing AI to Advance Our Security and Prosperity (DoD, 2019).
  14. DoD, Summary, 9-10.
  15. DoD, Summary, 10.
  16. DoD, Summary, 10.
  17. DoD, DoD Digital Modernization Strategy (DoD, July 12, 2019).
  18. DoD, Executive Summary: DoD Data Strategy (DoD, September 30, 2020).
  19. DoD, Executive Summary, 10.
  20. DoD, DoD AI Education Strategy (DoD, September 2020).
  21. National Security Commission on Artificial Intelligence (NSCAI), Final Report (NSCAI, 2021).
  22. NSCAI, Final Report, 9.
  23. NSCAI, Final Report, 9.
  24. "Chief Digital and Artificial Intelligence Office," Chief Digital and Artificial Intelligence Office, n.d., https://www.ai.mil/.
  25. Angela R. Cough, interview by the author, February 28, 2024.
  26. US Office of Personnel Management, Data Strategy: Fiscal Years 2023-2026 (Office of Personnel Management, March 2023).
  27. DoD, Adoption Strategy.
  28. DoD, Adoption Strategy, 1.
  29. DoD, Adoption Strategy, 1.
  30. "Army Force Structure Transformation" (white paper, US Army, February 27, 2024).

1. 将人工智能融入规划的技术要求

规划概述

要将人工智能(AI, Artificial Intelligence)与机器学习(ML, Machine Learning)技术融入规划,首先必须理解这些技术将被应用的过程。本节描述了美国陆军及联合部队在战略、战区战略、作战与战术层级的陆军军团司令部的规划过程。本节超越了许多关于战争中AI相关文献的焦点——这些文献通常高度关注战术行动与战略核问题——转而探讨ML与数据技术如何改进共同作战图(COP, Common Operational Picture)与行动方案(COA, Course of Action)开发的关键组成部分,而这正是规划的核心环节。

《陆军条令出版物5-0》(Army Doctrine Publication 5-0)将规划定义为“理解局势、构想理想未来,并确定实现该未来的有效途径的艺术与科学。”\({ }^{1}\) 规划的科学部分包括客观的量化判断,例如计算燃料消耗、机动速率、弹药消耗、路线优化、地形效应、武器能力与部队战备等级等,这些可量化内容构成了规划的科学基础。\({ }^{2}\) 而诸如部队编组与战术运用等基于这些量化考量的主观判断,则构成了规划的艺术部分。\({ }^{3}\) 可量化与可感知因素的相互作用形成了复杂问题——至少到目前为止——仍然需要人类智能来解决。

《联合出版物5-0》(Joint Publication 5-0, Joint Planning)阐述了联合指挥部的规划条令,主要关注作战至战略层级。在该条令体系中,“规划包含四个功能、规划过程及一种作战设计方法论。”四个规划功能为战略指导、概念发展、计划制定与计划评估。这些功能“通常是顺序进行的,但往往可并行以加快进程。”\({ }^{5}\) 联合规划中的作战设计方法论(operational design methodology)是一种基于设计思维的过程,运用系统思维、创造性思维与批判性思维,并结合作战艺术,以理解环境与战略指导,定义问题,并制定作为COA开发框架的作战方案。\({ }^{6}\) 《联合规划》提出了联合规划过程(JPP, Joint Planning Process)的七个步骤:规划启动(步骤1)、任务分析(步骤2)、COA开发(步骤3)、COA分析与兵棋推演(步骤4)、COA比较(步骤5)、COA批准(步骤6)以及计划或命令制定(步骤7)。\({ }^{7}\)

陆军司令部及部队在不同战争层级采用多种规划条令,所用的支撑工具也因作战层级与规划梯队而异。在战区层级的战略与作战规划中,陆军通常使用《联合出版物5-0》中详述的JPP与作战设计方法,以为陆军服役部件司令部(Army Service Component Commands)、战区陆军(Theater Armies)或担任联合任务部队/地面组成部队司令部的陆军军团与师级单位制定战役计划、作战计划与作战命令。\({ }^{8}\) 在更多情况下,陆军规划者使用陆军条令进行规划。例如,他们采用《陆军技术出版物5-0.1》(Army Techniques Publication 5-0.1)中的陆军设计方法(ADM, Army Design Methodology)以及《野战手册5-0》(Field Manual 5-0)中的军事决策制定过程(MDMP, Military Decision-Making Process)。\({ }^{9}\) 举例来说,一个军团司令部在战争中可同时承担作战层级与战术层级的规划任务:既要规划与监督作战行动,又要规划与协调战斗任务。在此情况下,军团司令部通常会在与上级联合司令部共同进行联合规划的同时,运用陆军条令来规划军团自身的行动。\({ }^{10}\) 这种方法在实践中效果良好,因为两种过程在逻辑上相似。

任何层级的规划都可以是概念性的或细化的、蓄意的或临时的、结构化的或非结构化的,取决于当时的情况、时间与资源条件。\({ }^{11}\) 陆军的作战过程(operations process)是一个持续循环的过程,涵盖规划、准备与执行,并伴随随时变化的任务和局势进行持续评估。指挥官主导这一过程,必须理解作战环境、构想并描述作战的预期终态。通过规划与命令流程,各级指挥官将部队引导至设想的目标终态与任务完成。\({ }^{12}\)

无论采用何种规划层级或方法,“指挥官与参谋人员在整个作战过程中都致力于构建与保持态势理解。”态势理解是通过对相关信息进行分析与判断,从而确定作战与任务变量之间关系的产物。\({ }^{13}\) 这种理解对规划至关重要,也对参谋人员提出了极高要求,他们必须尽可能多地收集数据,并将其转化为与当前局势相关的信息与知识。获得这种态势理解需要开发合适的传感器以收集数据、将原始数据处理为信息,并获取足够的基础数据以支撑分析。这些要求与AI和ML无关——它们只是重述了参谋人员历来执行的工作:收集信息、推断意义、决定响应。任务分析、参谋评估、报告与持续的作战环境情报准备(intelligence preparation of the operating environment, IPoE)都是发展态势理解的必要环节。\({ }^{14}\) AI与ML可以在此过程中发挥作用——它们能处理现代作战中庞大的信息与数据量,减轻人类负担,从而支持更有效的决策制定。

共同作战图(COP)开发

根据《联合出版物3-0》(JP 3-0, Joint Campaigns and Operations)的定义,COP是“由多个指挥部共享的单一且一致的相关信息显示,用以促进协同规划并帮助各梯队实现态势感知。”\({ }^{15}\) 理想的COP在实战中常被称为“单一视窗”(single pane of glass),即创建、维护与分发跨梯队可访问的相关信息,以实现并保持态势理解。\({ }^{16}\) 成功的COP使指挥官、参谋与下级领导能够在作战中专注于关键信息。此外,COP有助于对动态战术局势迅速响应,帮助指挥官进行知情决策、协调兵力并保持主动权。同时,COP有助于指挥官在作战过程中快速传达调整,并支撑在预期变化下制定替代COA的规划。\({ }^{17}\) 因此,COP是有计划地开发COA、快速决策并确保对手作战优势的关键工具。

COP的标准化内容尚未确立,其具体内容取决于指挥官的信息需求(IRs, Information Requirements)。\({ }^{18}\) COP可为数字或模拟形式,取决于作战环境中的网络连通性。典型的COP是作战区域的数字地图,带有多个叠加层,用户可根据指挥官与参谋的判断自由开关。陆军的《指挥官与参谋组织及作业》(Commander and Staff Organization and Operations)中列出了图1-1所示的作战层级COP清单。\({ }^{19}\)

序号 检查项目
1. 作战区域(AO, Area of Operations)内部队边界与当前位置
2. 机动图形
3. 活动及计划中的火力支援协调措施
4. 活动及预令中的空域协调措施
5. 不规则敌对力量与非对称威胁
6. 后勤节点与主补给线(MSR, Main Supply Route)
7. 民事因素
8. 已知与模板化威胁、危险、敌方位置与敌方活动
9. 对手的信息作战活动
10. 东道国与政治因素

图1-1. COP 检查清单示例

COP可由多种信息源支撑。参谋人员在规划与作战过程中开发这些信息源,如图1-2所示。\({ }^{20}\) 所有参谋部门都会在规划与作战过程中生成初步评估并持续维护各自职责领域的动态评估(running estimates)。\({ }^{21}\) 开发与维护动态评估是一项重大挑战,计划与执行的成功依赖于其中信息的相关性与时效性。为了对指挥官有价值,这些动态评估必须包含原始数据,并分析、综合与作战相关的信息,明确其对作战的影响。鉴于这些挑战,参谋应将动态评估限制在必要信息范围内,以避免信息过载、延误决策。AI与ML在此环节可发挥重要作用。

在ADM与MDMP的任务分析阶段,以及初始的作战环境情报准备中,指挥官与参谋制定信息需求(RFI, Requests for Information)与指挥官关键信息需求(CCIRs, Commander’s Critical Information Requirements),其中包括友军信息需求(IRs)与优先情报需求(PIRs, Priority Intelligence Requirements),以完善知识并指导决策及情报收集工作。报告与RFI、CCIR、友军IR及PIR的反馈持续构建与保持态势理解。然而,在动态环境中,无论信息量多大,都无法提供完全的态势理解或消除不确定性。\({ }^{22}\)

行动方案(COA)开发

COA通常与规划的艺术相联系,它是一个综合性解决方案,通过开发过程形成,与指挥官意图和指导保持一致。该过程利用任务相关陈述与知识产品,应用作战与战术艺术,通过调整阶段(phasing)与节奏(tempo)等要素创建多种COA。尽管指挥官可能会限制COA数量以加快流程,但团队必须承认并应对作战环境的固有不确定性。当由人类执行时,过程所能处理的变量与场景数量存在局限。专注于可控因素与已知信息(如敌方位置)有助于开发具备适应性的COA。采用这种方法可在不确定性中保持作战灵活性,避免削弱行动效率,从而形成灵活有效的COA。\({ }^{23}\)

图1-2. COP输入与输出示意

陆军设计方法(ADM, Army Design Methodology)能够帮助理解模糊问题,并在行动方案(COA, Course of Action)开发中提供灵活性。根据《野战手册5-0》(Field Manual 5-0),“ADM是一种跨学科的规划与问题求解方法。它结合了军事理论、关于问题本质的研究,以及批判性与创造性思维的挑战。其中一些概念,如作战艺术(operational art),长期以来与规划密切相关。”\({ }^{24}\) ADM中使用的许多概念对于AI而言难以实现,或需要特定的AI应用。在ADM中,“系统思维(systems thinking)与框架化(framing)等概念获得了更高重视。与ADM相关的关键概念包括:

  • 作战艺术(Operational art);
  • 批判性思维(Critical thinking);
  • 创造性思维(Creative thinking);
  • 系统思维(Systems thinking);
  • 协作与对话(Collaboration and dialogue);
  • 框架化(Framing);
  • 叙事构建(Narrative construction);
  • 可视化建模(Visual modeling)。\({ }^{25}\)

根据《野战手册5-0:规划与命令生成》(Field Manual 5-0, Planning and Orders Production),MDMP(军事决策制定过程, Military Decision-Making Process)中的COA开发阶段包括若干子步骤:(1)评估相对战斗力;(2)生成选项;(3)部署兵力;(4)制定总体构想;(5)指派司令部;(6)编写陈述与图示;(7)进行COA简报;(8)选择或修改COA以进行后续分析。\({ }^{26}\) 在该过程之后,作为MDMP的一部分,COA必须通过各种兵棋推演(wargaming)技术进行分析与比较,以便进一步修订与选择。\({ }^{27}\) 这一过程通常是线性的且耗时的,要求指挥官与参谋在信息不完全的情况下,运用其态势理解、条令知识、训练或作战的历史经验以及最佳判断。

技术挑战。 如上文所述,有效的规划要求:(1)理解描述友军与敌军互动的变量;(2)具备计算这些变量如何影响交战结果的能力;(3)能够访问足够健壮且结构合理的数据。这些条件对人类系统与AI/ML系统同样适用。然而,AI与ML系统在计算变量速度上的优势使其与众不同。但要使这些计算具有价值,算法必须能够反映环境的复杂性,且数据应尽可能避免偏差。在作战条件下,环境不断变化,使模型开发更加复杂。此外,如图1-3所示,相关数据来源多样且结构不统一,增加了数据访问的难度。

人工智能的应用

要理解如何克服上述挑战,并将AI与ML应用于共同作战图(COP, Common Operational Picture)与行动方案(COA)开发,必须首先了解该技术的基本工作原理。直到最近,AI与ML的主要应用仍集中在情报领域,用于处理海量传感器数据的提炼,采用的是较传统且定制化的AI工具,例如计算机视觉(computer vision)——使用卷积神经网络(CNN, Convolutional Neural Networks)处理视觉数据,或利用人工神经网络(ANN, Artificial Neural Networks)监测竞争对手的社交媒体抓取器。\({ }^{28}\) 当前,各国正竞相将AI与ML纳入军事行动的各个环节,从常规行政事务到作战规划,乃至完全自主的传感器、载具与武器系统。\({ }^{29}\)

这一竞赛的历史比多数人想象的更为久远。早在“沙漠风暴行动”(Operation Desert Storm)时期,美国国防部(DoD, Department of Defense)便使用AI进行规划,采用了动态分析与再规划工具(DART, Dynamic Analysis and Replanning Tool)——一种AI驱动的系统,用于协助人类规划装备与人员从欧洲运往沙特阿拉伯的后勤运输。\({ }^{30}\) 通过DART获得的效率提升,收回了国防高级研究计划局(DARPA, Defense Advanced Research Projects Agency)30年来在AI领域的投资。其实践成果成功证明,将AI嵌入更大型的规划系统中可指数级提升规划效率。\({ }^{31}\)

如图1-3所示,AI指的是一种广义框架,能够高效执行通常由人类完成的任务。ML(机器学习, Machine Learning)是AI的一个子集,能在该框架内从数据中学习。DL(深度学习, Deep Learning)则是ML的一个特化领域,其特征是使用模拟人脑结构的神经网络而非算法。DL算法的定义特征在于“深度”,即其包含的神经网络层数——至少需要四层。\({ }^{32}\) 这些概念与数据科学(data science)存在重叠——后者结合统计学与数学,从数据中提取有意义的洞察并进行预测分析。要实现高效运行,这些系统需要大量经过精心整理的数据,以训练、测试与验证模型,并依托计算框架执行特定任务。

图1-3. AI、ML、DL与数据科学之间的关系

图1-4展示了学习算法的一般流程。\({ }^{33}\) 该流程需要收集与处理“选择数据”(select data)与原始数据。“选择数据”指从更大的数据集中挑选出与目标结果相关的数据。例如,依据参谋评估中的数据,模型需要能够选取与维护相关的数据,以识别导致或避免机械故障的维护模式,或预测未来任务不可用率。

一旦数据准备就绪,程序员便可将其输入所选学习算法中以开发候选模型。当模型验证完成后,开发者将其部署于特定应用场景中,并可根据需要重新训练与优化模型。通常,这一过程需要人类介入,以使用标注数据集处理新信息或执行新任务,这种方式称为“监督学习”(supervised learning)。\({ }^{34}\) 某些较新的DL方法,如生成对抗网络(GAN, Generative Adversarial Networks),使用“无监督学习”(unsupervised learning),无需人类干预或标注数据集,即可在无先验知识的情况下发现隐藏的模式、结构或关系。\({ }^{35}\)

图1-4. 学习算法流程(根据Contreras与Vehí文章改绘)

从功能角度划分,人工智能(AI, Artificial Intelligence)可分为四种类型:反应型机器AI、有限记忆AI、心智理论AI与自我意识AI,其中后两者目前仍属理论阶段。反应型机器AI没有记忆功能,只能执行单一任务——例如IBM的国际象棋超级计算机“深蓝”(Deep Blue)。有限记忆AI能够回忆有限数量的过往事件,以辅助当前的行动方案(COA, Course of Action)决策。此类AI的代表包括生成式AI(Generative AI,如生成式预训练变换模型4,GPT-4 [Generative Pretrained Transformer 4]、Google Gemini Pro、以及大型语言模型Meta AI [LLaMA 2, Large Language Model Meta AI]),以及虚拟助理(如Siri、Amazon Alexa等)。心智理论AI(Theory of Mind AI,属于人工通用智能类型 Artificial General Intelligence)能够推理并理解思想与情感。自我意识AI(Self-Aware AI,属于超级智能类型 Super AI)则将能够“理解自身的内在状态与特征,并理解人类的情感与思想”。\({ }^{36}\)

尽管无法生成完整的AI分类体系,但图1-5展示了AI在众多领域中应用的一种可视化方式,虽不全面,但具有代表性。\({ }^{37}\) 随着科学突破、计算能力的不断提升以及海量数据的积累,AI的发展速度已显著加快。\({ }^{38}\) 近来,大型语言模型(LLM, Large Language Models)与生成式预训练变换模型(GPT, Generative Pretrained Transformers)成为AI与ML领域的焦点。\({ }^{39}\) 大型语言模型(LLM)是许多语音助理与聊天机器人背后的核心技术。这类模型通过估算一个词在前文语境中的出现概率,生成类似人类语言的文本。为实现这一点,LLM需要在海量数据上进行训练。\({ }^{40}\) LLM的应用场景极为广泛,民用企业每天都在推出基于AI的产品与应用。借助将所有输入视为语言的机制,生成式AI产品可以生成文本、将文字或图像生成新的图像、从图像生成文本、将语音转换为文字,并自动生成视频。其中一些生成式AI产品(如ChatGPT移动应用)是多模态(multimodal)的,即可从任意输入生成任意类型输出。\({ }^{41}\)

尽管这些AI平台尚未通过图灵测试(Turing Test)——即验证机器是否具有人类智能的测试——但它们已能表现出令人信服的“类人”特征。\({ }^{42}\) 虽然它们并不具备感知能力,但新一代生成式LLM展现出令人惊讶的“涌现行为”(emergent behavior),即“在小规模模型中不存在、但在大规模模型中出现的能力;因此,无法仅通过小规模模型性能的外推来预测。”\({ }^{43}\) 这种行为可能源于模型访问了不断扩展的互联网数据,以及模型中无监督深度学习(unsupervised deep learning)的进步。但斯坦福大学的研究者指出,LLM的“涌现能力”可能只是由评估指标选择造成的假象,而非模型性能(或智能)实质性变化的体现。\({ }^{44}\)

生成式预训练变换模型(GPT, Generative Pretrained Transformers)是一种特定类型的LLM,能够生成新的文本、视频或图像。GPT在海量数据上预训练,使用了变换器(transformer,一种特定类型的神经网络)的层结构,使模型能够同时处理整段词序列,而非逐词处理。由于GPT已预训练,开发者可以通过额外训练对其进行微调,使其执行特定任务。\({ }^{45}\) 这些模型通过输入数据,根据概率分布预测最可能的输出。

图1-5. AI的部分分类体系

人工智能(Artificial Intelligence, AI) ├─ 机器学习(Machine Learning, ML) │ ├─ 深度学习(Deep Learning, DL) │ │ ├─ 前馈神经网络(Feedforward Neural Networks, FNN) │ │ ├─ 卷积神经网络(Convolutional Neural Nets, CNN) │ │ ├─ 循环神经网络(Recurrent Neural Networks, RNN) │ │ ├─ 生成对抗网络(Generative Adversarial Networks, GAN) │ │ └─ 生成式预训练变换模型(Generative Pretrained Transformer, GPT) │ ├─ 监督学习(Supervised) │ └─ 无监督学习(Unsupervised) ├─ 专家系统(Expert Systems) ├─ 自然语言处理(Natural Language Processing, NLP) │ ├─ 内容抽取(Content Extraction) │ ├─ 分类(Classification) │ ├─ 机器翻译(Machine Translation) │ ├─ 问答(Question Answering) │ └─ 文本生成(Text Generation) ├─ 视觉(Vision) │ ├─ 图像识别(Image Recognition) │ └─ 机器视觉(Machine Vision) ├─ 语音(Speech) │ ├─ 语音转文本(Speech to Text) │ └─ 文本转语音(Text to Speech) ├─ 规划(Planning) └─ 机器人学(Robotics)

为生成预测结果,模型将输入拆分为语言标记(token),这些标记可以是完整单词,也可以是词缀或词根。每个标记通过一个向量(vector)表示——即一组数值,代表该标记在n维空间中的位置,用以描述该标记与其他标记的关系及其在特定提示(prompt)下被关联的概率。图1-6展示了特定语言标记之间的关系——例如“business(商业)”、“strategy(战略)”、“military(军事)”与“COA(行动方案)”。在此例中,“strategy”、“military”与“COA”彼此关联更紧密,而与“business”的相关性较低,这表明在仅包含“strategy”的提示中,这三个词更有可能同时出现在输出中。尽管大多数人类可以直观地想象三维向量空间中的位置,但超过三维的空间则难以可视化;而计算机没有这一限制。GPT的向量规模极大,通常包含数百甚至上千个维度。\({ }^{46}\) 向量维度越多,模型可建立的关联也越丰富。例如,GPT-3为每个标记(可能代表词的一部分或整体)分配一个12,288维的向量(即12,288个数值)以编码其语义。\({ }^{47}\) 借助海量数据,通过神经网络变换器,模型能够在12,288维空间中根据标记的邻近位置建立关联,并利用复杂的向量数学建立更深层次的联系,例如在响应提示时将“military”与“strategy”关联起来。\({ }^{48}\)

图1-6. 三维空间中的数据表示

在模型训练过程中,程序员会将标记(token)传递通过多个变换器层(transformer layers),模型会更新向量中的数值以细化其语义。因此,根据训练方式的不同,标记的含义及其与其他标记的关联概率可能有所差异。一旦LLM(大型语言模型, Large Language Models)在海量数据上完成训练,没有人能真正理解其中的内部关系。\({ }^{49}\) 此类模型也容易因训练数据的偏差而产生带偏见的结果。\({ }^{50}\) 这种偏差在军事应用中可能成为问题,因为图像、词汇及其他标记在军事语境中的含义往往与模型数据库中基于通用、流行语境的含义不同。例如,如果某LLM的用户输入的提示多与商业战略相关,则军事用户更可能获得充满商业术语的输出。因此,为改进军事用户的输出效果,必须从头创建新的LLM,或对现有模型进行再训练(retraining)。

此外,输入提示(prompt)的质量也会影响输出结果的准确性。提示中提供的信息越多,模型预测词汇关系的能力就越强。因此,了解如何正确构造输入对于确保模型能够正确理解与关联内容至关重要。与此同时,由于这些模型的输出基于概率关系,它们容易出现“幻觉”(hallucination)现象,即生成错误的输出或使用虚构的数据完成输出。2023年发表于《自然语言处理期刊》(Natural Language Processing Journal)的一项研究对九个主流LLM进行了评估,指出:“约46.6%的生成文本存在事实性错误;52.0%存在话语缺陷,如自相矛盾;31.3%包含逻辑谬误。”\({ }^{51}\)

GPT与LLM基于上下文在数学上建立标记关联,并回忆先前的提示与关联,但它们并不具备知识或对输出的真正理解。这些模型仍属于有限记忆的狭义人工智能(narrow AI)。依赖可能产生偏差或虚构信息的技术,在军事规划中可能造成灾难性后果。因此,为确保该技术有效,参谋与指挥官必须具备快速验证结果的机制。否则,这类技术的使用不太可能较纯人工过程产生显著改进。部分而言,这种能力取决于数据的正确收集、结构化与整理——这正是下一节讨论的主题。

数据与联合及陆军流程

正如前文所述,所有AI与ML模型都建立在数据之上。可用于AI与ML开发的数据越多,技术表现就越好。\({ }^{52}\) 性能提升的原因在于大量且多样的数据能让数据科学家更好地精炼与选择特定数据子集,以优化模型训练,这一过程称为“特征选择”(feature selection)。\({ }^{53}\) 然而,许多障碍阻碍了数据的获取。例如,许多数据被锁定在访问受控的存储库中,且在可用于AI模型之前需要进行重构。为改善数据获取,国防部应考虑采用“数据即产品”(data-as-a-product)的模式,创建可复用、标准化的数据资产,以提供针对特定目的的可信数据集。\({ }^{54}\)

在共同作战图(COP, Common Operational Picture)与行动方案(COA, Course of Action)开发中,最相关的数据通常来自传感器或参谋估计,这些数据必须经过结构化处理才能被模型访问。如果这些数据结构不一致,AI与ML项目可能无法定位、访问或检索训练模型所需的全部数据,除非重新组织数据结构。这一重构过程会延长AI项目周期,削弱AI与ML原本提供的速度优势。由于数据源多样,其格式可能无法直接用于模型训练,因此仍需进行数据准备,将其重新格式化为机器可读形式。此类数据保护与处理要求进一步延长项目时间,有时甚至需要回溯至数据采集阶段。

参谋估计与共同作战图

数据是帮助指挥官与参谋理解作战环境、制定符合战略目标计划的关键支撑因素。在联合规划过程(JPP, Joint Planning Process)中,这些输入以参谋估计(staff estimates)的形式出现,应“同时考虑军事行动的可量化与非量化因素。它们将友军与敌军的力量、武器系统、训练、士气与领导力转化为战斗能力。”\({ }^{55}\) 参谋估计在JPP的任务分析阶段形成,并在COA开发阶段得到细化。

如图1-2所示,JPP完成后,参谋估计仍会在作战评估(Operational Assessment)阶段持续更新,部队在此阶段识别并分析作战环境的变化,以评估行动进展。这些动态评估(running estimates)构成了各参谋部门信息需求(IRs, Information Requirements)的基础,随后被进一步细化为指挥官关键信息需求(CCIRs, Commander’s Critical Information Requirements)。接着,各参谋部门的CCIRs被整合入COP。\({ }^{56}\) COP被定义为“在指挥官关注区域内、根据用户需求定制并由多个指挥部共享的相关信息显示。”\({ }^{57}\) COP有助于指挥官与参谋建立态势理解,并使不同指挥层级之间实现共享的态势认知——这正是陆军任务指挥(mission command)理念的核心要求。正如《陆军条令出版物6-0》(ADP 6-0)所述:“共享态势理解使指挥官能够可视化其决策对部队其他要素及整个行动的影响。任务指挥允许下级结合COP与指挥官意图,行使有纪律的主动权。”\({ }^{58}\)

COP的生成是一个以人为中心的过程。参谋人员依靠有经验的规划者与受训士兵,将来自多源的数据转化为参谋估计,再细化为IRs,缩减为CCIRs,并最终将CCIRs汇总进COP。利用AI的技术为这些活动(尤其是重复性任务)的自动化提供了可能,从而减轻参谋负担。

态势理解框架为不同职能与角色的组织提供了一种正式结构,使它们能将COP转化为指挥官的决策。\({ }^{59}\) 图1-7展示了从原始数据到指挥官决策的正式理解结构。\({ }^{60}\) “任务指挥”将态势理解描述为:对相关信息进行分析与判断,以确定作战与任务变量之间的关系。该框架提供了一种系统化方法,利用数据、信息与知识以实现态势理解。以下为关键术语定义:

  • 数据(Data):由人类、机械或电子采集器检测的未经处理的观测结果。在典型组织中,数据通常从下属单位流向指挥所。下级部队上报数据,以帮助上级司令部了解有助于态势理解的事件。数据可以量化、存储并组织成文件或数据库,但只有在被处理为信息后才能发挥作用。
  • 信息(Information):是经过组织与处理、为进一步分析提供上下文的数据。可用信息量的巨大,使得如何管理并有效利用信息成为行动成功的关键。指挥官与参谋通过经验与判断将信息转化为对事件与条件的共享理解,以支持作战期间的决策。有效的指挥与控制(C2, Command and Control)需要进一步将信息发展为知识,从而实现理解。
  • 知识(Knowledge):是经过分析与评估、具有作战意义的信息。通过学习、经验、实践与人际互动所获得的理解,构成专业能力与判断力的基础。参谋部门致力于改进与共享隐性(tacit)与显性(explicit)知识。
  • 理解(Understanding):是将判断应用于知识后形成的对局势内在关系的综合认知,用以支持决策与行动。理解是在特定情境中将判断应用于知识的结果,意味着对局势的掌握已足以通过行动改变它。判断基于经验、专业知识与直觉。理想情况下,真正的理解应成为决策的基础。然而,不确定性与时间限制往往使得在决策与行动前无法获得完全理解。\({ }^{61}\)

图1-7. 达成理解的过程

该框架在联合规划过程(JPP, Joint Planning Process)与军事决策制定过程(MDMP, Military Decision-Making Process)中有直接体现。例如,天气报告(原始数据)在被筛选为与某部队责任区相关的部分后,形成动态评估(running estimate)中的事实信息,此时即转化为信息。当分析人员评估严重天气警报的作战影响,并描述其对行动的风险及可能的行动方案(COA, Course of Action)应对时,这些信息又转化为知识。最后,指挥官将该知识与其他经验结合,形成态势理解(situational understanding),在共同作战图(COP, Common Operational Picture)中体现,并据此做出最佳决策。

该框架展示了机器学习(ML, Machine Learning)模型在JPP中的潜在应用方式。人工智能(AI, Artificial Intelligence)可用于原始数据的处理,以生成重复但重要的信息——例如,可将来自多源的天气数据进行预处理,使之具备相关语境,并自动预填入动态评估中。\({ }^{62}\) 进一步沿该框架推进,AI模型可通过分析严重天气信息与大量作战数据,生成知识、识别风险并提出供参考的COA。最后,指挥官可以将AI的推荐纳入决策,理解其依据(例如通过CCIRs和COP),并为部队选择最佳前进方向。\({ }^{63}\)

当前条令与流程的研究表明,生成参谋估计与COP的方法主要依赖受过训练的参谋人员,综合使用定性与定量数据源。这些数据格式与来源的差异显著影响数据科学家如何利用COP数据训练AI模型。定量数据源(如数值型数据)可用于采用统计型ML技术的模型训练。\({ }^{64}\) 相反,定性数据源(如文本材料)更适用于自然语言处理(NLP, Natural Language Processing)等方法,使计算机能够理解、处理与解释人类语言。\({ }^{65}\) 对若干战区部队的访谈估计,约85%的此类资料以幻灯片和白皮书形式存在。\({ }^{66}\) 尽管陆军鼓励使用数字化COP,但在联合作战层级,COP的应用仍主要为模拟形式,常采用Microsoft PowerPoint作为主要展示工具。\({ }^{67}\)

此外,参谋估计与COP的开发通常结合数字与模拟信息源。数字信息可来自用于任务规划的作战系统(如全球指挥与控制系统联合版 GCCS-J, Global Command and Control System–Joint),或用于武器状态信息的战术系统(如先进野战炮兵战术数据系统 Advanced Field Artillery Tactical Data System),这些信息可被聚合形成低层级作战图。而模拟信息可能来源于报告与文档,例如从指挥氛围调查中提取的部队士气,或口头交流内容。

最后,在态势理解框架中训练AI系统需要使用在条令上属于知识管理(KM, Knowledge Management)与信息管理(IM, Information Management)范畴的数据。根据《陆军条令出版物6-0》(ADP 6-0),“知识管理是促进知识流动以增强共享理解、学习与决策的过程”,而“信息管理则是利用流程与信息系统收集、处理、存储、显示、传播与保护数据、信息和知识产品的科学。”\({ }^{68}\) 因此,必须在联合指挥层级及参谋部门中对知识管理与信息管理进行调整,以建立训练AI所需的流程与产品。例如,用于动态评估的数据可能来源于数字系统(信息管理)与低层级参谋部门(知识管理)的结合。为了支持动态评估而开发AI模型,可能需要从这些数字系统中查询数据,并从其他梯队调用历史归档数据。

理解数据来源、COP生成过程(如参谋估计、信息需求IRs与关键信息需求CCIRs)及COP自身的结构,对于确定AI的数据需求至关重要。AI模型依赖数据进行训练,而理解当前JPP执行方式能为陆军提供洞见,帮助其确定应在何处投资以促进AI在COP中的应用。

AI模型生命周期(AI Model Life Cycle)
对AI模型开发过程理解得越深入,就越能高效地收集与整理相关数据。AI模型生命周期如图1-8所示,展示了从概念化到实现与维护的通用步骤。简而言之,AI建模始于识别要解决的问题,随后收集并准备所需数据。数据科学家随后训练与测试模型。当模型性能达到可接受范围后,即可部署并在现实环境中持续运行。以下为AI模型生命周期的主要阶段:

  • 步骤1:识别业务问题(Identify the business problem)。组织识别能力缺口,评估选项,并确定AI赋能能力的需求。
  • 步骤2:收集数据(Collect data)。数据科学家确定需求、识别可用来源并开始数据收集。
  • 步骤3:准备数据(Prepare data)。收集完成后,数据科学家开始将数据转换为可输入AI模型的可用格式。
  • 步骤4:构建模型(Build model)。数据科学家开发并训练AI模型,尝试不同的训练技术。
  • 步骤5:测试模型(Test model)。用未参与训练的数据集测试模型,对照预期行为评估其性能;若测试失败,则重新训练。
  • 步骤6:部署(Deploy)。将训练好的模型部署到生产环境供实际用户使用。
  • 步骤7:治理(Govern)。对模型进行持续维护与必要升级。当业务环境或趋势变化导致模型性能下降时,需重新训练。

图1-8. AI模型生命周期

除第一步外,数据收集与准备阶段是整个过程最关键的环节。在AI建模工作开始前建立坚实的数据基础至关重要。\({ }^{69}\) 这两个步骤往往揭示了AI在JPP中应用所面临的最突出问题。

数据收集(Data Collection)

进入参谋估计(staff estimates)与共同作战图(COP, Common Operational Picture)的数据和信息来源广泛,既包括定性数据,也包括定量数据。根据《联合出版物5-0》(JP 5-0),参谋估计应整合“友军与敌军的实力、武器系统、训练、士气与领导力。”\({ }^{70}\) 其中一些数据可来自数字化系统,例如武器系统信息可由“先进野战炮兵战术数据系统”(AFATDS, Advanced Field Artillery Tactical Data System)获取,该系统提供火力与效果规划、协调、控制与执行的自动化支持。\({ }^{71}\) 数据还可能来自“全球指挥与控制系统-联合版”(GCCS-J, Global Command and Control System–Joint)提供的地理位置信息,该系统为联合与多国行动提供了一个综合的、近实时的战场图像。\({ }^{72}\) 此外,数据也可能来自定性来源,例如对敌重心(center of gravity)或作战限制(operational limitations)的情报分析,这些内容界定了友军与敌军的约束条件。

多样化的数据源使得将数据汇聚至一个可用且统一的格式变得困难,尤其当部分数据仍以模拟形式存在时。为有效使用这些数据,各单位必须识别相关来源并将其导出至可访问的平台。鉴于不同数据可能具有不同的访问权限,组织必须建立高效机制,以确保敏感、机密与非机密数据源均能平等访问。一些系统(如AFATDS与GCCS-J)主要通过图形用户界面(GUI)提供信息,导出方式有限。定性数据可能存储在多个文档库中,数据收集者必须提交访问申请、获得批准并执行文档检索,才能评估数据的相关性。

此外,并非所有数字来源的数据都足以支持AI模型训练。例如,数据可能不可搜索、访问权限严格、缺乏描述性元数据、引用不可用的外部数据集,或数据已过时且来源不权威。为解决这些问题,美国国防部(DoD, Department of Defense)的《数据、分析与人工智能采纳战略》(Data, Analytics, and Artificial Intelligence Adoption Strategy)与《陆军数据计划》(Army Data Plan)确立了VAULTIS政策框架,以确保数据“可见(Visible)、可访问(Accessible)、可理解(Understandable)、可关联(Linked)、可信任(Trustworthy)、可互操作(Interoperable)与安全(Secure)”。\({ }^{73}\) VAULTIS框架为数据生产者与管理者提供了确保数据质量的方法,从而为AI能力奠定基础。

  • 可见(Visible):使用者能够定位所需数据。
  • 可访问(Accessible):使用者能够检索数据。
  • 可理解(Understandable):使用者能够找到描述,以了解数据的内容、上下文与适用性。
  • 可关联(Linked):使用者能够通过固有关系利用互补数据元素。
  • 可信任(Trustworthy):使用者能够确信数据足以支持决策。
  • 可互操作(Interoperable):使用者与生产者对数据的表达与理解一致。
  • 安全(Secure):使用者知道数据受到未经授权使用或篡改的保护。

完全符合VAULTIS框架的数据会带有元数据(metadata),使用户能够轻松地搜索、收集与合并数据以进行准备工作——这对应AI模型生命周期的第3步(数据准备)与模型开发的第4步(建模)。\({ }^{74}\) 例如,一个为推荐COA而设计的AI模型可能需要从多个联合参谋部门、各军种组成部队及单位级参谋部门获取数据。执行数据收集的数据科学家需理解数据的可用性(可理解)、位置(可见与可访问)及使用方式(可关联、可信任与可互操作)。创建与维护使数据符合VAULTIS标准的元数据增加了数据生产者的工作量,并要求国防部中所有数据生产者获得足够的资源、培训与设备以遵循该框架。

数据分类在数据检索与模型训练中的应用中也带来显著问题。作战数据存在于多个分类级别,更敏感的信息(如系统作战性能或区域威胁)存储在更高密级中。在美军驻韩部队(USFK, United States Forces Korea)与美军印太司令部(USINDOPACOM, United States Indo-Pacific Command)的AI与ML项目中,一个共同特征是必须从多个安全分类级别中收集数据。\({ }^{75}\) 访问与汇集机密数据的困难在多个方面限制了AI模型的开发。首先,国防部在组织层面依赖承包商进行模型开发与数据管理,而拥有相应安全许可的合格承包商人数可能不足。其次,若AI工具或软件开发环境由商业供应商提供,它们可能无法在涉密网络上使用。这些问题限制了开发者可开展建模活动的场所与可访问的数据范围。

目前关于机密数据创建与处理的政策仍含糊且具限制性。《信息安全手册》(Information Security, DoD Manual 5200.01)规定了保密指导的要求与最低标准。此外,安全分类指南(SCGs, Security Classification Guides)为国防部系统使用的机密数据提供具体处理指导。\({ }^{76}\) 从多个领域汇集用于AI模型训练的数据将受“派生分类”(Derivative Classification)与“汇编分类”(Compilation)的约束。派生分类指“以新的形式整合、改写、重述或生成已被分类的信息,并根据源信息的分类标识对新生成的材料进行标注。”\({ }^{77}\) 而汇编分类指当信息要素组合后揭示出更高保密等级的信息。

AI模型需要大量数据,而现行政策可能限制可用的相关数据量。汇集的数据可能受多个SCG约束,若数据科学家不了解跨SCG的分类规则,会带来额外风险。更复杂的是,训练数据与模型算法可能同时受“程序性、数据性与作战性分类指导”的影响,因为特定AI能力的输出乃至存在,并不必然与输入数据或算法一一对应。\({ }^{78}\)

针对这些问题,国防部与陆军在AI相关SCG上的指导仍然不足。缺乏明确的安全分类政策,组织无法有效收集与准备数据。2020年国防部监察长报告指出,该部门缺乏指导以确保各军种在AI项目中遵循适当的安全保护。\({ }^{79}\) 因此,从事AI项目的工程师难以判断数据是否应处于更高的保密等级。两年后,为解决此问题,联合人工智能中心(JAIC, Joint Artificial Intelligence Center)建立了AI安全分类指南,但由于AI发展速度极快,部门最终认定无法制定统一的AI SCG。\({ }^{80}\)

相反,国防部选择制定全系统适用的AI分类原则,并将其附加至现有SCGs。尽管这些原则是进步,但尚未解决全部分类问题。若缺乏更明确的指导,数据科学家往往会采取更保守的方式,例如过度分类、避免使用机密数据源、或对数据进行过度模糊化处理。他们也可能在数据源与汇总时采用简化手段,以避免信息泄漏。这些做法将降低AI训练数据的质量,从而削弱AI模型的性能。

数据准备(Data Preparation)

在数据准备阶段,JPP中使用的许多数据与信息属于半结构化或非结构化文档。缺乏结构的数据难以用于AI,因为模型无法从中直接学习,必须进一步处理以提取有意义的信息。相反,结构化且带标签的数据更易于使用,所需处理与工作量较少,可直接用于AI模型训练。较少的数据准备工作使数据科学家能将精力投入到AI生命周期的其他步骤,如进一步的数据收集(步骤2)或模型构建与测试(步骤4与步骤5)。

AI模型可基于结构化、半结构化或非结构化数据构建。但结构化数据最易准备且适合AI模型开发;半结构化与非结构化数据则需额外处理与不同技术。结构化数据遵循标准化格式,以实现高效访问。\({ }^{81}\) 这种标准化使数据更易理解与调用。结构化数据示例包括电子表格、关系型数据库、网页表单结果与库存管理系统。

非结构化数据(unstructured data)则是不按既定模型或架构组织的信息。\({ }^{82}\) 非结构化数据缺乏标准格式,机器难以读取、解析与使用。典型示例包括图像、语音留言与视频。半结构化数据介于二者之间,不完全遵循标准结构,但包含描述性标记,用于说明数据内容。典型示例包括电子邮件、网页与社交媒体帖子。

如前所述,大多数参谋估计与COP采用简报文档形式,结合来自传感器的定量数据与报告类的定性数据。传感器与军用系统提供的定量数据多为结构化数据,所需处理较少;而定性数据则需经过转换与标注才能用于AI训练。此外,尽管JPP产品在格式上注重可读性与展示性,但条令与训练手册中提供的作战规划模板仅具半结构化特征,各部分内容定义宽松。许多参谋部门仍以Microsoft PowerPoint维护其COP,使得将其用于AI训练更加困难。当所有收集的数据合并用于训练时(包括传感器、系统、报告与简报文件),问题尤为突出。合并后的结构化、半结构化与非结构化数据难以被机器检索、解析或读取,在用于AI开发前需进行大量准备。\({ }^{83}\)

数据标注(Data Labeling)

即便找到所需数据,其质量也可能不足以支撑模型训练。数据标注(data labeling)是对原始数据(如图像、文本或视频)进行识别并添加有意义标签的过程,以提供上下文供ML模型学习。\({ }^{84}\) 在某些AI训练(如监督学习 supervised learning)中,标注数据是必需的。准确标注的数据可帮助模型学习区分正确与错误输出的模式,从而在处理未标注数据时生成高精度结果。因此,数据标注是数据准备过程中的重要环节。

然而,国防部尚未具备足够的能力执行数据标注以支持JPP。2022年美国政府问责署(GAO, Government Accountability Office)发布的关于武器系统AI应用的报告指出,该部门缺乏用于AI系统训练的准确标注历史数据。\({ }^{85}\) 由于JPP产品通常为非结构化或半结构化形式,它们往往缺乏教导LLM(大型语言模型, Large Language Model)区分“优秀参谋估计”与“低质量估计”的标注,或无法表明哪些报告被纳入COP。此外,美国国防高级研究计划局(DARPA, Defense Advanced Research Projects Agency)在同一报告中指出,当数据集过大时,数据标注任务的难度极高。期望AI模型基于大规模数据集训练在现实中并不合理,因为标注过程耗时且资源密集。

模型在共同作战图与行动方案开发中的集成

尽管AI与ML存在局限,但它们在军事作战规划中具有变革性潜力。而这种潜力的实现,在很大程度上依赖政策改进而非新技术本身。仅仅通过采用基本的、狭义的反应式AI来标准化并自动化参谋流程(如数据过滤与参谋产品自动化),即可显著缩短整合各类报告与估计以生成COP与COA所需的时间。未来,AI与ML可能基于趋势生成洞见或识别人工难以察觉的异常。然而,陆军必须首先建立准确数据的存储与传输系统。如果无法理解模型生成输出的过程,参谋仍需全面验证,从而抵消前端节省的时间。以下讨论了当前AI与ML技术如何融入规划流程。

共同作战图(Common Operational Picture)

国防部的总体战略旨在创建作战环境的共享理解并实现决策优势。《全域联合指挥与控制战略》(JADC2, Joint All-Domain Command and Control)提出了一个包含三步的指挥控制循环:“感知(sense)—理解(make sense)—行动(act)”。\({ }^{86}\) 该战略强调在“理解”阶段使用AI、ML与预测分析技术,从传感基础设施中“提取、整合与处理海量数据与信息”。\({ }^{87}\)

在JADC2架构下,陆军“指挥、控制与通信-战术项目执行办公室”(PEO C3T, Program Executive Office Command, Control, Communications–Tactical)负责开发“指挥所计算环境”(CPCE, Command Post Computing Environment)这一基于服务器的软件系统,用于支撑营至军团级指挥官与参谋在作战过程的各阶段协同生成COP。\({ }^{88}\) 初期测试与评估显示,CPCE第一阶段具备作战效能,能跨单位与梯队共享COP与相关数据;但2022年评估认为其“作战适用性不足”,问题包括系统可靠性低、终端用户培训不足与通用可用性差,尤其高级功能表现不佳。\({ }^{89}\)

在JADC2战略下提升CPCE的功能与互操作性已具挑战性,而进一步整合AI与ML以生成COP则更为困难。必须先建立基础设施,以从不同组织与系统生成并汇聚相关数据。这些数据在用于AI与ML模型开发或仪表板展示前,必须经过存储与整理。\({ }^{90}\) 可以说,除了地图外,COP中最关键的两个因素是友军与敌军态势。

友军态势可通过“联合战斗指挥平台”(JBC-P, Joint Battle Command–Platform)实现整合。该系统是“21世纪部队指挥旅及以下/蓝军跟踪系统”(FBCB2/BFT, Force XXI Battle Command Brigade and Below/Blue Force Tracking)的升级版,安装在超过12万台陆军装备上。\({ }^{91}\) 这些系统生成的数据需输入CPCE用于COP生成,并按使用梯队的精度需求进行分层。但规划者与指挥官不仅需要单位位置,还需掌握部队的作战与任务能力状态。这些信息来自不同系统与不同密级的报告,增加了复杂性。

敌军态势、状态与能力信息则由多源情报报告与传感器融合而来,挑战更大。传统上,情报报告与传感器的原始数据经情报单元处理、利用与分发(PED, Processing, Exploitation, and Dissemination)后形成“共同情报图”(Common Intelligence Picture, CIP)。\({ }^{92}\) 此流程会产生延迟,影响高节奏作战与COP时效。若直接将未经验证的原始数据输入COP以加快信息流,可能造成信息杂乱或展示错误内容。情报单元负责维护CIP,其系统必须与COP对接,以实现对更广情报图景的访问。\({ }^{93}\) 两者系统应同步查询与更新,以实现“单一视窗”(single pane of glass)目标。

Palantir Technologies开发的“梅文智能系统”(MSS, Maven Smart System)是一种用于快速间接火力任务目标生成的用户界面。\({ }^{94}\) MSS可整合用于跟踪航空器与监控后勤的数据流。\({ }^{95}\) 其计算机视觉能力来自“梅文项目”(Project Maven),该项目隶属于国家地理空间情报局(NGA, National Geospatial-Intelligence Agency)。AI与ML模型驻留于该机构内,并根据终端用户与分析师反馈定期再训练与更新。\({ }^{96}\) 这些模型识别有限类别的目标,并基于原始传感器数据自动分类与标注。MSS提供查询特定地理围栏区域的界面,并在COP上生成目标图标。用户可查看图像以确认AI识别结果,再执行火力任务。

MSS还包含一些利用AI能力的用户应用,例如社交媒体爬取器,用于在特定地理区域搜索关键短语,从发布的评论、图片与视频中执行战后损伤评估(BDA, Battle Damage Assessment)。\({ }^{97}\) 但流程仍需人工操作。NGA的梅文AI目前仅支持有限类别的目标识别,新目标与作战环境需重新训练模型。\({ }^{98}\) 系统允许部分误检(false detections),宁可出现少量误报(false positives)也不遗漏目标。使用MSS界面时,终端用户必须手动指定兴趣区域,确认图像正确,并将对象图像与来自其他传感器或源(如电子情报ELINT与信号情报SIGINT)的信息交叉验证以确认目标。\({ }^{99}\) 即便如此,第十八空降军团(XVIII Airborne Corps)借助梅文项目与MSS,每小时可处理多达80个目标,而传统方法仅能处理约30个。\({ }^{100}\) 即使存在限制,用户仍可创新。例如,第十八空降军团与Palantir正在尝试让MSS根据炮管使用率推荐射击方案,并预测弹药消耗率以支撑后勤规划。\({ }^{101}\) 然而,这些功能尚未正式部署。

如前所述,指挥官的COP需求具有语境敏感性,取决于指挥官与参谋处理与共享信息的方式。虽然使用AI与ML填充COP可能带来信息过载风险,但同时也能支持针对特定任务或作战的定制化显示。这些技术还可加速信息更新与流程执行,从而提升决策速度。AI与ML的重点应放在加速并优化生成COP的信息流,而非直接生成COP本身。采用“低代码/无代码”(low-code/no-code)方案,使具有限编程经验的用户能调整系统功能并开发小型AI/ML模型以定制COP,将进一步提高灵活性。

数据过载与人力不足问题在多个领域尤为突出,尤其是情报部门——在图像与视频处理方面。\({ }^{102}\) 仅在自动化图像识别与目标检测中应用AI与ML,即可大幅加速COP生成与决策,如第十八空降军团与NGA的梅文项目所示。进一步地,在前线传感器或平台上部署AI与ML模型以实现边缘目标识别(on-edge identification),仅传输网格位置与静态图像供人工验证,可为COP提供近实时的情报与态势理解。\({ }^{103}\) 同时,若能自动融合其他情报源(如测量情报MASINT与信号情报SIGINT),AI与ML可提升识别可信度、加快敌目标识别并避免因单一传感类型被敌规避。最终结果是:更精准的COP支撑更高质量的决策。

行动方案(Courses of Action)

图1-9展示了MDMP(军事决策制定过程, Military Decision-Making Process)中的时间分配示例。\({ }^{104}\) 其中有一半时间用于COA(行动方案, Course of Action)的制定、分析与比较。可用时间的限制常常使规划人员难以为某次行动生成多个“可行、可接受、适当、可区分且完整”的COA。引入AI有潜力显著缩短MDMP各环节所需时间,同时在相同时间内生成更多、更完整且分析更充分的COA。

执行前可用时间
8小时 24小时 48小时 72小时 96小时
时间分配 R+ 时间分配 R+ 时间分配 R+ 时间分配 R+ 时间分配 R+
任务分析 0:45 0:45 2:24 2:24 4:48 4:48 7:12 7:12 9:36 9:36
COA制定 0:30 1:15 1:36 4:00 3:12 8:00 4:48 12:00 6:24 16:00
COA分析与比较决策 0:45 2:00 2:24 6:24 4:48 12:48 7:12 19:12 9:36 25:36
命令生成 0:30 2:30 1:36 8:00 3:12 16:00 4:48 24:00 6:24 32:00
总计 2:30 8:00 16:00 24:00 32:00
COA行动方案 R 接收任务时间

图1-9. 规划时间表示例

当前AI与ML(机器学习, Machine Learning)技术在军事规划的科学部分中能发挥重要作用。\({ }^{105}\) 即便是自动化诸如绘制军事符号等简单任务,也能节约大量时间。尽管条令认为COA制定更偏向“艺术”而非“科学”,但其中的若干步骤确有科学特征,可通过AI与ML部分自动化或加速执行,或揭示规划人员在复杂环境中难以察觉的潜在规律。例如,战斗力评估过程相对直观。若提供某梯队下两级的友军与敌军机动部队数据,规划人员即可通过对比强弱估算兵力比(force ratio)。此类数值关系随后结合士气、训练差异、指挥员能力等主观因素,形成综合战斗力评估,从而揭示友军与敌军的脆弱点、所需资源及可行的进攻或防御类型。\({ }^{106}\)

在作战层面,美国印太司令部(USINDOPACOM, United States Indo-Pacific Command)正在开发“风暴破坏者联合作战规划工具包”(STORMBREAKER Joint Operational Planning Toolkit)。该AI驱动软件旨在增强作战规划人员能力,并实现JPP(联合规划过程, Joint Planning Process)的自动化,尤其面向中长期作战规划。印太司令部希望借此将作战计划的制定时间从24个月缩短至24天,使经审查批准的COA数量提升一个数量级,并构建一个完备的COA与作战计划库,供参谋与指挥官在危机时快速调用或改编。\({ }^{107}\) 在其最终形态中(见图1-10),STORMBREAKER将能够利用条令、联合数据集与自身COA库,支持规划人员开发、分析、兵棋推演(wargame)并比较COA以供审批。\({ }^{108}\)

图1-10. STORMBREAKER设计示意图

STORMBREAKER是一项庞大工程。通过应用程序接口(API, Application Programming Interface),它将类似仪表板的图形用户界面(即联合作战规划工具包)与信息环境指控系统数据仓库及用于作战判定的建模与仿真引擎连接起来。\({ }^{109}\) 在装备数据方面,STORMBREAKER分别从友军与敌军能力的权威数据库中获取信息,甚至会调用来自Janes和Wikipedia等开源资源的数据。该工具将这些能力以单一装备对象形式可视化,而非原始数据形式。

STORMBREAKER还利用建模与仿真能力“在AI/ML视角下评估并生成基于现有威胁数据、友军数据与作战计划的输出。”\({ }^{110}\) 截至2023年,系统仍处于交付早期阶段。当时STORMBREAKER主要表现为一个内置数据检索工具的仪表板,用于协助规划人员开发COA,尚未整合ML能力。\({ }^{111}\) 但即便凭借有限的数据功能,该工具已能让规划人员更快地生成与评估更多COA,显示出随着AI功能完善,其性能将迅速提升。

商业公司也在积极探索COA开发问题。在2020年SPIE《国防与商用传感》会议上,研究人员展示了一款用于兵棋推演阶段的软件工具,可推荐COA改进方案。尽管该工具不会自动生成COA,但它允许用户输入友军与敌军的COA,并通过指挥控制通信、计算机、情报、监视与侦察(C4ISR)仿真基础设施(Data Analysis and Visualization INfrastructure)进行评估,AI与ML随后提出友军COA调整建议。其独特之处在于该系统“考虑到作战现实,包括AI训练数据匮乏、战术计算资源有限以及需要用户在COA分析全过程中交互参与。”\({ }^{112}\) 虽然该工具利用AI/ML识别复杂多域环境中被忽略的机会或风险,但并未显著减少规划与决策时间。

一篇题为《COA-GPT:用于加速军事行动方案开发的生成式预训练变换模型》(\(COA\)-\(GPT\): Generative Pretrained Transformers for Accelerated Course of Action Development in Military Operations)的论文提出了一种创新算法,利用商用LLM(大型语言模型, Large Language Model)(如OpenAI的GPT-4 Turbo及GPT-4 Turbo with Vision)在后台快速生成模拟军事交战的COA。\({ }^{113}\) 该技术标志着AI在COA开发领域的重要突破,有望显著减少COA生成与评估时间,提升决策效率。

COA-GPT算法构建于其他LLM在战略规划与交互学习方面的创新基础之上,如DisasterResponseGPT、Voyager与STEVE-1。DisasterResponseGPT利用LLM快速制定灾害应对行动计划,并将关键指南直接嵌入提示中。\({ }^{114}\) Voyager代表了自主智能体领域的重大进展,展示了LLM在《我的世界》(Minecraft)动态环境中实现持续学习与技能发展的潜力。\({ }^{115}\) 类似地,STEVE-1模型展示了LLM如何在虚拟环境中引导智能体执行复杂指令,结合了文本驱动图像生成与决策过程的最新进展。\({ }^{116}\)

在初步生成COA时,COA-GPT允许规划人员以文本与图像形式输入任务与兵力部署详情。通过在系统提示中嵌入领域知识与军事条令,该系统可在数秒内生成与战略相符的COA。软件将输出的COA转化为可视化图示,并附上任务概要供人工审阅。COA-GPT并非全自动流程,它允许人类规划者通过追加提示与反馈来优化AI生成的COA。美国陆军战斗能力开发司令部(DEVCOM, US Army Combat Capabilities Development Command)的研究人员使用基于《星际争霸II学习环境》(StarCraft II Learning Environment)构建的“虎爪行动”(Operation Tiger Claw)场景对COA-GPT性能进行了评估。\({ }^{117}\)

《星际争霸II》是一款复杂的即时战略游戏,要求玩家同时进行宏观经济战略与微观单位管理。其庞大的状态与动作空间、持续时间、实时决策机制及“战争迷雾”带来的不确定性,使其成为研究多域作战(MDO, Multi-Domain Operations)中指挥控制AI的理想测试平台。\({ }^{118}\) “虎爪行动”由佐治亚州摩尔堡(Fort Moore)专家设计,模拟第12骑兵团第1营攻击穿越瓦迪塔尔萨河(Wādī Tharthār)并夺取“狮子目标”(Objective Lion)。该场景基于军事条令,详细描述了友军与敌军作战计划,被集成入《星际争霸II》,为神经网络设计与奖励机制研究提供了标准化环境。\({ }^{119}\)

研究人员将COA-GPT与两种现有算法(单人示范自对策强化学习Autocurriculum RL与异步优势演员评论家A3C, Asynchronous Advantage Actor-Critic)以及人工专家(SME, Subject Matter Expert)进行了对比。\({ }^{120}\) 研究在多种设置下测试COA-GPT,包括有人反馈、无反馈、仅文本输入与文本+图像输入。

AI与ML模型训练与测试均需设计奖励函数(reward function)以实现优化。在“虎爪行动”场景中使用的奖励函数包括:(1)总得分奖励,用于奖励推进、惩罚撤退;(2)损失最小化,即减少友军损失;(3)敌军歼灭,即最大化敌方消灭数量。研究人员为三种基准算法与每种COA-GPT配置共执行50次滚动实验,并对各方法在每个奖励函数下的平均值与标准差进行评估。\({ }^{121}\)

实验结果显示,AI与ML的LLM在COA开发与评估中表现出可观潜力,但也暴露出技术限制。在三个性能指标中,COA-GPT平均表现优于其他AI基线模型,但人工专家(SME)仍优于所有AI组合——取得更高的总得分、更多的敌军歼灭与更少的友军损失。研究人员认为,这源于人类专家能在模拟中持续调整以应对敌行动,而COA-GPT仅在开始时生成一次性战略命令并全程执行,未再输入。这凸显了“持续作战过程”在COP支持下的重要性。COA-GPT原型具备与战场实时传感器数据接口并接入兵棋推演模拟器的潜力,以实现快速COA分析与比较,但论文未展示此功能。\({ }^{122}\)

COA-GPT展示了利用商用GPT并调优以服务军事功能的潜力。然而,它也存在局限。其针对特定场景、固定地形与标准化兵力结构设计,仅在仿真/游戏环境中运行。现实世界远比其复杂与动态。此外,COA-GPT每次仅生成一个COA供指挥官与规划者经提示优化,而非如MDMP或ADM(陆军设计方法, Army Design Methodology)中那样提供多个COA及兵棋推演结果以供比较。要真正具备动态能力,完全任务化的COA开发工具必须能处理来自COP与实时传感器的输入。在真实环境中,用户需基于历次冲突、兵棋结果与不同保真度的仿真数据对AI/ML进行训练,以建立可用于推荐实际COA的关联。研究人员已意识到这些问题,并计划在未来研究中加以改进。\({ }^{123}\)

AI与ML模型具备将数百名军事指挥官与规划者的经验和知识汇聚于一体的潜力,且不受人员更替与记忆丢失影响。若能实现这一技术突破,将赋予掌握此能力的一方压倒性优势。LLM与GPT的快速进展是AI/ML领域最具潜力的突破之一。值得注意的是,最前沿的AI研究主要发生在商业部门,而非国防部。因而,与传统武器系统不同,先进AI/ML技术更可能呈现“军民两用”(dual-use)特征。\({ }^{124}\) 国防部《数据、分析与人工智能采纳战略》明确指出:“仅当应用能够服务于特定国防任务且无法直接采用现有商业解决方案时,国防部才会自行开发系统。”\({ }^{125}\) 而作战决策——COA开发的核心——正是此类任务中最具国防专属性的部分。

目前商用LLM尚不足以支持COA开发。它们虽能汇总大量信息,但摘要结果易受算法偏差影响,且准确性高度依赖训练数据。更大的LLM甚至开始“自我污染”(training their own exhaust)——即机器互相学习自己生成的内容。\({ }^{126}\) 尽管如此,国防部仍应继续探索商用LLM及其他AI/ML方案在COA开发中的应用,并可在受控的实训环境(如欧文堡国家训练中心 Fort Irwin National Training Center 与机动作战训练中心)中,将COA-LLM与类似模型与真人对抗测试,以评估性能。

规划者与指挥官应认识到:AI或ML模型无法生成完美的COA或确定终态。正如统计学家George Box所言:“所有模型本质上都是错的,但有些是有用的。”\({ }^{127}\) 由于AI与ML依赖大规模数据关联与模式匹配,它们擅长识别异常模式。领导者必须理解“错误数据会造就错误模型与输出”。用户应将AI/ML结果与其他信息交叉验证以确保准确性。在COA开发中,AI与人工并非“非此即彼”的选择,最佳做法是人机协作(human-AI teaming)——利用AI弥补人类弱点并放大人类优势。

与COP类似,AI与ML可作为参谋规划者的虚拟助手。结合AI、ML与自动化技术能在人工生成COA的同时节约大量时间。要充分发挥AI/ML的潜力,军人需掌握提示工程(prompt engineering)技能,以最大化模型功能与协作效果。STORMBREAKER、COA-GPT及其他AI/ML COA开发技术正推动智能化规划体系的发展。尽管LLM与生成式AI热度高涨,但除非出现颠覆性的计算与AI突破,近期内的趋势仍将是“人机融合”,而非“纯AI决策”。

数据支撑:通用作战图(COP)与行动方案(COA)制定

如前所述,模型的性能取决于其训练数据的质量。鉴于陆军在AI模型训练可用数据方面的缺口,陆军应采取若干措施来应对、缓解或最小化风险。这些建议旨在降低AI建模的进入门槛。数据收集与准备始终是组织问题识别后的必要环节。预先部署的能力(如支持VAULTIS框架的数据处理工具或可执行自动化数据转换的系统)可加速数据收集与准备步骤,从而使数据科学家在项目生命周期的早期即可开始模型训练。以下为具体建议步骤:

  • 建立作战数据网格(Operational Data Mesh),包括围绕“数据即产品(data-as-a-product)”的概念与流程,并明确领域责任人(domain owner)的职责。\({ }^{128}\)
  • 制定数据掩蔽(data masking)政策与技术能力,以去机密化大量数据。数据掩蔽是一种通过打乱数据来保护其安全的数据安全技术。\({ }^{129}\)
  • 投资于用于作战数据的合成数据(synthetic data)生成技术。
  • 制定更多条令化标准与工具,以进一步定义参谋评估与COP数据结构并自动化流程。

作战数据网格(Operational Data Mesh)

当前,数据需求、VAULTIS数据缺失与标准化不足的结合,使得在联合规划过程(Joint Planning Process, JPP)中搜索、定位与收集可用于建模的数据极为困难。国防部与陆军提出的解决方案之一即为实施“数据网格”概念。数据网格是一种分散式数据架构,按特定领域(如财务、后勤等)组织数据,使数据生产者能独立制定文档、质量与访问策略,而数据使用者可自由搜索并按需使用。\({ }^{130}\) 数据网格旨在为使用者提供便捷、安全、高质量的数据访问,同时确保数据生产者保有数据所有权。一个高效的数据网格应遵循以下四项基本原则:

  • 领域驱动的分布式架构(Domain-driven distributed architecture):领域团队拥有数据,并可按需准备。
  • 数据即产品(Data-as-a-product):数据生产者开发并提供满足内外部消费者需求的产品。
  • 自助式数据基础设施(Self-service data infrastructure):自助平台使数据生产者可提供数据产品,消费者可独立搜索与请求访问。
  • 联合治理(Federated governance):治理确保符合企业与监管政策,维护数据产品的安全性、质量、标准化与互操作性。\({ }^{131}\)

实施数据网格对于支持机器学习(Machine Learning, ML)项目至关重要。IBM在一篇文章中指出:“通过标准化与领域无关的数据,数据科学家可更容易地整合来自不同来源的数据,从而减少数据处理时间。这将加速模型进入生产环境的数量,推动自动化目标实现。”\({ }^{132}\) 国防部首席数字与人工智能办公室(Chief Digital and Artificial Intelligence Office, CDAO)与陆军助理部长(采办、后勤与技术, ASA(ALT))均已认识到数据网格对AI建模的重要性。2023年10月,CDAO开始寻求商用数据网格解决方案,以建立一个“提升数据可见性、简化数据连接并自动化数据访问”的通用数据网格。\({ }^{133}\) 陆军则通过“统一数据参考架构”(Unified Data Reference Architecture, UDRA)推动数据网格建设,由ASA(ALT)领导,指导陆军各项目接入企业级数据网格。该助理部长计划构建一套“即插即用的数据基础设施,使陆军能够释放目前仍被系统锁定的大量数据。”\({ }^{134}\) 目前,相关项目仍在识别阶段。尽管架构实施尚处早期,但其目标是涵盖系统生成的数据产品与作战数据产品。\({ }^{135}\)

为确保陆军与国防部数据网格实施的同步性,作战单位必须在UDRA早期阶段参与。目前公开资料尚未显示作战单元或参谋部门参与了数据网格试点或讨论。然而,使作战利益相关方早期参与至关重要,因为在数据网格架构下,参谋部门既是主要的数据生产者,又是主要的消费者。参谋部门已在多个Microsoft SharePoint实例与文档库中生成大量信息。这些信息可按“数据即产品”原则打包并列入数据网格目录(catalog)。目录使参谋部门能作为数据消费者运行查询,以提取与运行评估和COP相关的数据。最后,让作战代表参与治理过程,能确保数据网格满足部队与战区指挥官的作战需求。

在开发新的AI模型时,当问题与AI能力需求已被确定,组织即可开始数据收集。借助数据网格,这些组织可作为数据消费者,搜索、定位并申请所需的系统与作战数据产品。初步收集后,部分数据可能无法直接使用。由于数据生产属于领域责任人职责范围,数据收集者可与生产者协作,提出新的数据产品需求,以满足AI模型训练要求。

此外,数据网格还促进了两个关键需求:可追溯性(traceability)模型再训练(model retraining)。根据国防创新委员会(Defense Innovation Board)提出的AI伦理原则,AI必须具备可追溯性,即“相关人员应具备对AI技术、开发流程与作战方法的适当理解,包括可审计的方法论、数据来源与设计文档。”\({ }^{136}\) 数据网格的领域所有权原则使AI模型开发者能追溯到创建数据产品的组织。这与传统集中式数据湖(data lake)不同,后者的数据所有权往往与生产者脱节。\({ }^{137}\)

更重要的是,数据网格简化了模型再训练过程。AI相较于静态代码的一大优势即为可再训练性。\({ }^{138}\) 模型再训练通常在数据不足或数据动态变化的环境中进行。在这两种情况下,数据网格中的生产者可更新其数据产品。例如,参谋作为数据生产者,可能在运行评估中发现新的风险,可将数据(包括识别风险的情报需求IRs)打包并提供给数据科学家,用于重新训练支撑JPP的AI模型。

尽管数据网格看似易于实施,即便作战规划人员认同该理念,仍需进一步研究与澄清。目前尚不清楚作战数据将由谁、以何种方式制作为数据产品。对参谋部门而言,直接打包数据并将准备工作交由消费者更为省力;但消费者可能缺乏足够的领域知识。例如,作战规划人员更适合将风险数据与天气、地形等因素关联并标注,而数据科学家可使用SuperAnnotate或Amazon SageMaker Ground Truth等标注工具以优化准备流程。\({ }^{139}\) 最优方案可能取决于数据产品类型及负责组织的资源分配。但在治理初期明确这些问题至关重要。


数据分级(Data Classification)

数据分级是AI模型训练中组织必须持续关注的主要挑战。AI模型开发应在非限制性环境(permissive environment)中进行。安全的、非机密的软件开发环境允许最大限度地利用最新AI技术、API与库。训练好的AI模型可在具备网络安全防护(如网络扫描与运行许可)的前提下导入更高密级环境。然而,软件开发与模型训练仍依赖于现实的非机密作战数据。为此,应研究可移除大规模数据中敏感信息的数据掩蔽政策与技术。同时,陆军应投资于能生成高度逼真合成作战数据的技术,以便在不触及敏感信息的情况下进行模型训练。


数据掩蔽(Data Masking)

通过宽松的去机密化政策与数据掩蔽技术,可增加可用的非机密现实数据量。数据掩蔽(又称混淆,obfuscation)通过修改数据的原始字符与数字来隐藏敏感信息,从而满足安全与隐私要求。\({ }^{140}\) 该领域在医疗行业尤为重要,因《健康保险携带与责任法案》(HIPAA)等法规对个人身份与健康信息有严格保护。多种数据掩蔽技术可确保在保持合规的前提下进行AI训练,例如:

  • 标记化(Tokenization):将敏感数据替换为占位符或标记以掩盖敏感性。例如,可用唯一的非特定标识符替换部队名称。
  • 格式保持加密(Format-preserving encryption):在加密数据的同时保持其与现有系统的兼容性。
  • 数据编辑(Data redaction):允许从文档或图像中选择性删除敏感信息。
  • K-匿名(K-anonymity):修改数据,使数据集中所有记录共享相同属性,从而难以识别特定元素。\({ }^{141}\)

这些技术同样可应用于作战数据。参谋评估、COP及其数据源往往包含不同密级的混合数据。部分数据可通过掩蔽处理后满足去机密化标准。若使用能处理大规模信息的软件工具,可实现掩蔽数据集的去机密化,从而在非机密AI环境中用于训练。陆军在数据掩蔽与AI数据集去机密化方面的投资将带来长期战略收益,显著扩大训练数据可用量。

然而,仅靠技术方案不足,还需在安全分类指南(Security Classification Guides, SCGs)层面放宽政策,以允许适当去机密化。这将是最具挑战的部分。来自多源的数据集合可能同时受多份SCG约束,而这些指南间的规则往往矛盾或不充分。因此,判定哪些数据应掩蔽及采用何种技术将十分困难。为解决这一问题,陆军应与CDAO协作,并根据国防部情报与安全副部长的建议,制定“AI分类原则(AI Classification Principles)”,使部分AI项目可附加至现有项目或能力的SCG中。\({ }^{142}\) 新修订的指南应明确规定数据集去机密化的政策与细节。

数据集去机密化无论在政策或技术层面都存在局限。首先,数据掩蔽最适用于结构化数据(structured data),因其规则清晰、易于处理。例如,从电子表格中删除高优先级目标名称较为简单;而半结构化与非结构化数据则存在更大挑战。尤其是多数参谋评估与COP数据本身即属半结构化或非结构化。一些研究者已尝试使用ML与自然语言处理(Natural Language Processing, NLP)对非结构化数据执行掩蔽算法。IEEE在2020年发表的一项研究表明,经过最小训练后,模型可在掩蔽敏感政府数据时达到约90%的准确率(精确率与召回率)。\({ }^{143}\) 虽然该技术尚不成熟,暂不适用于机密作战数据,但为国防部提供了潜在投资方向。

另一个限制在于:基于去机密化数据训练的AI模型可能表现出“涌现行为(emergent behavior)”,从而意外泄露机密信息。涌现行为指“由简单规则或元素相互作用产生的复杂行为,而非通过显式编程定义。”\({ }^{144}\) 数据科学家尚难以解释这类行为产生的原因。\({ }^{145}\) 即便数据已掩蔽,其字段间的隐含关联仍可能泄露敏感信息。例如,部队状态报告的数据来源于非机密系统,但一旦汇总并赋予战备等级,其简报即属“机密”并存储于SIPRNet。若使用商用LLM分析这些系统,必需连接更大的商用网络,这可能导致外部实体通过查询预测美军战备状态,如从维修零件订单推断炮管完好率。

再如,一个旨在加速联合火力支援规划的模型,可能无意中暴露情报、监视与侦察(ISR, Intelligence, Surveillance and Reconnaissance)资产的能力,即使未使用相关数据进行训练。这可能源于其从友军、威胁与目标位置、战损评估及其他数据间的相关性中学到的模式。

尽管存在这些限制,数据掩蔽仍是一种强有力的工具,可为数据科学家提供更多AI训练数据。陆军可将去机密化数据的范围限定于结构化、格式严格的作战数据集,以避免产生机密涌现行为。例如,后勤数据通常运行在非机密网络上,但在转化为CCIR(指挥官关键情报需求, Commander’s Critical Information Requirements)与COP过程中可能被提升至更高密级。

合成数据(Synthetic Data)

当可用于AI模型开发的数据不足时,一种替代性方法是创建类似于真实世界数据的人工数据,这种技术通常被称为“合成数据生成”(synthetic data generation)。合成数据生成的目标是产生新数据,而不是收集现有数据,使AI建模能够在其上进行训练,从而获得与在真实数据上训练相似的性能。\({ }^{146}\) 例如,如果一个AI模型缺乏足够的目标数据进行训练,则可以通过合成数据人工生成敌方目标(如坦克)在各种天气条件、不同时间、甚至从多个角度的图像。\({ }^{147}\) 举例而言,如果需要更多某种环境中坦克的图像,可以利用三维模型在不同光照和背景条件下、不同角度下生成图像,从而在没有真实照片的情况下训练模型。合成数据技术使数据科学家能够按需、以特定数量、根据精确规格数字化生成所需数据。\({ }^{148}\) 合成数据具有以下三大主要优点:

  • 质量:数据收集和准备通常需要大量资源用于纠错、标准化和标注。合成数据可确保更高的数据质量、平衡性和多样性。人工生成的数据可以自动填补缺失值并添加标签,从而支持更准确的预测。
  • 可扩展性:机器学习(machine learning, ML)需要大量数据,而这些数据往往因各种障碍或不可用性难以获取。合成数据生成提供了一种创造足够训练数据量的方法。
  • 成本:商业实体通常提供高质量数据,但政府访问权可能代价高昂——尤其是当数据更专业且难以收集时。合成数据为数据提供了一种低成本来源,通常远比购买可直接使用的数据集便宜。\({ }^{149}\)

当前数据科学中有多种合成数据生成方法,其中三种最有潜力支持AI在参谋估计(staff estimates)与通用作战图(COP)中的应用:数据增强(data augmentation)、仿真(simulation)以及生成模型(generative models)。

数据增强(Data Augmentation)

数据增强是一种常见的合成数据生成技术,通过修改现有的真实数据来创建新数据。它通过多种变换方法来改变数据。例如,在图像处理中,数据科学家可以对同一张图像施加颜色变化、噪声、模糊、裁剪和旋转等不同程度的处理,从而生成新的训练数据集。\({ }^{150}\) 特别是在文本增强(text augmentation)方面,这是一种在AI模型训练中用于支持联合规划过程(Joint Planning Process, JPP)的强大工具。基础的文本增强技术包括同义词增强(synonym augmentation,即用同义词数据库中的单词替换原文中的随机单词)和词嵌入(word embedding,即用语义相近的单词替换原单词)。但近年来大型语言模型(Large Language Model, LLM)的进步使更高级的文本增强成为可能,如句子增强(sentence augmentation)。借助LLM,数据科学家可以从一句原始句子中生成多个不同表达但语义相同的句子。\({ }^{151}\)

仿真(Simulation)

仿真是另一种常见的合成数据生成方法,通过虚拟环境生成训练所需的数据集。它常用于机器人学中,用虚拟现实复制自主机器人的工作环境,通过多次仿真训练机器人应对不同情境。其优势在于可加速训练过程,速度远快于现实训练环境;同时还能处理极端或罕见情况。然而,其主要劣势在于仿真对真实世界行为的逼真度(保真度)较低。\({ }^{152}\)

仿真可成为在JPP中应用AI技术的有力工具。例如,基于AI驱动的风险生成模型的仿真系统可以通过模拟作战和环境变量来训练AI识别新的风险来源。但这种仿真代价高昂,因为仿真软件许可证价格昂贵,且越专业的许可证成本越高。此外,保真度越高所需的计算资源越多,从而增加计算与能源成本。例如,高保真仿真需要大量时间开发与定制,还需运行数百乃至上千次变体实验以生成可靠数据用于训练、测试与验证模型,这些都会消耗大量计算力和资金。

生成模型(Generative Models)

如前文所述,生成模型是由AI训练以创造新内容(通常为文本、声音、图像或视频)的模型。近期技术进步(如ChatGPT)使生成模型更加易用,并能生成高度逼真的内容。\({ }^{153}\) 若经过适当训练和测试,这类模型可生成用于联合规划过程(JPP)的合成产品,进一步输入至其他AI决策工具中。例如,人工生成的物流风险文本可用于训练识别关键指挥官信息需求(CCIR)的模型,其训练过程包括生成多种类型的物流风险文本、标注高风险项,并训练模型学习如何解释这些文本。

合成数据生成可成为陆军解锁AI模型训练数据潜力的关键技术。数据增强应作为首要投资方向,利用基础的数据增强技术生成更多JPP数据集。若陆军能成功训练LLM以生成JPP产品,生成模型也可能带来巨大收益。但由于成本高昂,不建议采用仿真法生成合成数据集。

数据标准化(Data Standardization)

相比合成数据,还有更直接的方式创建可用于AI模型训练的数据——即在整个机构内强制实施数据报告标准。最简单的方案是为参谋估计、通用作战图(COP)或CCIR建立数据结构标准。数据标准化若能得到机构的执行与维护,具有以下优势:

  • 提升透明度与理解度:标准化促进数据含义的一致与清晰。
  • 改善可访问性:统一的术语、代码与数据结构便于检索。
  • 鼓励数据与软件的复用,实现多用途。
  • 通过标准映射实现跨数据集比较,即便数据未完全标准化。
  • 提供一致的数据检索结果。\({ }^{154}\)

如前所述,许多JPP产物是半结构化或非结构化格式,输入源既包括定量数据也包括定性数据。可通过以下两种方式实现标准化:(1)使用在输入阶段强制执行数据标准的JPP软件;(2)应用抽取、转换、加载(extract, transform, load, ETL)流程将现有数据重构为标准化格式。美国印太司令部(USINDOPACOM)的STORMBREAKER项目在这两方面均取得突破,其方法值得陆军借鉴。

标准化数据表单(Standardized Data Forms)

通过数据表单实施标准化的概念十分简单:应用程序为士兵提供在线表单填写界面,类似于电商网站的表单。表单包含JPP过程中必填与选填字段,并在保存前进行实时验证。此过程有两个优势:其一,制度流程易于执行,因为参谋部门必须遵循严格的数据录入流程并符合数据标准,否则验证阶段将拒绝提交;其二,数据科学家可确信从数据库提取的数据具备结构化和一定质量水平。

数据标准化需要治理机制(governance)以确保数据的安全性、隐私性、准确性、可用性与可用度。治理包括支持数据生命周期的行动、流程与技术。\({ }^{155}\) 国防部各机构通过治理机制管理对VAULTIS框架的合规,从而简化AI建模的数据收集与准备。但治理活动会增加参谋工作负担。要在全陆军范围推广JPP数据标准,需要作战司令部、联合参谋部及其他机构间的协调。标准变更需经过充分评估并获得各方一致同意。以下几点尤为重要:

  • 软件工具的开发或采购需时间与资金。相较于使用Microsoft Word或PowerPoint制作的现有产品(如参谋估计),新软件成本更高,还需培训费用。推动DoD层面的统一软件工具可实现规模经济效应,并促进跨作战司令部的数据标准统一。
  • 数据标准无法涵盖JPP所需的全部信息。例如,CCIR具有高度情境依赖性,突发行动无法等待标准更新。因此,新标准应考虑半结构化与非结构化数据字段。
  • 综合利弊,陆军仍应推进JPP数据标准化建设。陆军应组建团队研究JPP在不同作战司令部的应用,并依据以下指南制定数据标准,以便从单位自定义产品平滑过渡到标准化、结构化、可机器读取的数据产品,减少数据收集与准备步骤,加快项目周期。

数据漂移(Data Drift)

有效的数据管理需防止、检测并应对数据漂移(data drift)。数据漂移指输入数据的统计特性随时间变化,导致模型性能下降。当训练数据与输入数据分布不符时,预测结果会变得不可靠。数据漂移分为协变量漂移(covariate drift,又称特征漂移feature drift)与概念漂移(concept drift)。协变量漂移是指训练数据集中自变量分布的变化不再匹配实际环境分布,例如光照变化会影响图像数据,从而降低图像检测模型的准确性。概念漂移指目标特征本身随时间变化,使模型试图预测的概念发生偏移。例如,当垃圾邮件内容不断模仿正常邮件时,AI垃圾邮件检测模型可能失效。\({ }^{156}\)

对于判别系统,管理漂移需监控其精确率(precision)与召回率(recall)。精确率表示预测为正样本中真正为正的比例,例如AI目标识别系统检测区域内所有坦克,但若其也将火炮识别为坦克,则精确率不高。召回率则表示所有真实正样本中被正确预测的比例。例如检测出10辆坦克中的8辆,则召回率为80%。最终系统得分(F1 score)计算公式为 \(2 * (precision * recall) / (precision + recall)\),用于平衡两者关系。\({ }^{157}\)

算法偏差(Algorithmic Bias)

AI模型的结果可能受数据集准备与算法训练方式影响而存在偏差。\({ }^{158}\) 若数据集不具代表性,则模型可能生成偏颇的结果。例如,实际数据分布与训练数据不同,模型将无法准确反映现实。\({ }^{159}\) 这种偏差在军事与执法领域尤为严重,因为词语、图像等符号的语义可能与通用数据库不同。例如,若某LLM主要接受商业策略类提示(prompt)训练,则军事用户得到的输出中可能充斥商业术语。改进此问题需从零构建或再训练模型。

在生成式AI中,输入提示的质量亦影响输出结果。提示信息越丰富,模型越能准确捕捉词语间关系。结构化输入对于模型正确理解输入至关重要。此外,由于模型基于概率关系生成内容,常出现“幻觉”(hallucination)——即生成错误或虚构信息。2023年发表于《自然语言处理期刊》(Natural Language Processing Journal)的一项研究指出,九种主流LLM生成的文本中,约46.4%存在事实错误,52.0%存在语义矛盾,31.3%包含逻辑谬误。\({ }^{160}\)

通过严格定义、反映JPP需求的数据标准可有效缓解上述问题。为此,需要研究多个作战司令部的数据结构并统一标准,从而将单位自定义产品转化为标准化、结构化、可机器读取的数据,减少数据收集与准备环节,缩短项目周期。陆军可采取以下措施:

  • 聚焦于信息需求(IR)的局部数据标准,而非全局JPP模板。每个参谋部门的IR应有针对性标准。例如维护估计应统一设备完好率数据格式。
  • 采用“最小公分母”方法(lowest common denominator)创建数据标准,即选取被最多用户共享的数据类型,如天气风险数据。
  • 包含支持半结构化与非结构化数据的灵活字段。例如STORMBREAKER的“附加说明”字段允许自由文本输入,或文件附件字段用于上传图像、视频、PDF等。
  • 按“数据即产品”(data-as-a-product)原则和数据网格(data mesh)架构设计数据标准,确保数据质量、可用性与生命周期管理,明确数据所有权与治理,使领域专家能够主导数据管理。\({ }^{161}\)
  • 在模型训练中使用ETL方法,将多源数据整合为统一仓库,通过规则清洗、组织与准备用于AI与ML训练。\({ }^{162}\) 其三步为:
  • 提取源数据库的相关数据;
  • 转换数据以便分析;
  • 加载至目标数据库。

ETL技术可将存档报告与文档转化为标准化格式供AI训练使用。结合数据网格原则,ETL成为创建符合VAULTIS标准的数据产品的强大工具。

陆军可利用DoD主数据分析平台Advana提供的标准ETL流程。\({ }^{163}\) 例如,为JPP生成作战COP数据的ETL管线可在不同陆军司令部(如USARCENT与USARPAC)间复用,只需调整数据源位置。标准化ETL管线的可行性研究应聚焦以下问题:

  • JPP最常用的数据源是什么?
  • 哪些政策障碍阻止Advana等平台访问作战数据?
  • JPP数据标准化最常用的转换工具是什么?
  • 是否存在可将非结构化/半结构化数据转换为结构化数据的工具(如Unstructured.io for LLM)?\({ }^{164}\) 平台是否支持灵活添加新工具?

结论

目前,AI与ML更适合用于加速和优化支撑COP的辅助功能(如情报生成、参谋估计及预测整合),而非直接生成COP本身。由于军事特定数据需求量巨大、模型需专门训练、计算资源消耗高且战场环境变化快,AI与ML无法在无人干预下制定行动方针(COA)或撰写作战命令。然而,AI与ML可协助人类完成规划中的科学部分,让人类专注于战略艺术。AI应被视为工具而非目的,用于增强人类能力——无论是数字助理、机器人伙伴还是其他自动化工具。\({ }^{165}\)

为优化现有技术,国防部应聚焦开发与应用小型AI/ML模型,以提升辅助规划功能,从而加快信息流转与决策速度。未来,或可出现“虚拟指挥官”(virtual commander),整合多模型输出与实时信息,生成COP、制定与评估COA、估算成功与风险,并由人类指挥官做最终决策。正如艾森豪威尔所言:“计划本身毫无价值,但规划过程至关重要。”\({ }^{166}\) 鉴于规划对人类的重要性,将部分规划任务留给指挥官与参谋永远合理。

理想状态下,机构应能方便地获取经过准备的数据用于模型训练。若国防部的数据、分析与AI采纳战略得到成功实施,并结合上述建议,未来AI项目的启动流程或将如下:数据科学家确定一个与JPP相关、适合AI解决的问题,并明确模型所需数据;通过数据网格目录查找并获取标准化的参谋估计、IR、CCIR与COP数据产品;随后使用数据遮蔽与脱密技术准备训练数据,必要时利用合成数据补充数据量。完成加速的数据收集与准备后,项目即可专注于模型训练与验证阶段。

国防部与陆军目前仍处于AI制度化支持JPP的早期阶段。然而,陆军正处于建立以数据为中心的作战规划文化的关键节点。通过构建作战数据网格、标准化作战数据、投资合成数据生成与实施数据脱密政策,陆军将显著降低AI模型开发的门槛。解锁作战数据是陆军迈向AI成功采纳的关键一步。

注释

  1. Headquarters, Department of the Army (HQDA), The Operations Process, Army Doctrine Publication 5-0 (HQDA, 2019), 2-1.
  2. Trevor Dupuy, Numbers, Predictions, and War: Using History to Evaluate Combat Factors and Predict the Outcome of Battles (The Bobbs-Merrill Company, 1979), 43-45.
  3. HQDA, Operations Process, 2-2.
  4. Joint Chiefs of Staff (JCS), Joint Planning, Joint Publication 5-0 (JCS, 2024), xix.
  5. JCS, Joint Planning, xii.
  6. JCS, Joint Planning, IV-1-46.
  7. JCS, Joint Planning, III-1-78.
  8. HQDA, Operations Process, 2-8.
  9. HQDA, Army Design Methodology, Army Techniques Publication 5-0.1 (HQDA, July 2015); and HQDA, "The Military Decision-Making Process," in Planning and Orders Production, Field Manual 5-0 (HQDA, 2022), 5-1-5-60.
  10. HQDA, Operations Process, 2-9.
  11. HQDA, "Planning," in Operations Process, 2-1-26.
  12. HQDA, "Fundamentals of the Operations Process," in Operations Process, 1-4-18.
  13. HQDA, Mission Command: Command and Control of the Armed Forces, Army Doctrine Publication 6-0 (HQDA, 2019), 2-3.
  14. HQDA, Mission Command, 2-3-4; and HQDA, Intelligence Preparation of the Battlefield, Army Techniques Publication 2-01.3 (HQDA, March 2019), 1-2-3.
  15. JCS, Joint Campaigns and Operations, Joint Publication 3-0 (JCS, 2022), GL-8.
  16. HQDA, Mission Command, 3-15-16; and "What Is a Single Pane of Glass," IBM, accessed January 8, 2025, https://www.ibm.com/think/topics/single-pane-of-glass.
  17. HQDA, Commander and Staff Organization and Operations, Field Manual 6-0 (HQDA, 2022), 6-7-8.
  18. Joint Staff J7, Insights and Best Practices, 3rd ed. (Joint Staff J7, May 2018), 12.
  19. HQDA, Commander and Staff, 6-7-8.
  20. Joint Staff J-7, Insights and Best Practices, 12.
  21. HQDA, Planning and Orders Production, C-1-4.
  22. HQDA, Mission Command, 3-6-7, 4-10.
  23. HQDA, Planning and Orders Production, 4-4-5.
  24. HQDA, Planning and Orders Production, 4-1.
  25. HQDA, Planning and Orders Production, 4-1.
  26. HQDA, Planning and Orders Production, 5-23-33.
  27. HQDA, Planning and Orders Production, 5-33-60.
  28. Robert O. Work, memorandum, "Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven)," April 26, 2017, Washington, DC.
  29. Edward Moore Geist, "It's Already Too Late to Stop the AI Arms Race-We Must Manage It Instead," Bulletin of the Atomic Scientists 72, no. 5 (2016): 318.
  30. Sara R. Hedberg, "DART: Revolutionizing Logistics Planning," Institute of Electrical and Electronics Engineers Intelligent Systems (May/June 2002): 81.
  31. Hedberg, "DART," 1.
  32. IBM Data and Artificial Intelligence Team, "AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What's the Difference?," IBM, July 6, 2023, https://www.ibm.com/think/topics /ai-vs-machine-learning-vs-deep-learning-vs-neural-networks.
  33. Iván Contreras and Josep Vehí, "Artificial Intelligence for Diabetes Management and Decision Support: Literature Review," Journal of Medical Internet Research 20, no. 5 (2018): 5.
  34. Ivan Belcic and Cole Stryker, "What Is Supervised Learning?," IBM, n.d., accessed January 8, 2025, https://www.ibm.com/think/topics/supervised-learning.
  35. Apoorv Agarwal, "Demystifying AI: What Is Unsupervised Learning?," Relativity (blog), September 29, 2021, https://www.relativity.com/blog/demystifying-ai-what-is-unsupervised-learning/.
  36. IBM Data and Artificial Intelligence Team, "Understanding the Different Types of Artificial Intelligence," IBM, October 12, 2023, https://www.ibm.com/think/topics/artificial-intelligence-types.
  37. Chethan Kumar GN, "Artificial Intelligence: Definition, Types, Examples, Technologies," Medium, August 31, 2018, https://chethankumargn.medium.com/artificial-intelligence-definition -types-examples-technologies-962ea75c7b9b.
  38. Huma Sheikh et al., "Artificial Intelligence: Definition and Background," in Mission AI: Research for Policy (Springer, 2023), 39.
  39. Timothy B. Lee and Sean Trott, "A Jargon-Free Explanation of How AI Large Language Models Work," Ars Technica, July 31, 2023, https://arstechnica.com/science/2023/07/a-jargon-free -explanation-of-how-ai-large-language-models-work/.
  40. Annamalai Chockalingam et al., A Beginner's Guide to Large Language Models Part 1 (NVIDIA, 2023); and Nicholas Cropp, "So What's the Difference between AI, GAI, ML, LLM, GANs, GPTs?," LinkedIn, May 20, 2023, https://www.linkedin.com/pulse/so-whats-difference-between-ai -gai-ml-11m-gans-gpts-nicholas-cropp.
  41. Henrik Kniberg, Generative AI in a Nutshell - How to Survive and Thrive in the Age of AI (Henrik Kniberg, 2024), YouTube video, https://www.youtube.com/watch?v=2IK3DFHRFfw.
  42. Celeste Biever, "ChatGPT Broke the Turing Test-The Race Is on for New Ways to Assess AI," Nature 619, no. 7971 (July 2023): 686-89.
  43. Jason Wei et al., "Emergent Abilities of Large Language Models," Transactions on Machine Learning Research (August 2022): 2.
  44. Rylan Schaeffer et al., "Are Emergent Abilities of Large Language Models a Mirage?," unpublished manuscript, May 22, 2023.
  45. 3Blue1Brown, Transformers (How LLMs Work) Explained Visually \(\mid\) DL5 (3Blue1Brown, April 1, 2024), YouTube video, https://www.youtube.com/watch?v=wjZofJX0v4M.
  46. Lee and Trott, "Jargon-Free Explanation."
  47. Lee and Trott, "Jargon-Free Explanation."
  48. Grant Sanderson, "But What Is a GPT? A Visual Introduction to Transformers," 3Blue1Brown Mailing List (blog), April 1, 2024, https://3blue1brown.substack.com/p/but-what-is-a-gpt.
  49. Lee and Trott, "Jargon-Free Explanation."
  50. Karen Hao, "This Is How AI Bias Really Happens-and Why It's So Hard to Fix," MIT Technology Review, February 4, 2019, https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias -really-happensand-why-its-so-hard-to-fix/.
  51. Adrian de Wynter et al., "An Evaluation on Large Language Model Outputs: Discourse and Memorization," Natural Language Processing Journal 4 (September 2023): 1.
  52. Sara Brown, "Machine Learning, Explained," Massachusetts Institute of Technology, April 21, 2021, https://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained.
  53. Jacob Murel and Eda Kavlakoglu, "What Is Feature Engineering?," IBM, January 20, 2024, https://www.ibm.com/topics/feature-engineering.
  54. "Data Products: The Foundation for Data Mesh," k2View, June 18, 2024, https://www.k2view .com/what-is-a-data-product/.
  55. HQDA, Planning and Order Production, C-1.
  56. Joint Staff J-7, Insights and Best Practices, 12.
  57. HQDA, Mission Command, 3-15.
  58. HQDA, Mission Command, 3-15.
  59. Kristine Steen-Tveit and Bjorn Erik Munkvold, "From Common Operational Picture to Common Situational Understanding: An Analysis Based on Practitioner Perspectives," Safety Science 142 (October 2021).
  60. HQDA, Mission Command, 2-3-4.
  61. HQDA, Mission Command, 2-3-4.
  62. Kevin Hanegan, "Harnessing the AI-Powered Data Lifecycle," Turning Data into Wisdom, October 25, 2023, https://www.turningdataintowisdom.com/ai-powered-data-lifecycle/.
  63. Eric Colson, "What AI-Driven Decision Making Looks Like," Harvard Business Review, July 8, 2019, https://hbr.org/2019/07/what-ai-driven-decision-making-looks-like.
  64. "Quantitative vs. Qualitative Data," Rudderstack, n.d., accessed June 30, 2024, https://www .rudderstack.com/learn/data-analytics/quantitative-vs-qualitative-data/; and "What Is Natural Language Processing (NLP)?," Amazon Web Services, n.d., accessed June 30, 2024, https://aws.amazon.com /what-is/nlp/.
  65. "Analyzing Text Data," George Washington University Libraries, July 10, 2024, https://libguides .gwu.edu/textanalysis/methods; and Liana Teixeira, "Exploring the Depths of Qualitative and Quantitative Data Analysis," LinkedIn, January 25, 2024, https://www.linkedin.com/pulse/exploring -depths-qualitative-quantitative-data-liana-ahrens-teixeira-j61mf/.
  66. Cory Cannon, e-mail message to author, February 7, 2024.
  67. HQDA, Mission Command, 3-16; and Joint Staff J-7, Insights and Best Practices.
  68. HQDA, Mission Command, 3-7-8.
  69. JaiminDave, "A Step by Step Guide to AI Model Development," Data Science Central, September 7, 2021, https://www.datasciencecentral.com/a-step-by-step-guide-to-ai-model-development/.
  70. HQDA, Planning and Orders Production, C-1.
  71. Danielle Kress, "Army Seeks Industry Input on Approach to Modernizing Digital Fires Products," U.S. Army, November 1, 2023, https://www.army.mil/article/271343/army_seeks_industry_input_on _approach_to_modernizing_digital_fires_products.
  72. "Global Command \& Control System-Joint," Office of the Director, Operational Test and Evaluation, 2023, https://www.dote.osd.mil/Portals/97/pub/reports/FY2023/dod/2023gccs-j. pdf?ver=JHN4Z-fuq-PbH6UPVAgyKA\%3d\%3d.
  73. Department of Defense (DoD), Department of Defense Data, Analytics, and Artificial Intelligence Adoption Strategy: Accelerating Decision Advantage (DoD, November 2023), 21-22.
  74. WhatIs, s.v. "metadata," n.d., accessed June 30, 2024, https://www.techtarget.com/whatis/definition /metadata.
  75. United States Indo-Pacific Command (USINDOPACOM) J5, "J5 STORMBREAKER Joint Operational PLANNING Toolkit (JOPT)" (PowerPoint presentation, USINDOPACOM, Carlisle, PA, November 2, 2023); and United States Forces Korea, UCJ Digital Planning Tools (DPT) Status (United States Forces Korea, January 3, 2024).
  76. AcqNotes, s.v. "security classification guide (SCG)," updated October 3, 2023, https://acqnotes .com/acqnote/careerfields/security-classification-guide.
  77. DoD, DoD Information Security Program: Marking of Information, DoD Manual 5200.01 (DoD, 2020), 2:27, 2:40-41.
  78. Ronald S. Moultrie, memorandum, "Fiscal Year 2022 Fundamental Classification Guidance Review," December 6, 2022, Washington, DC.
  79. DoD Inspector General, Audit of Governance and Protection of Department of Defense Artificial Intelligence Data and Technology, Report no. DODIG-2020-098 (DoD Inspector General, June 2020), 10-11.
  80. Moultrie, "Fundamental Classification Guidance Review."
  81. "What Is Structured Data?," Amazon Web Services, n.d., accessed June 30, 2024, https://aws .amazon.com/what-is/structured-data/.
  82. "Unstructured Data," MongoDB, n.d., accessed June 30, 2024, https://www.mongodb.com /unstructured-data.
  83. "Structured vs. Unstructured Data," H2O.Ai, n.d., accessed June 30, 2024, https://h2o.ai/wiki /structured-vs-unstructured-data/.
  84. "What Is Data Labeling?," Amazon Web Services, n.d., accessed June 30, 2024, https://aws .amazon.com/what-is/data-labeling/.
  85. Jon Ludwigson and Candice N. Wright, Artificial Intelligence: Status of Developing and Acquiring Capabilities for Weapon Systems, GAO-22-104765 (Government Accountability Office, February 2022).
  86. DoD, Summary of the Joint All-Domain Command \& Control (JADC2) Strategy (DoD, March 2022), 3.
  87. DoD, Summary, 5.
  88. Moultrie, "Fundamental Classification Guidance Review."
  89. Moultrie, "Fundamental Classification Guidance Review."
  90. Jacqueline Coffman, "AI2C Overview with DOD Cyber Workforce Framework" (PowerPoint presentation, US Army Artificial Intelligence Integration Center, Pittsburgh, PA, January 4, 2024).
  91. "Joint Battle Command Platform," Program Executive Office Command Control CommunicationsTactical, n.d., accessed June 30, 2024, https://peoc3t.army.mil/Organizations/PM-Mission-Command /Joint-Battle-Command-Platform/ (page discontinued).
  92. HQDA, Intelligence, Field Manual 2-0 (HQDA, 2023), 5-24-27.
  93. HQDA, Intelligence, 8-34.
  94. Saleha Mohsin, "Inside Project Maven, the US Military's AI Project," Bloomberg, February 29, 2024, https://www.bloomberg.com/features/2024-ai-warfare-project-maven/.
  95. Mohsin, "Inside Project Maven."
  96. Kevin Hartford, interview by the author, March 15, 2024.
  97. Joseph O'Callaghan, "Maven Smart Systems and JADC2 Overview" (speech, XVIII Airborne Corps Annual Scarlett Dragon Exercise, Fort Liberty, NC, December 4-7, 2023).
  98. Hartford, interview by the author.
  99. Mohsin, "Inside Project Maven."
  100. Mohsin, "Inside Project Maven."
  101. O'Callaghan, "Maven Smart Systems."
  102. Forrest E. Morgan et al., Military Applications of Artificial Intelligence: Ethical Concerns in an Uncertain World (RAND Corporation, 2020), 17.
  103. Tiffany Yeung, "What Is Edge AI and How Does It Work?," NVIDIA Blog, February 17, 2022, https://blogs.nvidia.com/blog/what-is-edge-ai/.
  104. HQDA, Planning and Orders Production, 5-7.
  105. Ferenc Fazekas, "AI and Military Operations' Planning," in Artificial Intelligence and Its Contexts, ed. Anna Visvizi and Malgorzata Bodziany (Springer, 2021), 79-91.
  106. HQDA, Planning and Orders Production, 5-23-29.
  107. Adam J. Kurzen, "J5 STORMBREAKER Joint Operational PLANNING Toolkit (JOPT)" (PowerPoint presentation, USINDOPACOM, Carlisle, PA, October 18, 2023).
  108. Kurzen, "Joint Operational PLANNING Toolkit."
  109. Kurzen, "Joint Operational PLANNING Toolkit."
  110. Laura Heckmann, "Indo-Pacific Command to Harness AI for Operational Planning," National Defense Magazine, March 25, 2024, https://www.nationaldefensemagazine.org/articles /2024/3/25/indo-pacific-command-to-harness-ai--for-operational-planning.
  111. USINDOPACOM G5 personnel, interview by the author, November 13, 2023.
  112. Peter Schwartz et al., "AI-Enabled War-Gaming in the Military Decision-Making Process," Proceedings of the SPIE 11413 (April 2020).
  113. Vinicius G. Goecks and Nicholas Waytowich, \(C O A-G P T\) : Generative Pre-Trained Transformers for Accelerated Course of Action Development in Military Operations (arXiv, March 2024), 3.
  114. Vinicius G. Goecks and Nicholas R. Waytowich, "DisasterResponseGPT: Large Language Models for Accelerated Plan of Action Development in Disaster Response Scenarios," unpublished manuscript, June 29, 2023, 1.
  115. Guanzhi Wang et al., "Voyager: An Open-Ended Embodied Agent with Large Language Models," unpublished manuscript, May 25, 2023, 1.
  116. Shalev Lifshitz et al., "Steve-1: A Generative Model for Text-to-Behavior in Minecraft," unpublished manuscript, June 1, 2023, 1.
  117. Goecks and Waytowich, \(C O A-G P T, 1-3\).
  118. Priya Narayanan et al., First-Year Report of ARL Director's Strategic Initiative (FY20-23): Artificial Intelligence (AI) for Command and Control (C2) of Multi Domain Operations (US Army Development Command Army Research Laboratory, May 2021), 7.
  119. Narayanan, First-Year Report, 6.
  120. Nicholas Waytowich et al., "Learning to Guide Multiple Heterogeneous Actors from a Single Human Demonstration via Automatic Curriculum Learning in Starcraft II," Artificial Intelligence and Machine Learning for Multi-Domain Operations Applications IV 12113 (June 2022): 5; Volodymyr Mnih et al., "Asynchronous Methods for Deep Reinforcement Learning," Proceedings of the 33rd International Conference on Machine Learning 48 (June 2016): 4; and Goecks and Waytowich, COA-GPT, 6.
  121. Goecks and Waytowich, \(C O A-G P T, 5-6\).
  122. Goecks and Waytowich, \(C O A-G P T\), 6.
  123. Goecks and Waytowich, \(C O A-G P T, 2-8\).
  124. Kimberly Sablon, "Disruptive Technologies and the Changing Character of War: Artificial Intelligence" (PowerPoint presentation, Future Operating Environment Professional Military Education Faculty Workshop Series, National Defense University, Washington, DC, February 21, 2024).
  125. DoD, Artificial Intelligence Adoption Strategy, 12.
  126. David Bray, "Why Trust Matters in AI? How Can We Achieve It?" (PowerPoint presentation, Strategic Multilayer Assessment General Speaker Session, Stimson Center, Washington, DC, October 5, 2023).
  127. Ron Wasserstein, "George Box: A Model Statistician," Significance 7, no. 3 (September 2010): 134.
  128. "Enterprise Data Mesh: What Is Data Mesh?," Oracle, n.d., accessed June 30, 2024, https:// www.oracle.com/integration/what-is-data-mesh/.
  129. "What Is Data Obfuscation?," Informatica, n.d., accessed June 30, 2024, https://www.informatica .com/services-and-training/glossary-of-terms/data-obfuscation-definition.html.
  130. "What Is a Data Mesh?," IBM, n.d., accessed June 30, 2024, https://www.ibm.com/topics /data-mesh.
  131. Vijay K Butte and Sujata Butte, Enterprise Data Strategy: A Decentralized Data Mesh Approach (Institute of Electrical and Electronics Engineers, October 2022).
  132. "What Is a Data Mesh?"
  133. Lisbeth Perez, "DoD CDAO Seeks Commercial Data-Mesh Capabilities," MeriTalk, October 30, 2023, https://www.meritalk.com/articles/dod-cdao-seeks-commercial-data-mesh -capabilities/.
  134. Anastasia Obis, "Army Implementing New Data Architecture, Launching Innovation Exchange Lab Next Month," Federal News Network, January 16, 2024, https://federalnewsnetwork.com/army/2024/01 /army-implementing-new-data-architecture-launching-innovation-exchange-lab-next-month/.
  135. Alfred Hull, "Data - the Key to Modernization" (PowerPoint presentation, 2022 Association of the US Army National Conference, Washington, DC, October 11, 2022), https://api.army.mil/e2/c /downloads/2022/11/02/fdfd99c2/b3-data-the-key-to-modernization-panel.pdf.
  136. C. Todd Lopez, "DOD Adopts 5 Principles of Artificial Intelligence Ethics," DOD News, February 25, 2020, https://www.defense.gov/News/News-Stories/article/article/2094085/dod-adopts -5-principles-of-artificial-intelligence-ethics/.
  137. Tim Osborn, "Data Mesh vs. Data Lake: Pros, Cons, \& How to Decide," Monte Carlo Data, June 23, 2023, https://www.montecarlodata.com/blog-data-mesh-vs-data-lake-whats-the-difference/.
  138. Henrik Skogström, "When Should a Machine Learning Model Be Retrained?," Valohai, November 30, 2020, https://valohai.com/blog/when-should-a-machine-learning-model-be-retrained/.
  139. Krissanawat Kaewsanmua, "Data Labeling Software: Best Tools for Data Labeling," Neptune Blog, August 22, 2023, https://neptune.ai/blog/data-labeling-software.
  140. "What Is Data Masking?," Amazon Web Services, n.d., accessed June 30, 2024, https://aws .amazon.com/what-is/data-masking/.
  141. Karen Jain, "Data Anonymization and Data Masking in Healthcare," Medium, October 30, 2023, https://karen-j.medium.com/data-anonymization-and-data-masking-in-healthcare-db2650f04213.
  142. Moultrie, "Fundamental Classification Guidance Review."
  143. Hui Yang et al., Research on Intelligent Security Protection of Privacy Data in Government Cyberspace (Institute of Electrical and Electronics Engineers, April 2020).
  144. "What Is Emergent Behavior in AI?," TedAI, n.d., accessed June 30, 2024, https://www.ai-event .ted.com/glossary/emergent-behavior.
  145. Stephen Ornes, "The Unpredictable Abilities Emerging from Large AI Models," Quanta Magazine, March 16, 2023, https://www.quantamagazine.org/the-unpredictable-abilities-emerging-from-large -ai-models-20230316/.
  146. "What Is Synthetic Data?," IBM, n.d., accessed June 30, 2024, https://research.ibm.com/blog /what-is-synthetic-data.
  147. "What Is Synthetic Data?," Mostly AI, n.d., accessed June 30, 2024, https://mostly.ai/synthetic -data/what-is-synthetic-data.
  148. Rob Toews, "Synthetic Data Is about to Transform Artificial Intelligence," Forbes, June 12, 2022, https://www.forbes.com/sites/robtoews/2022/06/12/synthetic-data-is-about-to-transform-artificial -intelligence.
  149. Andrew M. Dai et al., "Best Practices and Lessons Learned on Synthetic Data," paper presented at the Conference on Language Modeling 2024, October 7, 2024; and "Synthetic Data Generation: A Comprehensive Guide," Let's Data Science, February 10, 2024, https://letsdatascience.com/synthetic -data-generation/.
  150. Linus Luotsinen et al., Deep Learning with Limited Data: A Synthetic Approach (Swedish Defence Research Agency, December 2021).
  151. Haixing Dai et al., AugGPT: Leveraging ChatGPT for Text Data Augmentation (ArXiv, March 2023).
  152. Luotsinen et al., Deep Learning.
  153. Sophia Khatsenkova, "ChatGPT: Is It Possible to Detect AI-Generated Text?," EuroNews, January 19, 2023, https://www.euronews.com/next/2023/01/19/chatgpt-is-it-possible-to-detect-ai -generated-text.
  154. "Learn about Data Standards," Environmental Protection Agency, October 10, 2023, https:// www.epa.gov/data/learn-about-data-standards.
  155. "What Is Data Governance?," Google Cloud, n.d., accessed June 30, 2024, https://cloud.google .com/learn/what-is-data-governance.
  156. Hemant Rawat, "Detecting Data Drift in Machine Learning," Medium, February 11, 2024, https://hemantra.medium.com/detecting-data-drift-in-machine-learning-8ebb6212b034; and Chris Lowrance, e-mail message to author, October 25, 2024.
  157. Stephen M. Walker II, "F-Score: What Are Accuracy, Precision, Recall, and F1 Score?," KLU, n.d., accessed November 5, 2024, https://klu.ai/glossary/accuracy-precision-recall-f1; and "F1 Score in Machine Learning," Deepgram, June 18, 2024, https://deepgram.com/ai-glossary/f1-score-machine -learning.
  158. Hao, "AI Bias."
  159. Lowrance, e-mail message to author.
  160. Adrian de Wynter et al., "An Evaluation on Large Language Model Outputs: Discourse and Memorization," Natural Language Processing Journal 4 (September 2023): 1.
  161. Jan Bode et al., "Towards Avoiding the Data Mess: Industry Insights from Data Mesh Implementations," Journal of the Association for Computing Machinery 37, no. 4 (August 2024).
  162. "What Is ETL (Extract Transform Load)?," Amazon Web Services, n.d., accessed June 30, 2024, https://aws.amazon.com/what-is/et1/; and "What Is ETL (Extract Transform Load)?," Informatica, n.d., accessed June 30, 2024, https://www.informatica.com/tw/resources/articles/what-is-etl.html.
  163. "Data Analytics," Office of the Assistant Secretary of Defense for Acquisition, n.d., accessed June 30, 2024, https://www.acq.osd.mil/asda/dpc/api/data-analytics.html.
  164. Kyle Wiggers, "Unstructured, Which Offers Tools to Prep Enterprise Data for LLMs, Raises $25M," TechCrunch, July 19, 2023, https://techcrunch.com/2023/07/19/unstructured-which -offers-tools-to-prep-enterprise-data-for-llms-raises- \(25 \mathrm{~m} /\).
  165. Mark Pomerleau, "Army S\&T Advisor Flags 'Misconceptions' about Artificial Intelligence," DefenseScoop, August 1, 2023, https://defensescoop.com/2023/08/01/army-st-advisor-flags -misconceptions-about-artificial-intelligence.
  166. HQDA, Operations Process, 2-3.

2. 将AI融入联合规划过程(Joint Planning Process, JPP)的组织适应

引言

管理与整合新兴技术是各国军队面临的共同挑战。虽然资源配置决策提供了变革的“手段”,但组织调整则提供了实现变革的“途径”,构建了整合的框架。新技术的潜在颠覆性决定了所需组织调整的类型,因为某些创新的影响较为直接,而其他则更为复杂。将新兴技术融入组织体系需以审慎的组织设计(organizational design)原则为基础,即“为实现组织目标而创造、修改和/或消除角色、流程与结构”。\({ }^{1}\)
美国陆军未来的组织设计中,一个重要的考量是机器智能(machine intelligence)与人类专长的结合——制度化人工智能能力,以增强态势感知(situational awareness)、行动方案(COA)制定与规划效率,从而简化领导者的决策过程。

然而,陆军在组织上适应AI技术必然会遇到摩擦。陆军是一个官僚体系,天生抗拒变革且深植传统。取消岗位、调整结构或重组流程都会挑战既有的运作方式,并可能削弱组织内部分领导的地位。更复杂的是,设立新岗位并投入资金、时间和人力都存在机会成本。例如,数周或数月的AI培训意味着士兵脱离部队准备时间,或放弃其他训练机会。为了克服变革阻力并有效整合AI,陆军可以评估当前部队结构与组织设计,识别可从旧有架构中撤出资源的领域,并在各级梯队中投资新的力量结构与设计。此外,陆军可通过既有流程为AI赋能的人员建立可持续职业路径,并阐明这些组织变革的预期价值。

将AI作为规划工具整合进组织,需要新机构有效管理资源、协调训练并将实战经验固化为最佳实践。为避免资源浪费和重复投入,新机构必须明确所需的新技能、培训对象、可借助民间力量的资源来源,以及调整人员配置的潜在意外后果。

本章探讨在以人机协同(Human-Machine Teaming, HMT)为核心的规划工具中整合AI的组织层面问题。首先从陆军的战略层面审视通过持续训练与实验所形成的AI战略文件,最后分析这类新技术可能对人员结构带来的意外影响。


陆军层面的AI整合与培训

2018年,陆军成立了陆军人工智能工作组(Army Artificial Intelligence Task Force),隶属于美国陆军未来司令部(US Army Futures Command),直接向陆军参谋长汇报。\({ }^{2}\)
随后,陆军认识到需要新的指挥机构来管理先进技术能力的开发与维持,于是正式组建了未来司令部,使其成为负责力量设计与发展的主导机构,塑造未来陆军。\({ }^{3}\)
未来司令部设立了多个跨职能团队(cross-functional teams, CFTs),以应对技术创新中的缺口,确保陆军各项目的现代化工作可互操作,并降低陆地领域的风险。\({ }^{4}\)

2020年,国防部发布《人工智能教育战略》(Artificial Intelligence Education Strategy),目标是在2035年前打造一支AI赋能的劳动力队伍。为实现此目标,战略规划了四条主线任务、可量化的行动与投资,以确保国防部具备能够在大规模AI平台(包括大型语言模型)环境中灵活运作的专业人员。该战略的核心内容包括:加速AI技术在军队体系中的整合与创新、培养AI技能型人才,以及保持美国在AI领域的领导地位以确保国家安全。\({ }^{5}\)

同年,未来司令部将人工智能工作组重组为陆军人工智能整合中心(Army Artificial Intelligence Integration Center, AI2C)。该机构负责领导陆军的AI现代化进程,推动AI工具的协作应用,构建大规模数据驱动平台,并开发教育项目以建立AI教育管道,为全军不同层级的人员提供培训。\({ }^{6}\)

AI2C与卡内基梅隆大学(Carnegie Mellon University, CMU)合作,建立了正式的教育路径,旨在弥补人才管理缺口,并制定全面的劳动力发展计划,以快速且规模化地为全军提供AI解决方案。借助此合作,AI2C开发了如图2-1所示的人才发展框架。\({ }^{7}\)
该框架涵盖军队与文职体系的多个领导层级,其培训项目已培养约729名陆军人员,从高级领导到AI用户。


图2-1. AI2C劳动力发展框架(work-force development framework)

美国陆军人力资源司令部(US Army Human Resources Command)管理高级平民教育项目(Advanced Civil Schooling Program),俗称“人工智能学者计划”(Artificial Intelligence Scholars Program, AISP)。该计划为士兵提供研究生教育机会,专业方向包括计算数据科学(computational data science)、AI工程(AI engineering)、数据工程(data engineering)或商业智能与数据分析(business intelligence data analytics),并由卡内基梅隆大学授予学位。该项目迄今已培养约81名陆军毕业生,学制四年。毕业后,学员需在陆军未来司令部的软件工厂(Army Software Factory)进行两年岗位实践。2024年,陆军将威斯康星大学麦迪逊分校(University of Wisconsin–Madison)纳入AISP体系,派遣两名学生攻读数据工程硕士学位,以支持陆军AI能力建设。\({ }^{8}\)

目前的人工智能技师计划(Artificial Intelligence Technician Program)为期三年,其中一年学习,另两年为培训与认证阶段,完成后方被视为具备完全资格。\({ }^{9}\)
然而,研究者指出,目前在保障参与AI路径人员的职业竞争力方面仍存在空白:尚未建立可持续的职业路径,也未在作战单位中创建支撑AI士兵教育与实习需求的力量结构或组织设计。

陆军人工智能整合中心项目经理Michael Meneghini在采访中指出,该中心通过外联与培训满足陆军的近期与未来需求。该培训被称为“学徒计划”(apprenticeship program),旨在培养士兵具备内部开发AI能力的技能。培训目标包括从算法与代码编写等技术知识,到预算与采购流程的入门。其目的是使陆军人员能够以执行者、规划者或项目经理的身份开展AI工作。\({ }^{10}\)
若要在2035年前形成AI赋能的劳动力队伍,陆军必须为这类稀缺的AI专业人才建立可持续的职业路径。作为积极举措,陆军在2021年批准了五个新的技能标识符(additional skill identifiers, ASI),以弥补AI人才体系的缺口:\({ }^{11}\)

  • 人工智能数据工程师(Artificial Intelligence Data Engineer, D3):需完成AISP并专攻计算机科学,获得计算数据科学硕士学位。
  • 人工智能数据分析师(Artificial Intelligence Data Analyst, D4):需完成AISP并专攻数据分析,获得信息系统管理与商业智能数据分析硕士学位。
  • 自主系统工程师(Autonomous Systems Engineer, 2W):需完成AISP并专攻机器人、自主系统工程或AI工程。
  • 人工智能技师(Artificial Intelligence Technician, 2V):需完成卡内基梅隆大学的AI技师培训项目。
  • 人工智能云用户(Artificial Intelligence Cloud User, 2U):为最新开发的技能标识符,预计将在2025财年全面纳入陆军体系。

这些技能标识符可授予完成相应教育的军官、准尉和士官。然而,目前尚无普适的AI支援结构设计原则。任务组织的复杂性给AI在陆军中的整合带来挑战,尤其在构建能适应AI创新速度的指挥架构方面。适应AI需要灵活敏捷的组织设计,以促进跨职能团队合作、扁平化指挥链,加快信息流通。因此,AI培训与整合的范围远不止教育几百名军人。

随着更多单位参与劳动力适应及AI专业技术领域的平民加入,陆军势必需要更多培训名额与教育项目。但要将这些新技能纳入组织体系并形成全军范围的需求信号,组织结构的变革方案必须制度化。

组织变革的制度化(Codifying Organizational Change)

在陆军体系中,存在一套完善的正式流程,用于修改和更新编制文件(manning documents),以纳入人工智能(AI)技能标识符(skill identifiers)。根据单位类型不同,总部陆军部(Headquarters, Department of the Army, HQDA)单位通过两种途径更新编制文件:作战部队单位(operating-force units)使用“部队设计更新流程”(Force Design Update, FDU)来更新其编制装备表(Table of Organization and Equipment, TOE);支援部队单位(generating-force units)则通过“变更管理计划”(Change Management Plan, CMP)流程来更新其编制分配表(Table of Distribution and Allowances, TDA)。\({ }^{12}\)

部队设计更新(FDU)的总体目标是为陆军作战部队单位开发新的组织需求,或对现有组织结构进行调整。该流程每季度至每半年进行一次,用于能力开发、需求确定、需求审批及实施决策,从而形成组织设计解决方案,以应对那些在条令、训练、领导力、教育或人事层面无法解决的能力缺口。\({ }^{13}\)
在确立能力需求后,美国陆军训练与条令司令部(US Army Training and Doctrine Command, TRADOC)负责管理整体FDU流程,包括对更新方案的初步验证,以及对部队整合功能领域的分析,以评估新或修订组织设计的经济性、可支撑性和可行性。\({ }^{14}\)
总部陆军部G-3/5/7部队管理局(Force Management Directorate)则保留全陆军的需求确定责任,并作为FDU及其附属流程(FDU Junior)的把关者。后者通常用于处理不影响其他部门的小幅调整,如增设技能标识符。二者的关键区别在于:FDU代表重大组织变革,必须由陆军参谋长或副参谋长批准;而FDU Junior仅涉及轻微调整,可由部队管理局局长批准。\({ }^{15}\)

变更管理计划(CMP)流程则用于更新承担新任务、工作量增加或新增长期职责的支援部队单位。该流程取代了以往的概念计划(Concept Plans)与司令部执行计划(Command Implementation Plans),并根据变更类型分为三个等级:

  • TDA CMP 一级(Category 1):不涉及项目性变更,无需成本收益分析或人力需求验证。
  • TDA CMP 二级(Category 2):在申报单位内部调整结构,无项目性影响。例如,当需更改岗位描述、职位标题、需求与授权分布,或轻微调整力量构成但总体编制不增加时。此类变更同样无需成本收益分析。
  • TDA CMP 三级(Category 3):代表单位编制扩充,即人力需求增加。通常在单位获得新任务、现有力量无法支撑长期工作量或预计未来任务增加时使用。\({ }^{16}\)

在支援部队单位中,TDA CMP流程是唯一能用于反映支持与维持AI平台及大型语言模型(Large Language Models, LLM)所需工作量并更新编制文件的机制。然而,整合的核心并非仅在于新增岗位或技能标识符,而是要在更广范围内培养和培训整个陆军劳动力,使其熟悉AI任务。


劳动力的适应(Adapting the Workforce)

人工智能准备度(AI readiness)指个人、组织及政府采纳并整合AI系统进入其业务流程的准备状态。\({ }^{17}\)
这一概念涵盖技术基础设施、技能型劳动力的可用性、监管框架及社会接受度等多个方面。\({ }^{18}\)
为实现AI准备度,陆军的军职与文职人员都必须进行适应。然而,挑战在于“AI与人机协同(Human-Machine Teaming, HMT)技术的发展速度已超出国防部(Department of Defense, DOD)的大规模应用能力。”\({ }^{19}\)
因此,DOD设立了首席数字与人工智能办公室(Chief Digital and Artificial Intelligence Office, CDAO),并在其下创建数字人才管理办公室(Digital Talent Management Office),作为AI职能群体的管理主体,负责提供全系统指导并推动AI教育转型。\({ }^{20}\)

AI教育的核心基础是数据素养(data literacy)——即人员理解、分析和有效运用数据进行决策的能力。\({ }^{21}\)
这项能力对于解读复杂数据集、提取有意义的洞见并做出提升作战效率的决策至关重要。为此,数字人才管理办公室制定了数字化学习框架(digital-learning framework),以在战略、战役与战术各级梯队中培育具备数字敏锐度的AI赋能劳动力。\({ }^{22}\)

依托数字学习框架及空军数字大学(Air Force Digital University)的订阅系统,国防部的军职与文职人员可24小时不间断地获取关于数据素养、AI及新兴趋势的微课学习资源。\({ }^{23}\)
此外,该办公室通过与约翰斯·霍普金斯大学、麻省理工学院斯隆管理学院(MIT Sloan School of Management)及海军研究生院(Naval Postgraduate School)合作,开设了一系列课程,包括单日讲座与多日高管课程,重点涵盖人员、互操作性及负责任AI(responsible AI)等主题。尽管受资金与时间限制,该办公室计划在2024财年提供约3000个课程名额。\({ }^{24}\)
同时,为与商业部门保持同步并维持技术相关性,该办公室正探索通过“网络特设服务框架”(Cyber Excepted Service framework)引入新人才,目前尚有超过30,000个职位空缺。\({ }^{25}\)

此外,美国人事管理办公室(US Office of Personnel Management, OPM)定义了44项通用能力与14项AI技术专长,如图2-2与图2-3所示。\({ }^{26}\)
OPM正筹划在GS-9至GS-15等级间设置特定岗位序列,并授予机构直接聘用权限(direct hire authority),以加速招聘流程,免除部分候选人排名与评分程序。\({ }^{27}\)
其中包括以下关键岗位:信息技术专家(IT Specialist, 2210)、计算机科学家(Computer Scientist, Artificial Intelligence, 1550)、计算机工程师(Computer Engineer, Artificial Intelligence, 0854)、以及管理与项目分析师(Management and Program Analyst, 0343)。此外,还授予高级数据科学与运筹学职位直接聘用权限。

责任感 灵活性 组织意识 自我管理
注重细节 影响 / 谈判 协作能力 社会技术胜任力
计算机技能 信息管理 知觉速度 战略思维
冲突管理 诚信 / 诚实 规划与评估 压力耐受力
采购与合同 人际交往 政治敏感性 支持多样性
创造力与创新 学习能力 问题解决 教育他人
客户服务 数学推理 项目管理 团队合作
决断力 记忆力 阅读能力 技术胜任力
设计 心理可视化 阅读理解 技术应用
数字协作 建模与仿真 推理能力 技术意识
外部意识 口头沟通 韧性 书面沟通

图2-2. 美国人事管理办公室:AI通用能力(General Competencies)

应用开发 建模与仿真
人工智能 / 机器学习 建模
结果沟通 社会技术系统
数据分析 软件工程
数据提取与转换 系统设计
数据可视化 测试与验证
数学与统计 价值导向设计

图2-3. 美国人事管理办公室:AI技术能力(Technical Competencies)


对于陆军而言,当前由隶属训练与条令司令部的任务指挥卓越中心(Mission Command Center of Excellence, MCCoE)负责数据分析与知识管理的职能。\({ }^{28}\)
MCCoE正开展研究,以建立AI专业人员与技术人员的可持续职业路径,并就AI人员在不同梯队中的配置提出建议,以支持陆军AI平台的开发与长期维持。\({ }^{29}\)

此外,总部陆军部通过执行令009-20(FRAGO 4)正式指定MCCoE为“战略任务05(人才)”(Strategic Effort 05: Talent)的行动负责人。\({ }^{30}\)
其职责主要包括两项:(1)建设一支数据驱动、技术赋能且能支撑多域作战(multidomain operations, MDO)的陆军,以应对全球竞争与武装冲突;(2)提升全军在各梯队快速从数据与现场应用中提取洞见的技术能力与人才储备。\({ }^{31}\)
截至目前,MCCoE已确定四个与AI密切相关的军官功能领域(Functional Areas, FAs):FA49(运筹与系统分析)、FA26A(网络系统工程)、FA26B(数据系统工程)、FA57(建模与仿真)。
同时,总部陆军部还为准尉与士兵确定了与AI相关的数据中心职业路径,包括准尉的255A(数据运作官)与255N(网络运作官),以及士兵的25B(信息技术专家)。陆军平民人力资源局(Civilian Human Resources Agency)则将1515(运筹与系统分析)与1560(数据科学家)定义为文职AI岗位系列。\({ }^{32}\)

MCCoE通过“数据劳动力研究”(Data Workforce Study)提出关键问题以理解AI整合进展:“当前陆军企业与作战环境中的数据专业人才(军职与文职)具有什么特征?2030年的陆军数据专业人才又将具备哪些特征?”\({ }^{33}\)
研究发现,在所有与AI相关的岗位中,商业敏锐度、数学与统计能力是最受欢迎的技能组合。\({ }^{34}\)
图2-4展示了该研究识别出的13项数据专业关键技能。\({ }^{35}\)


图2-4. 数据分析项目中军职与文职人员的关键技能集

随着技术重塑职业路径,新的职业机会将不断涌现。然而,若陆军期望实现转型性变革,其劳动力适应AI的过程中将面临诸多挑战。依赖重复操作与模式识别的岗位最易被自动化取代;相反,需要人类创造力、战略思维及人际沟通的职位将更受需求。未来的岗位格局要求兼具技术与分析能力,同时重视软技能(soft skills),如同理心、伦理判断与适应性。欲在AI领域脱颖而出,专业人员需具备正式教育背景(如计算机科学、数学或数据科学的学位或证书),并通过实习、项目实践及在线课程、研讨等持续学习获得经验。\({ }^{36}\)

尽管首席数字与人工智能办公室的数字人才管理部门不断迭代教育项目以应对变化(自2024财年起已历经四轮更新),但目前该部门发现部队整体的技能提升(upskilling)进度不如预期,而技能再培训(reskilling)耗时更长。目前全军尚无明确的AI能力标准,也缺乏详细的AI技能清单。\({ }^{37}\) 虽然未来司令部与训练与条令司令部等中央机构正加大AI教育与劳动力适应投资,以应对潜在的AI技术革命,但陆军仍有很长的路要走。\({ }^{38}\)

自下而上的改进:作战级人工智能应用

在战略层面,众多组织正在制定政策和战略,以促进AI最终融入部队。然而,对许多部队而言,AI的整合是一个迫在眉睫的问题。在缺乏条令和作战手册(其中应包含详细的流程、程序和最佳实践)的情况下,组织往往采取自下而上的方式来实施AI技术。像驻韩美军(United States Forces Korea)、美国印太司令部(United States Indo-Pacific Command)和第18空降军(18th Airborne Corps)等组织,已经在将AI作为规划工具和作战辅助工具进行测试和试验。这些测试包括启动概念验证(proof of concept),以探索AI在特定情境下的能力和局限性,创造性地研究AI和机器学习(Machine Learning, ML)如何满足现有需求,或结合现有人员利用AI和ML。

例如,驻韩美军在2023年试点了“编程挑战赛”(Coding Challenge 2023),以评估和招聘现有人员中的相关技能。该司令部在模拟环境中举办了这一挑战赛,候选人可以在规定的时间内创建特定解决方案,并有机会展示其方案如何体现高效的AI整合。\({ }^{39}\) 这一挑战识别出具备理想AI技能的人员,从而启动驻韩美军的数据科学项目。此外,该司令部在挑战赛后继续推动人员适应,组建了包括作战分析、规划、数字规划、编程、网络、作战需求和知识管理等职能在内的数字化规划团队。\({ }^{40}\)

美国印太司令部在AI试验方面更进一步,正在开发一种工具,利用AI加速作战规划过程。该司令部计划开发的“STORMBREAKER”,即在第一章中介绍的联合作战规划工具,将成为一个“由权威数据环境支撑、与联合数据集相连的AI驱动的软件工具,用于增强和自动化联合规划过程(Joint Pub 5-0, Joint Planning)”。\({ }^{41}\) STORMBREAKER将把联合规划过程从24个月加速至24天,提高经过审查和批准的行动方案(COAs)的质量,并在和平时期与危机行动规划中增加COA的处理效率。\({ }^{42}\) 其目标是让AI通过现有数据模型模拟能力并生成供审查的输出,从而帮助生成精炼且经过严格评估的COA。\({ }^{43}\)

第18空降军正在作战层面整合AI。自2020年以来,该军团一直在试验分类器模型(classifier models),最近又开始使用大语言模型(large language models),以改善信息流并简化决策过程。\({ }^{44}\) 通过与海军、空军和海军陆战队大约每季度一次的“猩红巨龙”(Scarlet Dragon)联合演习,第18空降军整合了AI技术的优势,以在多域环境中实现决策优势。\({ }^{45}\) 在与“Project Maven”合作的两年半、80次应用测试迭代中,该军团的炮兵旅将其打击目标流程从724分钟缩短至20分钟,实现了数据杀伤力,并解决了争夺环境中的问题。\({ }^{46}\)

值得注意的是,“Project Maven”的能力不仅限于目标打击。通过聚合和分析海量数据,它已经实现了战场态势感知,并促进了后勤规划。\({ }^{47}\)

展望未来,演习指挥官指出,“产业发展的速度远快于联合能力整合与开发系统(Joint Capabilities Integration and Development System, JCIDS);技术正在迅速演进。”\({ }^{48}\) 这种差距往往导致战略在技术能力上滞后,可能限制陆军在短期和近期部署最先进技术的能力。为克服这一困境,训练可以着重于让现有人员与新兴技术结合,以建立人机团队(Human-Machine Teams, HMTs)。

人机协同(Human-Machine Teaming, HMT)

随着AI融入军事编制和民用劳动力,任务指挥与控制(mission command-and-control)原则正面临新的诠释。\({ }^{49}\) 陆军的任务指挥(mission command)强调授权下级决策和分散执行,如今必须纳入AI驱动的能力。这种适应将包括利用AI系统提升态势感知和决策速度,同时确保人类判断始终处于指挥决策的核心。\({ }^{50}\) 这种AI的使用正是人机团队(HMT)的本质。

一个HMT由至少两个智能体组成,且至少包含一名人类和一个AI/ML系统,共同协作以实现一个或多个共同目标。\({ }^{51}\) HMT的协作特征在于追求同一目标、影响当前状态并协调相似的行动。随着联邦政府各机构认识到人类直觉与机器精确性的协同作用,HMT的概念不断发展。HMT的原理在于将人类的认知优势——如判断、直觉和创造力——与AI的计算能力(包括数据处理、模式识别和预测分析)相结合。这种互补关系推动了一种混合的决策模式,其稳健性和有效性可能超过单纯依赖人类或机器。\({ }^{52}\) 在组织设计HMT时,需要明确的交互协议,人类团队成员对AI局限性的理解,以及定期重新评估团队动态,以适应新的挑战和洞察。

为了有效地将人类与AI/ML系统组队,组织必须在组建团队时识别出AI能够增强的流程和任务。为人类成员和AI系统设定清晰的角色,并明确沟通和决策权力的界限,有助于维持团队的凝聚力。建立对绩效的监控机制,以及为人类和AI参与者提供反馈循环,能够促进问责并推动持续改进。\({ }^{53}\)

第18空降军的“猩红巨龙”(Scarlet Dragon)演习是一个典型案例,展示了如何利用HMT与多学科团队的协同效应,在军团作战室实现适应性、数据中心化的作战。通过任务编组,将野战炮兵火力控制技师、规划人员、目标分析员、数据科学家、情报分析员、提示工程师以及运筹学与系统分析员组织在联合特遣部队框架下,团队为指挥官在多种环境中提供了快速决策优势。\({ }^{54}\) 通过这些团队结构,第18空降军确保了AI解决方案的开发与部署与其战术和战略目标保持一致,从而提升了团队的决策水平和作战节奏。\({ }^{55}\)

首席数字与人工智能办公室(Chief Digital and Artificial Intelligence Office)提供了另一个HMT结构案例,即在作战司令部数据办公室设立的AI与数据加速(AI and Data Acceleration)数字团队。这些团队由数据专家组成的作战团队和具备高级技能的机动支援团队组成,根据需要启用以支持数字解决方案。\({ }^{56}\) 该举措为AI和数据加速团队提供了工具和资源,以便在多个领域(包括财务管理、后勤与供应链、劳动力与人事、全球兵力管理以及高层决策支持)加速决策制定。\({ }^{57}\) 这些以数据为中心的团队获得三年的资源支持,旨在作为“全球信息优势实验”(Global Information Dominance Experiment)的一部分,加快“联合全域指挥与控制”(Joint All-Domain Command and Control, JADC2)的战略目标。\({ }^{58}\)

任务指挥卓越中心(Mission Command Center of Excellence)作为陆军人才管理数据与分析的倡导者,构想在陆军兵种组成司令部层级的人机团队包括:一名数据科学家(如1560),用于提供实时数据和信息;一名拥有FA49 R1J认证的运筹学与系统分析师,领导兵棋推演;一名数据工程师,用于构建数据集;以及一名FA57模拟军官,用商业智能、仪表板和开发者应用动态展示数据。\({ }^{59}\) 通过以决策为导向的数据努力,这一组织结构的前提是通过企业化方法充分利用数据和分析来支撑作战和战备,如图2-5所示。\({ }^{60}\)


图2-5. 企业级团队与纵深支援(Enterprise teaming and reach back)

在师级及以下层面,可以组织专门的分析团队来处理各类任务,并由连接至核心企业组织的专业网络提供支撑。分层的纵深支援能力能够增强陆军兵种组成司令部的分析能力,帮助指挥官满足部署部队的作战与战术需求,完成兵种和地区的分析任务,并聚焦部队现代化。\({ }^{61}\)

HMT的结构是有意设计的,其多样性在战略、作战和战术各级均不相同。\({ }^{62}\) 在国防部和陆军各组织的HMT结构综合应用下,AI在HMT中的角色和职责会因层级和任务集而异。不可避免地,HMT的结构带来了角色和职责的重组。诸如数据录入、日程安排、行政支持和基本客户服务咨询等重复性、常规性任务是自动化的主要候选。AI/ML算法可以轻松处理涉及模式识别、可预测的体力劳动和简单决策过程的任务,这意味着围绕这些职能的角色将发生最大变化。\({ }^{63}\) 但值得注意的是,随着部分任务被自动化,新的角色也随之产生,用于创建、维护和监督AI系统,从而推动岗位市场的动态转变,而不仅仅是减少岗位。通过AI增强而大幅提升的角色和职能很可能包括监视、后勤管理、人力资源、维护、数据分析和网络安全。通过自动化常规任务来减轻军事与文职劳动力的负担,将释放人力资源投入更复杂和创造性的工作。但这些调整也可能带来意料之外的后果。

意料之外的后果:AI对陆军劳动力的影响

AI的出现重新定义了军事行动,并预示着陆军组织内人员角色可能发生的转型。AI预计将增强涉及重复性任务、数据处理和分析的岗位。随着AI可能承担大量职能,陆军必须考虑对劳动力的影响,并探索将部分人员重新分配至需要独特人类技能的岗位,如创造力、复杂问题解决和人际沟通。\({ }^{64}\)

陆军在适应组织以整合AI时,还必须应对潜在的心理风险,包括AI与自动化系统的部署对劳动力带来的不利影响。\({ }^{65}\) 陆军是一个以人为本的组织,对技术的依赖增加可能会遇到文化阻力。当技术进步加速时,劳动力的不满情绪也可能加剧,这就需要制定谨慎的劳动规范,以优先保障人类福祉和有意义的就业。\({ }^{66}\) AI在陆军范围内的有效性毫无疑问将取决于其可用性和人类的可接受性。\({ }^{67}\)

AI对劳动力的心理影响是一个多维度问题。部署AI可以通过自动化重复性任务来减少倦怠,从而可能提升工作满意度并创造更多创造性机会。\({ }^{68}\) 同时,心理风险也可能因就业机会减少、人类因监控与绩效指标增加而承受更多压力而表现出来。此外,随着常规任务的自动化,心理风险还可能加剧社会经济差距。差距扩大可能导致就业不安全感上升,使陆军雇员在岗位上感到情绪受到威胁,无法维持现状,从而产生个人压力。\({ }^{69}\) 一种应对方式是强调AI解决方案的透明性,通过规范组织变革来建立信任并减少对工作被取代的担忧。这种方法可以包括为受自动化影响的人员提供安全保障与再培训机会,从而培育一支能够适应技术变革的韧性劳动力。

整合AI的另一个潜在心理效应是责任转移,随着更多网络安全岗位实现自动化并由机器管理,如果发生攻击,人类团队成员可能在组织环境中感知到自身责任减轻。\({ }^{70}\) 尽管HMT具有优势,但人类操作员过度依赖AI的可能性令人担忧。\({ }^{71}\) 当人类对自动化系统过于信任时,可能会变得自满,降低警惕性和监督力。\({ }^{72}\) 过度依赖AI会导致一种被称为“自动化偏见”(automation bias)的现象,即在人类面对AI建议时可能忽视或低估自身直觉或其他信息。\({ }^{73}\) 减轻自动化偏见风险需要持续的AI局限性教育和培训,培育批判性思维文化,并设计具备制衡机制的系统,鼓励人类积极参与决策过程。

此外,人类认知中固有的偏见可能在AI算法开发过程中无意间转移到算法中,从而导致偏颇的决策过程。通过承认并积极应对人类的局限性,HMT能够有效发挥双方的优势。\({ }^{74}\) 然而,将AI等颠覆性技术融入既有组织框架,必然会对人类产生心理影响。一些潜在的意外后果可能在重塑组织以增强AI适应性时得到缓解,但其他未知的后果很可能仍将出现。

结论

军事规划是由团队完成的。尽管AI在技术上尚未发展到能够创建通用作战图或充当虚拟指挥官的程度,但第18空降军(18th Airborne Corps)和美国印太司令部(United States Indo-Pacific Command)等组织已经展示了将这一新兴技术纳入规划过程的价值。人工智能(AI)技术是可以利用的工具,作为规划团队的潜在补充。但使用AI需要培训。国防部已经制定并规范了集中化计划,以使军事劳动力更具AI适应性。陆军在军种层面落实了国防部的战略文件,识别出不同层级AI整合所需的知识和技能,并为部分人员提供关键培训资源。然而,利用新的AI工具不仅仅依赖于少数专家的存在,或某个作战单位向上级司令部寻求支援的能力。相反,将机器学习(ML)和数据驱动技术整合进来,以改善态势感知和行动方案(COA)制定,将要求几乎所有参与规划过程的人员获得新的知识和技能。

在构建AI人才库的过程中,陆军还必须考虑如何应对未来在留住受过教育、经验丰富且能够推动开发和维持先进技术所需变革的AI专业人员方面的缺口。陆军可以通过体制性改革实现这一目标,例如为军官设立AI专业领域,为准尉建立AI技术员路径,并为士官和士兵建立AI用户路径。然而,尽管培养个体是AI整合的前提,陆军还需要进行组织调整,以便部队能够运用新的AI工具。这些调整将根据任务和结构而有所不同,但陆军可以从正在进行的演习以及各组织自下而上的改进中提炼出普遍性的经验,探索如何将AI纳入规划工具。

最后,超越当前的试验,陆军必须整体性地评估现有的部队结构和组织设计,识别缺口,并制定可行的计划来在各级加以应对。潜在的机会包括从传统结构中撤出并投资于新的部队结构。这些机会包括重新调整职责分工以及增加职能,以优化劳动分工和信息流动。应对缺口的直接方式是向陆军内部组织设计中寻找,需要将哪些岗位编码为AI专业人员、技术员或用户。将这些组织变革加以制度化是迈向AI适应性部队的艰难下一步。然而,如果军种要实现适应,就必须缓解文化阻力并克服潜在的官僚摩擦。这可以通过向高级领导传达预期适应的价值,并对部队保持透明,说明必要的权衡与相关机会成本来实现。除了因调整角色和职责可能产生的后果之外,实质性的变革很可能还需要额外的资源,这是与整合新兴技术相关的另一项挑战。

Endnotes

  1. Douglas E. Waters, "Structural Factors in Department of Defense Decision Making" (faculty paper, Department of Command, Leadership, and Management, US Army War College, December 2020), 2; and Douglas E. Waters, "Understanding Strategic Thinking and Developing Strategic Thinkers," Joint Forces Quarterly 63, no. 4 (2011): 113-19.
  2. Sydney J. Freedberg Jr., "Army AI Task Force Comes to Pittsburgh, c/o CMU," Breaking Defense, November 28, 2018, https://breakingdefense.com/2018/11/army-ai-task-force-comes-to-pittsburgh -c-o-cmu/.
  3. Jaspreet Gill, "Exclusive: New Army Directive Shakes Up Modernization Enterprise," Breaking Defense, May 4, 2022, https://breakingdefense.com/2022/05/exclusive-new-army-directive -shakes-up-modernization-enterprise/.
  4. "Army Futures Command: Who We Are," U.S. Army, n.d., accessed January 13, 2025, https:// www.army.mil/futures#org-who-we-are.
  5. Department of Defense (DoD) Joint Artificial Intelligence Center and DoD Chief Information Officer, 2020 Department of Defense Artificial Intelligence Education Strategy (DoD, September 2020).
  6. Nicholas Park, "Army's Pittsburgh-Based Center Accelerates Development of AI Applications," U.S. Army, October 12, 2021, https://www.army.mil/article/251079/armys_pittsburgh_based_center _accelerates_development_of_ai_applications.
  7. Jacqueline Coffman, interview by the author, January 4, 2024.
  8. Micheal Mechell, e-mail message to author, February 13, 2024.
  9. US Army Futures Command, Emerging Technology Opportunities Catalog Fiscal Year 2024 (US Army Futures Command, 2024).
  10. Michael Meneghini, interview by the author, March 2024.
  11. Micheal Mechell, e-mail message to author, April 9, 2024.
  12. Headquarters, Department of the Army (HQDA), Force Development and Documentation Consolidated Policies, Army Regulation 71-32 (HQDA, March 20, 2019), 21-23; and HQDA, Force Development and Documentation Consolidated Procedures, Department of the Army Pamphlet 71-32 (HQDA, 2019), 1-40. These documents provide essential definitions and concepts for terms referenced in the section like generating force, operating force, table of organization and equipment, and table of distribution and allowances. A baseline understanding and familiarity with key force-management terminology is a prerequisite to understanding how to update Army manning documents to capture mission-mandated workloads to support new artificial intelligence capabilities.
  13. James L. Kennedy, "Help Is Here: How to Change Equipment Authorizations," U.S. Army, April 19, 2018, https://www.army.mil/article/203929/help_is_here_how_to_change_equipment _authorizations.
  14. HQDA, Documentation Consolidated Policies, 2.
  15. US Army War College, How the Army Runs: A Senior Leader Reference Handbook (US Army War College, 2020), 3-18-19.
  16. US Army War College, How the Army Runs, 3-32-33.
  17. James M. Rippee, interview by the author, February 21, 2024.
  18. UN Educational, Scientific, and Cultural Organization, Readiness Assessment Methodology: A Tool of the Recommendation on the Ethics of Artificial Intelligence (UN Educational, Scientific, and Cultural Organization, 2023).
  19. Tate Nurkin and Julia Siegel, "Applications of Human-Machine Teaming," in Battlefield Applications for Human-Machine Teaming: Demonstrating Value, Experimenting with New Capabilities, and Accelerating Adoption (Atlantic Council, 2023), 2-9.
  20. Angela Cough, "DOD Tackles Talent Management for the AI Age," GovCIO, March 5, 2024, https://govciomedia.com/dod-tackles-talent-management-for-the-ai-age/.
  21. Erik Davis, "The Need to Train Data-Literate U.S. Army Commanders," War on the Rocks, October 17, 2023, https://warontherocks.com/2023/10/the-need-to-train-data-literate-u-s-army -commanders/.
  22. Lisbeth Perez, "CDAO Enabling Workforce to Harness Data Analytics, AI," MeriTalk, September 30, 2024, https://www.meritalk.com/articles/cdao-enabling-workforce-to-harness-data -analytics-ai/.
  23. Brian Mahar, "Digital University Offers More Educational Opportunities for Airmen," Air Education and Training Command, March 8, 2022, https://www.aetc.af.mil/News/Article-Display /Article/2958585/digital-university-offers-more-educational-opportunities-for-airmen/.
  24. Debra B. Moore, interview by the author, February 21, 2024.
  25. Angela R. Cough, interview by the author, February 28, 2024.
  26. The table shown in figure 2-2 was created by the authors. US Office of Personnel Management, The AI in Government Act of 2020 - Artificial Intelligence Competencies (Office of Personnel Management, July 6, 2023).
  27. "Direct Hire Authority," U.S. Office of Personnel Management, n.d., accessed January 27, 2025, https://www.opm.gov/policy-data-oversight/hiring-information/direct-hire-authority/#url=Fact-Sheet.
  28. James M. Rippee, interview by the author, February 8, 2024; and Alfred Hull, "Data: The Key to Modernization" (PowerPoint presentation, Office of the Assistant Secretary of the Army, Acquisition, Logistics, and Technology, October 11, 2022), https://api.army.mil/e2/c/downloads/2022/11/02 /fdfd99c2/b3-data-the-key-to-modernization-panel.pdf, 3.
  29. Rippee, interview by the author, February 8, 2024; and Hull, "Key to Modernization," 5, 13.
  30. Rippee, interview by the author, February 8, 2024; and Hull, "Key to Modernization."
  31. Rippee, interview by the author, February 8, 2024; and Hull, "Key to Modernization," 3.
  32. Christopher I. Eastburg, "Data Centric Career Pathways, FA49 ORSA LPD," unpublished PowerPoint slides in the author's possession, January 24, 2024.
  33. Rippee, interview by the author, February 8, 2024; and Hull, "Key to Modernization," 6, 9, 10, 12.
  34. Rippee, interview by the author, February 8, 2024; and Hull, "Key to Modernization," 12.
  35. Rippee, interview by the author, February 8, 2024.
  36. Ekaterina Novozhilova et al., "Looking towards an Automated Future: US Attitudes towards Future Artificial Intelligence Instantiations and Their Effect," Humanities and Social Sciences Communications 11, no. 1 (2024): 132.
  37. Chief Digital and Artificial Intelligence Office, "CDAO Digital Talent Management Goals," unpublished document in the author's possession, January 22, 2024; Rippee, interview by the author, February 8, 2024; and Hull, "Key to Modernization," 11, 12.
  38. Debra B. Moore, "Disruptive Technologies and the Changing Character of War: Artificial Intelligence" (presentation, Professional Military Education Faculty Workshop Series, Carlisle Barracks, PA, February 21, 2024).
  39. "USFK 2023 Pt. 2 Coding Challenge," United States Forces Korea, n.d., accessed September 2023, https://www.usfk.mil/Coding-Challenge-2023/.
  40. Nicklaus (Glock) M. Walker, interview by the author, November 14, 2023; and Nicklaus (Glock) M. Walker, e-mail message to author, November 14, 2023.
  41. Nathan Dietrich, interview by the author, November 15, 2023; and US Army Center for Army Analysis and United States Indo-Pacific Command J5X, "J5 Stormbreaker Joint Operational Planning Toolkit (JOPT)," unpublished PowerPoint presentation in the author's possession.
  42. Nathaniel Dietrich, interview by the author, November 2, 2023; and US Army Center for Army Analysis and United States Indo-Pacific Command J5X, "J5 Stormbreaker."
  43. Laura Heckmann, "Indo-Pacific Command to Harness AI for Operational Planning," National Defense, March 25, 2024, https://www.nationaldefensemagazine.org/articles/2024/3/25 /indo-pacific-command-to-harness-ai--for-operational-planning.
  44. Todd South, "Army's 'Scarlet Dragon' Uses AI with Navy, Air Force and Marine Assets to Rapidly Find, ID and Destroy Targets," Army Times, October 7, 2021, https://www.armytimes.com/news /your-army/2021/10/07/armys-scarlet-dragon-uses-ai-with-navy-air-force-and-marine-assets-to-rapidly -find-id-and-destroy-targets/.
  45. Jason Miller, "In a Multi-Domain Environment, DoD Leaning on Data, AI to Make Faster Decisions," Federal News Network, December 7, 2021, https://federalnewsnetwork.com /federal-insights/2021/12/in-a-multi-domain-environment-dod-leaning-on-data-ai-to-make-faster -decisions/.
  46. Joseph M. O'Callaghan, interview by the author, December 4, 2023.
  47. Rizwan Choudhury, "Project Maven: The Epicenter of US' AI Military Efforts," Interesting Engineering, March 2, 2024, https://interestingengineering.com/military/project-maven -the-epicenter-of-us-ai-military-efforts.
  48. O'Callaghan, interview by the author.
  49. Nathaniel D. Bastian, "Building the Army's Artificial Intelligence Workforce," Cyber Defense Review 5, no. 2 (2020): 59-64.
  50. Bastian, "Army's Artificial Intelligence Workforce," 64.
  51. Vincent A. Lillard et al., DATAWorks 2022: Topological Modeling of Human-Machine Teams (Institute for Defense Analyses, April 2022), 2.
  52. Chief Digital and Artificial Intelligence Office, Human Systems Integration Test and Evaluation of Artificial Intelligence-Enabled Capabilities (Chief Digital and Artificial Intelligence Office, April 2024), 46-47; and Ian Palmer, "Accelerating Decision-Making through Human-Machine Teaming," Wild Blue Yonder, June 28, 2024, https://www.airuniversity.af.edu/Wild-Blue-Yonder/Articles/Article -Display/Article/3816647/accelerating-decision-making-through-human-machine-teaming/.
  53. "AI Guide for Government: Organizing and Managing AI," IT Modernization Centers of Excellence, n.d., accessed January 27, 2025, https://coe.gsa.gov/coe/ai-guide-for-government /organizing-managing-ai/index.html.
  54. O'Callaghan, interview by the author.
  55. O'Callaghan, interview by the author.
  56. Terri Moon Cronk, "Hicks Announces New Artificial Intelligence Initiative," DoD, June 22, 2021, https://www.defense.gov/News/News-Stories/article/article/2667212/hicks-announces -new-artificial-intelligence-initiative/.
  57. How Are Federal Agencies Harnessing Artificial Intelligence?: Hearing before the House Oversight Comm. on Cybersecurity, Information Technology, and Government Innovation, 118th Cong. 64 (2023) (statement of Dr. Craig Martell, Chief Digital and Artificial Intelligence Officer, Department of Defense).
  58. Cronk, "New Artificial Intelligence Initiative."
  59. Rippee, interview by the author, February 21, 2024; and Bastian, "Army's Artificial Intelligence Workforce," 59-64.
  60. Rippee, interview by the author, February 21, 2024.
  61. Rippee, interview by the author, February 8, 2024.
  62. Hull, "Key to Modernization."
  63. Patricia McDermott et al., Human-Machine Teaming Systems Engineering Guide, report no. MP180941 (MITRE Corporation, December 11, 2018).
  64. Nurkin and Siegel, "Human-Machine Teaming," 34.
  65. Amber Grace Young et al., "Organizing Workers and Machine Learning Tools for a Less Oppressive Workplace," International Journal of Information Management 59 (2021).
  66. Young et al., "Organizing Workers."
  67. Young et al., "Organizing Workers," 101.
  68. Emily Harris, "AI-Drafted Responses to Patients Reduced Clinician Burnout," JAMA 331, no. 17 (2024): 1440.
  69. Renbao Liu and Yige Zhan, "The Impact of Artificial Intelligence on Job Insecurity: A Moderating Role Based on Vocational Learning Capabilities," Journal of Physics: Conference Series 1629, no. 1 (2020): 1-8.
  70. "'Suffering Distancing, Hallucinations': AI \& ChatGPT's Problems and Pitfalls," ProQuest, August 29, 2023, https://www.proquest.com/newspapers/suffering-distancing-hallucinations-ai-amp /docview/2858330955/se-2.
  71. Mustafa Demir et al., "Team Situation Awareness within the Context of Human-Autonomy Teaming," Cognitive Systems Research 46 (2017): 3-12.
  72. Colleen E. Patton et al., "Supporting Detection of Hostile Intentions: Automated Assistance in a Dynamic Decision-Making Context," Cognitive Research: Principles and Implications 8, no. 1 (2023): 109.
  73. Demir et al., "Team Situation Awareness," 3-12.
  74. Liu and Zhan, "Impact of Artificial Intelligence," 103.

3. 人工智能(AI)整合与保障的资源配置

引言

本章探讨美国国防部(Department of Defense, DoD)为将人工智能(AI)、机器学习(Machine Learning, ML)和数据技术整合到作战能力中所做的努力。目前,国防部通过三种方式来整合这些技术:自上而下的方法,即在制度层面进行技术决策;针对特定组织的自下而上的方法,即解决方案满足特定需求;以及可扩展的自下而上方法,即解决方案应能在类似组织中规模化复制。经过对国防部多个组织为期四年的研究,我们发现AI/ML采购中与私营部门技术提供商的关系,与传统采购流程中的私营部门关系非常不同,并且对于保持关键技术的步伐和成功整合至关重要。因此,在整合AI/ML技术时,要将与私营部门厂商的关系与保持技术同步的需求割裂开是困难的。鉴于AI/ML项目在各类装备中广泛存在,其整合经验将影响几乎所有类别的装备。

政府与产业在获取和整合AI/ML技术方面的关系,根本上有别于更常规系统的流程。传统采购系统往往过于昂贵且缓慢,难以跟上不断演进的技术和能力。AI/ML系统的一个显著特征是,它们的能力会随着使用而进化。例如,一个依赖AI分类器模型的打击系统,随着使用能够检测越来越复杂的模式,从而从简单的分类功能发展到更具预测性的能力。管理AI/ML系统的演进需要专业技术专长,而这些专长通常不在负责的军人中,因为他们的训练和教育主要是运作AI/ML系统所支持的军事决策与作战流程。因此,即便在战斗中,军人也必须依赖私营部门的专长来操作AI/ML系统。此外,所需专长往往分散在不同的承包商之间,若专有设备和软件之间无法有效通信,协调会十分困难。

建立更完善的AI/ML整合流程

国防部正在经历重大转型,努力应对利用AI/ML技术应用的复杂性。为了推动这种转型,国防部正对新兴技术进行重大投资。事实上,布鲁金斯学会(Brookings Institution)在2023年的一项合同授予研究显示,AI项目投资增加了150%,从2.61亿美元增长到6.75亿美元,未来合同授予金额有可能增加数十亿美元。\({ }^{1}\) 最近,在2025财年的预算中,国防部申请了18亿美元用于AI/ML的研究、开发、测试与实验(RDT\&E),并为探索AI整合的军种项目资金线提供支持。\({ }^{2}\)

对国防部而言,AI整合的重点是那些能够带来持久决策优势的工具,这种优势表现为战场态势感知与理解、适应性兵力规划与应用、快速精准且具有韧性的杀伤链、具有韧性的保障支持,以及高效的企业业务运作。\({ }^{3}\) 然而,这些成果并没有定义统一的标准值,各军种自行设定,有时甚至存在不兼容的需求。\({ }^{4}\) 当前与专门资源挂钩的AI项目主要包括:能实现决策优势的项目化计划(Programs of Record, PORs)、首席数字与人工智能办公室(Chief Digital and Artificial Intelligence Office)的研发项目,以及军种研究实验室的研发项目。\({ }^{5}\)

尽管如此,由于AI/ML整合涉及国防部的各类职能和项目,包括主要系统、作战职能和业务流程,实际资金流向难以追踪。值得注意的是,许多AI/ML应用仍处于测试和评估阶段,这进一步增加了准确确定成本需求的难度。从资源角度来看,目前探索与转型的过程使得在规划时孤立出AI的具体成本十分困难,因为这些成本未按职能分类。\({ }^{6}\)

因此,当前的需求和采购流程要求作战单位寻找创造性的方式来获取AI解决方案。将满足专业化和即时需求的AI应用与现有的大规模项目挂钩,可能会阻碍作战层面快速测试和实验的能力。尽管首席数字与人工智能办公室认识到各级快速整合的需要,并精简了采购流程,以促进AI问题与商业厂商和解决方案的对接,但用户往往仍需从作战经费中为项目提供资金。\({ }^{7}\) 当作战司令部缺乏专门的研发预算来快速为AI测试提供资金时,这种资源获取方式便会成为挑战。因此,当前的AI需求通常通过个人关系或合作伙伴关系来满足,而不是通过正式流程。\({ }^{8}\)

虽然一些军种已经为专门的数据团队设立了资金需求,以解决特定的AI相关问题,但尚未建立正式流程。\({ }^{9}\) 引入一个专门的近程解决方案流程,可以让作战单位在满足独特需求的同时,进行AI解决方案的试验与实施,并在当前流程下兼顾可扩展的需求。\({ }^{10}\) 为了更好地理解这一挑战,本节将深入探讨国防部当前的资源配置路径,重点介绍若干作战应用案例,并解释AI/ML整合是如何获得资源支持的。

2021年10月,国家人工智能安全委员会(National Security Commission on Artificial Intelligence)发布了《最终报告》,建议国防部“在2025年前实现军事AI就绪状态”。\({ }^{11}\) 报告建议包括推动组织改革、设计创新的作战概念、建立AI和数字化准备的绩效目标、定义联合作战网络,以及加强和聚焦国防部的AI研发投资组合。报告还建议极端性投资,即将国防部预算的3.4%(每年约80亿美元)投入AI研发,使其投资水平与私营部门持平。\({ }^{12}\) 为响应该委员会的建议,副国防部长于2022年2月成立了首席数字与人工智能办公室,以加速AI的规模化应用及其在国防部的影响。\({ }^{13}\)

国防部于2023年11月发布了《数据、分析与人工智能采用战略》(Data, Analytics, and Artificial Intelligence Adoption Strategy),以整合并取代之前由联合人工智能中心(Joint Artificial Intelligence Center)和国防数字服务(Defense Digital Service)开展的工作。针对2024与2025财年,国防部申请了18亿美元的RDT\&E资金,用于AI测试,以支持“在安全可靠的平台上交付和采用负责任的AI/ML能力、劳动力发展,以及国防部范围内的数据管理与现代化工作”。\({ }^{14}\)

国防部的资金申请涵盖了AI应用的开发、测试和初步整合,但未包括保障成本。\({ }^{15}\) 尽管国防部正推进AI采购,美国政府问责署(Government Accountability Office, GAO)最近指出了两个关键缺陷,限制了政府对AI应用成本的理解。

  • 项目分类:2022年,美国政府问责署的一份报告强调,由于缺乏标准定义,AI活动难以追踪;AI可能作为某些系统中的一项能力而被整合进来,导致部分项目分类含糊。\({ }^{16}\)
  • 指导方针:2023年,美国政府问责署的报告强调,国防部和各军种应制定AI专门的指导方针和采购战略,以增强整合。该报告指出,缺乏指导使各指挥部“按各自的方式进行采购,这在将AI纳入现有采购路径时可能造成挑战”。\({ }^{17}\)

进一步复杂化的是,《数据、分析与人工智能采用战略》将AI整合视为一套“需求层次”,代表国防部的目标:高质量数据、深度分析与指标,以及负责任的AI。要实现这些目标,必须建立数据管理和数字人才管理的流程,以及AI生态系统、AI基础设施和治理的开发与维护。\({ }^{18}\) 对AI应用的资源配置远不止购买一个算法和开发一个数据集。它涉及完整的AI生命周期,包括前期成本(如许可费、基础设施与实施),以及后续成本(如维护、模型训练、安全与更新)。此外,资源配置还涉及人员、培训和数据相关的开销,如收集、存储和清洗,而这些任务大多由外部承包商完成。AI生命周期是一个非线性、迭代的过程。\({ }^{19}\) 一旦AI模型开发完成,开发团队需要持续监控和更新,与客户密切合作以确保有效性。这种持久的关系通常被称为敏捷过程(agile process)。\({ }^{20}\) 在实践中,AI生命周期对国防部来说充满挑战,因为各军种条块分割,以及在技术、劳动力、计算基础设施、数据和政策方面的不足,限制了国防部“开发、采购和部署对国家安全至关重要的AI能力”的能力。\({ }^{21}\)

目前,国防部的AI试验与整合工作正在不同组织中展开,资金来源各不相同。一些组织利用PORs、首席数字与人工智能办公室提供的资金、作战经费,甚至创造性地利用其他组织的资金,或多种资金组合。\({ }^{22}\) AI模型也处于不同的测试阶段,可能需要数年投资才能形成作战能力。但目前AI能力尚未实现规模化。

正如前一章对组织挑战的讨论所强调的,美国陆军通过自下而上与自上而下的方法来推进AI技术整合。尽管陆军当前的努力尚未同步,但它们为陆军通过作战测试探索和识别AI需求提供了可能。《陆军数据计划》(Army Data Plan)强调了作战测试方法,并指出在未首先评估AI在实地应用的生命周期之前,军种无法提供规模化的成本估算。\({ }^{23}\) 在具体审视陆军规划工作时,存在三种主要的AI工具开发与整合方法:

  • 针对单个组织的自下而上方案:AI解决方案仅为某一组织的特定任务而开发,由单位作战经费驱动和资助,专注于该组织的需求。例如,驻韩美军开发的行动方案(COA)生成应用,以支持作战计划的制定。
  • 可扩展的自下而上方案:组织作为客户或用例,围绕一个企业级问题进行探索,资金来源包括PORs和单位作战经费。例如,第18空降军在第一、二章讨论的“Project Maven”应用,AI/ML技术在火力规划中提供支持,并能复制到其他火力支援协调组织中。
  • 自上而下方案:AI工具通过军种主导的采购整合进POR,在实地进行测试和改进,并在项目中集中管理。例如,“Project Linchpin”,它是陆军第一个目标在于提供AI/ML流水线的POR。\({ }^{24}\)

正在进行的AI应用,例如用于可视化通用作战图和生成实时参谋评估的工具,拥有多样的资金来源与关系。

  • 军团司令部识别出一个AI/ML需求,用于识别火力任务的军事目标。火力参谋军官利用某作战支援机构的POR来开发AI解决方案。该POR承担需求,因为该需求可以扩展至其他军种与作战司令部的要求。\({ }^{25}\)
  • 军团司令部识别出一个AI/ML需求,用于支持后勤规划,通过分析复杂数据集预测供应需求。该POR承担需求,因为其可扩展至其他军种与作战司令部。\({ }^{26}\)
  • 某作战司令部识别出一个AI需求,用于支持规划、兵棋(wargaming)、分析以及多域作战层级行动方案的制定与执行。该作战司令部将该需求作为其2025财年未资助优先事项清单的一部分提交,利用运维(O\&M)资金。\({ }^{27}\)
  • 某联合司令部J-5参谋军官识别出一个AI/ML需求,用于行动方案和作战计划的制定。该司令部未将此需求列为优先事项,该参谋军官也无法将项目从概念推进到执行。需求仅限于该联合司令部的特定领域,而该参谋军官对AI/ML生态系统缺乏足够了解,无法找到其他投资方。\({ }^{28}\)
  • 某战区军事情报旅需要利用AI支持地理空间相关工作,以在活跃作战环境中进行目标生成。陆军某POR承担了该项目,因为它具有紧急作战需求,且可扩展至其他要求。\({ }^{29}\)
  • 某军种组成司令部识别出一个AI需求,用于开发通用作战图,以便在分布式部署下快速收集、分析和共享本军种领域的信息。该需求作为军种项目提交,并与“联合全域指挥与控制”(Combined Joint All-Domain Command and Control, CJADC2)集成。\({ }^{30}\)
  • 某军种组成司令部识别出一个AI需求,用于开发战场管理系统,为联合部队提供实时威胁跟踪,并将其作为未资助需求,纳入该军种组成司令部的预算申请,申请RDT\&E及国防范围资金,并与CJADC2挂钩。\({ }^{31}\)

拨款类型(Types of Appropriations)

不同类型的拨款可用于资助AI模型的开发与整合。AI模型开发的主要资金来源是研究、开发、测试与评估(Research, Development, Test, and Evaluation, RDT\&E)。随着模型逐渐成熟并实现规模化应用,它们会通过采购拨款进行整合,并作为项目化计划(Program of Record, POR)中的保障成本进行预算。然而,理解保障成本很困难,因为AI整合仍处于初始阶段,其嵌入与追踪方式各不相同。无法利用其军种内的RDT\&E预算或军种POR资金的作战单位,必须使用运维(Operations and Maintenance, O\&M)资金来启动小型试点项目。但O\&M并不是支持AI模型开发的可持续途径,它通常与AI模型相关的其他军种需求一起使用,例如人员培训、差旅费用以及举办AI模型测试活动的成本。\({ }^{32}\)

如果AI模型能够应用于超越本组织的问题集,客户可以提议由POR承担费用并实现规模化。如果AI模型仅限于组织的特定任务需求,那么除了最初通过O\&M拨款进行试验外,该组织就没有可持续的资源路径可继续下去,因为O\&M仅用于“在有限时间内提供效益”的事项。\({ }^{33}\) 在当前的采购与需求流程中,AI工具必须过渡到POR中,才能实现长期保障。\({ }^{34}\) 表3-1概述了不同拨款类型及其用途。\({ }^{35}\)

表3-1. 拨款类型与用途 | 拨款类型 | 目的 | 在AI中的用途 | | :--- | :--- | :--- | | 研究、开发、测试与评估(RDT\&E) | 用于研发、测试和评估设备、材料或计算机应用软件
资金用于投资类成本(如先进实验室测试设备)和费用类成本(如研发设施中文职雇员的薪资)
各军种及国防机构均单独获得RDT\&E拨款,并另行拨款支持作战测试与发展测试活动 | AI工具/模型的开发与测试
人员专长 | | 采购(Procurement) | 资助投资类项目
覆盖交付可供作战使用或入库的最终装备所需的全部成本
系统单价超过25万美元
集中管理的最终装备不通过国防营运资金采购
作为系统采购、系统改进、大型寿命延长项目和初始备件的一部分,从国防营运资金采购 | AI模型整合进POR(军种系统)并在项目中进一步完善
保障成本 | | 运维(O\&M) | 用于在有限期间内产生效益的事项(如开支)
示例包括培训、文职奖励、差旅、教育 | 临时任务费用
举办演习/活动以展示和测试AI模型的费用
与AI工具开发相关的数据素养和其他培训 | | 军事人员(MILPERS) | 现役军人和国民警卫队人员的薪资和补偿,以及与人员相关的费用(如永久换防PCS的费用、相关培训、伙食、临时住宿、奖金和退休金计提) | 数据专家(军人)的薪资 | | 军事建设(MILCON) | 大型建设项目,如基地、设施、军事院校等
项目成本包括建筑与工程服务、施工设计、不动产收购和土地收购
资金额度超过400万美元 | 不适用 |


采购类型(Types of Acquisitions)

2020年,国防部建立了自适应采购框架(Adaptive Acquisition Framework, AAF),以为多样化的采购需求提供灵活性和速度。\({ }^{36}\) 但这些采购路径仍归属于各个军种。\({ }^{37}\) 某些采购路径允许军种在标准预算和能力发展流程之外,快速获取AI技术。由于采购和合同流程得到了加速,作战单位获得AI/ML问题的资金与支持所需时间,取决于该单位的需求如何通过军种内部得到编组和优先级排序。表3-2描述了不同的采购路径:软件、主要能力、中层级、紧急能力、国防业务系统和服务采购。\({ }^{38}\)

软件采购路径已被证明对以AI整合为重点的POR最为有利。例如,陆军的“Project Linchpin”利用了软件采购路径来满足其需求。\({ }^{39}\) 其他大型军种POR仍可能使用主要能力路径来满足AI整合需求。但在一个项目中可以同时授权多条采购路径,因此其灵活性取决于军种和项目办公室中采购与合同人员的专业水平。\({ }^{40}\)

表3-2. 采购路径与用途 | 采购路径 | 目的 | 潜在AI示例 | | :--- | :--- | :--- | | 软件(Software) | 及时获取为国防部定制开发的软件能力
不受联合能力整合与开发系统(JCIDS)约束
一年内展示可见成果,并迭代交付新能力
必须每半年向国防部采购与维持副部长办公室(OUSD A\&S)报告数据集
https://aaf.dau.edu/aaf/software/ | 快速开发支持主要系统的AI工具 | | 主要能力(Major capability) | 获取和现代化提供持久能力的军事特有项目(主要国防采购项目、主要系统和其他复杂采购),并遵循结构化的分析、设计、开发、集成、测试、评估、生产和支持流程
遵循JCIDS流程
软件密集部分可通过软件路径获取
https://aaf.dau.edu/aaf/mca/ | 在主要系统中整合AI工具以实现保障 |

采购路径 目的 潜在AI示例
中层级(Middle tier) 在采购项目中快速开发可部署的原型,以展示新能力;和/或快速部署少量具备验证技术的系统,其所需开发最少
https://aaf.dau.edu/aaf/mta/
在主要系统中快速部署AI工具以验证作战可行性
紧急能力(Urgent capability) 在两年内部署能力以满足紧急现有或新出现的作战需求或快速反应
RDT\&E不得超过5.25亿美元,采购不得超过30.65亿美元
开发周期为数周,生产周期为数月
遵循联合紧急作战需求(JUONs)流程
https://aaf.dau.edu/aaf/ucs/
快速部署支持正在进行的应急行动的AI工具
国防业务系统(Defense business systems) 获取支持国防部业务运作的信息系统
适用于国防业务能力及其支持的业务系统,包括“即服务”解决方案,如财务与财务数据、合同、后勤、规划与预算、设施管理、人力资源管理、培训与战备系统
也可用于获取非开发型的软件密集程序(非业务系统)
不遵循JCIDS流程
https://aaf.dau.edu/aaf/services/
用于后勤规划的AI工具
采购路径 目的 潜在AI示例
服务采购(Acquisition of services) 采购总估值达到或超过简化采购门槛(SAT)的合同服务
简化采购涵盖范围广泛,从飞机维护到人员增援等
不遵循JCIDS流程
https://aaf.dau.edu/aaf/services/
以合同服务形式引入专长,帮助制定数据计划和AI实施战略
其他交易权(Other transaction authority, OT) 为国防部提供必要的灵活性,将商业行业的标准和最佳实践纳入其授予工具
正确利用OT,可使政府从传统和非传统国防承包商获取最先进的技术解决方案
OT用于开展基础、应用和高级项目
不是采购合同,不受许多采购法规约束,但必须遵循标准合同法
不遵循JCIDS,且不是采购工具
https://www.acq.osf.mil/asda/dpc/cp/policy/docs/guidebook/TAB%20A1%20-%20DoD%20OT%20Guide%20JUL%202023_final.pdf
已在私营行业开发完成的AI工具
与国防部合作以实现军事应用

首席数字与人工智能办公室在使用其他交易权(OTA)方面引领了国防部社群,以快速将国防部客户的AI能力缺口或技术需求与能够开发快速AI解决方案的私营公司对接。Tradewinds解决方案市场(Tradewinds Solutions Marketplace)利用OTA建立,并为国防部客户提供流程工具以使用OTA来实现其AI解决方案。\({ }^{41}\) 供应商通过首席数字与人工智能办公室采购与保障局进行审查,以“满足《联邦采购条例》(FAR)、《国防联邦采购条例补充》(DFARS)以及适用于国防部其他交易权的法规、政策与指南中的竞争要求”。\({ }^{42}\) 但资金仍由客户负责。\({ }^{43}\)

项目化计划(Programs of Record, PORs)

项目执行办公室负责管理军种和机构的PORs,这些项目通常遵循主要能力采购的标准预算与能力发展流程。但项目执行办公室也有灵活性,可以利用多种采购路径以满足其项目内的需求。以下是两个专注于整合AI能力的POR示例:

  • Project Maven 最初于2017年建立,旨在将AI解决方案整合到国防部的活动中。截至2023年11月,国家地理空间情报局(National Geospatial-Intelligence Agency)已将Maven设为负责AI地理空间情报的军种项目。第18空降军(18th Airborne Corps)曾利用Maven进行目标特征识别,从而支持打击流程。\({ }^{44}\) Maven是一个可在企业范围内扩展的作战需求的例子,随着非地理空间情报的服务转移到首席数字与人工智能办公室,其适用范围得到拓展。\({ }^{45}\)
  • Project Linchpin 是陆军在项目执行办公室情报、电子战与传感器部门下管理的军种项目。其目标是将AI能力整合进类似管理的项目。Project Linchpin是一个新近设立的项目,因此目前支持的作战AI需求用例示例有限。该项目下的第一个军种合同是一份200万美元的合同,旨在“支持Project Linchpin的研究工作,特别是关于可追溯性(Traceability)、可观测性(Observability)、可替换性(Replaceability)和可消耗性(Consumability, TORC)的原则”。TORC框架旨在确保模型与数据的完整性、数据开放性以及模块化开放系统架构(MOSA)的设计。\({ }^{46}\) 处于同一项目组合中的情报系统——战术情报目标接入节点系统(Tactical Intelligence Targeting Access Node),近期通过OTA向Palantir Technologies授予了一份价值1.78亿美元的合同,以支持AI原型能力的开发。\({ }^{47}\)

AI/ML应用的保障(Sustaining AI/ML Applications)

获取AI/ML应用是一回事,保障其长期应用则是另一回事。AI/ML应用可能消耗大量计算能力、带宽和电力,这超出了部署部队可持续支持的范围。鉴于AI/ML应用尚处发展阶段,目前缺乏足够的信息来准确计算组织在应用AI/ML技术时所需的资源与后勤负担。然而,对公开资料和首席数字与人工智能办公室的合同需求文件的审查,能大致展现组织可能面临的情况。随着国防部在更好的基础设施与数据源上的投资,AI/ML技术应用的成本可能会降低或更易于管理。

基础ML模型的成本可达数千美元,而利用大数据和深度学习的高级模型成本可能高达数百万美元。这些成本包括软件、硬件、人才、管理和保障。\({ }^{48}\) 开源搜索提供了若干粗略的成本估算,有助于理解构建AI模型的价格范围:

  • 部署一个最简化的ML模型每年约需6万美元。该成本仅包括模型开发和访问模型的业务流程,不含基础设施、数据或维护成本。\({ }^{49}\)
  • 一家技术初创公司使用亚马逊AWS,将搜索过滤器替换为ML算法来分析输入文本并生成相关服务商列表。该系统的初始版本开发、测试与上线的成本为3.5万美元。\({ }^{50}\)
  • 大语言模型(Large Language Models, LLMs)费用昂贵。例如,训练OpenAI的GPT-3成本超过400万美元。Meta在2023年发布的LLM使用2048个NVIDIA A100 GPU,在1.4万亿个token(约750词≈1000个token)上训练,耗费100万GPU小时,成本约240万美元。微软的Bing聊天机器人据报道需要约40亿美元的基础设施来服务潜在用户群。\({ }^{51}\)

要制定权威的成本估算,客户和供应商必须从以下问题入手:

  • 步骤1:定义问题。我们试图通过AI提升什么?
  • 步骤2和3:收集并准备数据。我们是否有可用数据?数据在哪里?数据归谁所有?若不足如何获取更多?
  • 步骤4和5:构建并测试模型。我们希望尝试哪种AI技术?客户能接受的首个AI迭代的最低性能水平是什么?\({ }^{52}\)

对于自上而下的流程而言,这一估算过程相对直接,但在自下而上的流程中则可能具有挑战性(见图3-1)。在制度层面,陆军可以接触到具备技术与采购知识的人员,而作战层面的组织通常缺乏这类能力。这一差距迫使作战层级的人员参与他们可能未受过充分训练的合同流程,从而导致错误。


图3-1. AI生命周期与采购路径

长期管理AI系统同样复杂且昂贵。就数据管理与AI基础设施而言,首席数字与人工智能办公室管理的数据就绪性(data readiness)绩效工作说明涵盖了开发、获取、筛选、准备、管理或保护数据集,以便用于国防部AI模型和应用的开发、测试、认证和运行。与AI相关的数据与基础设施管理涉及硬件和软件,其成本可能从数千美元到数百万美元不等,取决于组织规模、处理数据量以及需求的深度与复杂性。相关成本包括云计算、混合云和高性能GPU的费用。此外,一些公司选择将硬件成本转移到云端解决方案,如AWS、微软Azure、谷歌云,这些都带有租赁费用。\({ }^{53}\) 表3-3提供了开发和运行AI应用的硬件成本示例。\({ }^{54}\)

表3-3. 硬件成本 | 硬件类型 | 描述 | 成本 | 备注 | | :--- | :--- | :--- | :--- | | 图形处理单元(GPUs) | 用于神经网络训练以支持并行处理能力 | 每块NVIDIA A100约1万美元 | 租赁费用:谷歌云约1.14美元/小时,AWS约3.06美元/小时 | | 现场可编程门阵列(FPGA) | 适用于AI应用,比GPU便宜
但编程困难 | 5美元至100万美元不等,取决于能力 | 成本差异大,视性能需求而定 | | 专用集成电路(ASIC) | 针对特定任务定制,能为复杂AI应用提供高性能 | 价格不定,通常较高 | 成本取决于定制化和性能需求 |

目前,国防部各部门正探索最昂贵、数据密集型的AI应用:大语言模型(LLMs)。\({ }^{55}\) LLMs的主要成本在于所需的大量训练数据。其价格也会随着复杂性增加而提升——参数数量越多,捕捉模式和处理语言任务的能力越强。\({ }^{56}\) 训练成本可能从数千美元到数百万美元不等。\({ }^{57}\) 国防部正在探索商用与内部开发的LLMs。\({ }^{58}\)

任何AI解决方案都始于数据。访问、存储和数据清理的需求取决于AI模型的预期用途。《2023年国防部数据、分析与人工智能采用战略》和《2018年国防部云战略》都提出了数据质量与云存储的目标。\({ }^{59}\) 然而,缺乏一个具备专门资源支持的数据质量与存储的同步方法。\({ }^{60}\) 国防创新委员会指出,这一缺口部分源于数据分散,导致数据的不一致与缺失。\({ }^{61}\)

确保数据不被破坏对AI应用至关重要。在大规模应用中,保持数据清洁可能十分昂贵。数据清理服务的成本取决于多个因素,尤其是数据量与复杂性。因此,成本差异很大。例如,一个包含1万条记录的数据库,清理费用在5000至1.5万美元之间,这意味着拥有数千万条记录的大型公共或私人机构,每次清理的支出可能超过100万美元。\({ }^{62}\) 存储成本则因数据量和可访问性级别而异。用于归档的数据与用于主动发现或应用的数据不同。表3-4展示了微软公司数据湖存储的价格示例。\({ }^{63}\)

表3-4. 存储成本示例 | Azure存储预留容量 | 费用 | | :---: | :---: | | 每月100TB | 1545美元 | | 每月1PB | 15050美元 |

保障、持续改进与安全性同样是AI项目的重要组成部分。微软Azure云服务每年在网络安全研发上的投资超过10亿美元,就是一个例子。\({ }^{64}\) AI模型的开发、整合与执行成本可能很高,且不存在“一刀切”的价格。其成本取决于多种因素。例如,一个只需少量数据的简单AI模型(如用于筛选规划文档的ML算法),初期开发的年成本仅为数万美元。

但更复杂的模型需要大量数据进行训练,例如用于识别多地区行动方案(COA)考量的大语言模型(Large Language Model, LLM),其成本可能在数十万美元至数百万美元之间。数据质量和模型训练是国防部的主要成本驱动因素,使得大规模AI整合相对较新。随着国防部不断学习和测试,它可以逐步形成不断发展的流程,帮助建设和维持AI生态系统。通过对可扩展AI应用与小众AI应用进行明确规范,AI成本有望随着时间推移变得更加精确与透明。

AI的整合有潜力彻底革新作战流程,这对需要全面理解不断演变的作战环境,以制定支持战略与作战目标计划的参谋人员尤为有益。\({ }^{65}\) 规划是一项涵盖所有参谋职能的关键职能,包括行政和作战职能。\({ }^{66}\) 然而,如果没有专门为规划设立的POR,AI在规划中的整合将无法充分发挥其效益。为了全面利用AI在规划中的力量,识别哪些领域需要可扩展的AI应用,哪些领域需要小众AI应用至关重要。

正如Emelia Probasco在研究第18空降军(18th Airborne Corps)AI整合时所指出的,其成功的关键在于采用了开发、安全与运维(DevSecOps)方法,在一个90天周期内进行开发、测试、反馈与生产,将私营部门的专长、安全问题和作战需求整合为一个持续过程。这种方法使第18空降军能够常态化快速引入、淘汰和更新算法与软件解决方案,使开发者能够在系统运行中及时响应操作员需求。私营部门的专长并不限于AI,第18空降军还聘请了一家国防承包商作为系统集成商,管理开发、安全与运维流程。总体而言,第18空降军与包括Palantir Technologies、微软(Microsoft Corporation)、亚马逊(Amazon.com)和Maxar Technologies在内的21家公司开展了合作。\({ }^{67}\)

第18空降军的流程使得一些在传统采购流程中不常见的特征得以实现。在传统方法中,开发人员提供一个可用原型,操作人员进行测试,如果原型被部署,士兵再发现其中的问题。而第18空降军的流程首先允许工程师与操作员直接沟通,从而加快迭代与改进,快速实现所需功能;其次,该流程允许整个团队评估系统性能,而不是仅仅评估项目里程碑;第三,该流程使得系统在部署后能快速应对作战环境的变化。\({ }^{68}\) 支撑这些交互的是一种灵活的合同、资金和风险管理方法,利用了Maven的广域机构公告(broad agency announcements),这些公告用于通过OTAs、合作研发协议、技术投资协议和中介合作协议资助科学研究与实验。\({ }^{69}\) 这些合同机制使得原本与制度性需求相关的资金可以立刻产生作战层面的影响。

在制度层面,国防部在实施AI技术方面已取得重大进展,包括设立首席数字与人工智能办公室(Chief Digital and Artificial Intelligence Office)、增加RDT\&E资金,以及采用多样化的采购路径。然而,目前需求生成与能力获取的流程仍主要掌握在各个军种手中,这使得作战规划人员难以全面探索AI的全部效益。随着AI快速发展,那些已建立关系的组织找到方法利用现有流程(如军种POR和研究实验室合作)。但这种方式可能导致优先事项依据关系而非对全军需求的全面理解来确定。制定数据计划,并确保作战司令部、战区陆军和陆军军团在其层级拥有专门的研发资金,将有助于产生更大的概念并为国防部的规模化与资源分配决策提供参考。

尽管采购流程已发生变化,并且陆军各级对AI整合的重视程度不断提升,但仍需进一步研究以确定阻碍作战层级及时资源配置的结构性与文化性障碍。虽然在军种项目层级维持规模化与整合流程对大型AI解决方案有益,但作战司令部依然有小众需求,并需要直接资金来探索这些需求。要求陆军军团、陆军战区司令部以及地理作战司令部的各参谋部门制定数据计划,或许有助于首席数字与人工智能办公室实现AI的规模化整合。


结论

在全国防部范围内实施关于AI资源配置与资金的政策涉及风险。首先,自下而上的流程去中心化,使得建立能最大化资金效率的全军成果变得困难。其次,意外的资金转移可能导致项目停滞,当资金恢复时重新启动这些项目可能更加困难或昂贵。分散拨款的项目引入了不确定性,许多项目可能被搁置,随着技术演进而迅速过时。AI项目中的这种不确定性可能使与政府合作变得不再具有吸引力,从而减少获取关键技术专长的机会。\({ }^{70}\) 第三,协调全国防部范围内AI/ML项目的挑战造成了难以管理的冗余。即使集中追踪流程具有可见性,请求资源的组织往往却没有。\({ }^{71}\)

随着国防部AI实施预算的增加,另一个风险是“财政幻觉”(fiscal illusion),即错误地认为只要项目获得资金,它就能有效推进。当项目未如预期般表现时,缺乏适当监督、后续跟进与问责会威胁未来的资金。随着国防部及其他政府机构近期的相关要求,总结并传播成功项目的经验教训(包括实际花费多少资金),将有助于确保资金支出保持在正确轨道上。\({ }^{72}\)

Endnotes

  1. Jacob Larson et al., "The Evolution of Artificial Intelligence (AI) Spending by the U.S. Government," Brookings Institution, March 26, 2024, https://www.brookings.edu/articles/the-evolution-of-artificial -intelligence-ai-spending-by-the-u-s-government/.
  2. Will Henshall, "The U.S. Military's Investments into Artificial Intelligence Are Skyrocketing," TIME, updated March 29, 2024, https://time.com/6961317/ai-artificial-intelligence-us-military -spending/; and Office of the Under Secretary of Defense (OUSD) (Comptroller), "Defense Budget Overview United States Department of Defense Fiscal Year 2025 Budget Request" (PowerPoint presentation, OUSD [Comptroller], Washington, DC, March 2024), https://comptroller.defense.gov /Portals/45/Documents/defbudget/FY2025/FY2025_Budget_Request.pdf.
  3. US Department of Defense (DoD), Department of Defense Data, Analytics, and Artificial Intelligence Adoption Strategy: Accelerating Decision Advantage (DoD, June 27, 2023), 4-5.
  4. DoD, Artificial Intelligence Adoption Strategy, 9-10.
  5. The Technology and AI Fight for 21st Century Operations in the Department of Defense: Hearing before the H. Comm. on Armed Services, S. Comm. On Cyber, Information Technologies, and Innovation, 118th Cong. (2024) (statement of Dr. Craig Martell, Chief Digital and Artificial Intelligence Officer, Department of Defense); and US Government Accountability Office (GAO), Artificial Intelligence: DOD Should Improve Strategies, Inventory Process, and Collaboration Guidance, GAO-22-105834 (GAO, March 30, 2022), 8-9.
  6. GAO, Artificial Intelligence: DOD Needs Department-Wide Guidance to Inform Acquisitions, GAO-23-105850 (GAO, June 2023), 21.
  7. GAO, Department-Wide Guidance, 9-10; and DoD, Artificial Intelligence Adoption Strategy, 9.
  8. GAO, Department-Wide Guidance, 23; Alex Miller, interview by the author, April 3, 2024; John Desarro, "Chief Digital Artificial Intelligence Office (CDAO) 101" (PowerPoint presentation, Chief Digital and Artificial Intelligence Office, Falls Church, VA, March 26, 2024); Joseph O’Callaghan, e-mail message to author, February 28, 2024; and "Disruptive Technologies and the Changing Character of War: Artificial Intelligence" (presentation, Future Operating Environment Professional Military Education Faculty Workshop Series [virtual], National Defense University, February 21, 2024).
  9. National Security Commission on Artificial Intelligence (NSCAI), Final Report (NSCAI, March 2021), 68-72.
  10. DoD, Artificial Intelligence Adoption Strategy, 9.
  11. NSCAI, Final Report, 9.
  12. NSCAI, Final Report, 64-72.
  13. Kathleen Hicks, Establishment of Chief Digital and Artificial Intelligence Officer Generative Artificial Intelligence and Large Language Models Task Force, Task Force Lima (DoD, August 10, 2023).
  14. OUSD (Comptroller), "United States Department of Defense Fiscal Year 2024 Budget Request" (PowerPoint presentation, OUSD [Comptroller, Chief Financial Officer], Washington, DC, March 15, 2023), https://comptroller.defense.gov/Portals/45/Documents/defbudget/FY2024/FY2024 _Budget_Request.pdf; and OUSD (Comptroller), "2025 Budget Request."
  15. OUSD (Comptroller), Defense Budget Overview: United States Department of Defense Fiscal Year 2025 Budget Request (OUSD [Comptroller], March 2024).
  16. GAO, DOD Should Improve Strategies, 30-33.
  17. GAO, Department-Wide Guidance, 23.
  18. DoD, Artificial Intelligence Adoption Strategy, 7.
  19. Ryan Peeler, "The Hidden Costs of Implementing AI in Enterprise," Forbes, August 31, 2023, https://www.forbes.com/sites/forbestechcouncil/2023/08/31/the-hidden-costs-of-implementing-ai-in -enterprise/?sh=562de71a4d5c; and GAO, Department-Wide Guidance, 3.
  20. DoD, Artificial Intelligence Adoption Strategy, 5.
  21. Lindsey Sheppard, "Accelerating the Defense Department's AI Adoption," Council on Foreign Relations, April 2020, https://www.cfr.org/report/accelerating-defense-departments-ai-adoption; and GAO, DoD Should Improve Strategies, 37.
  22. GAO, Department-Wide Guidance, 23; and "Scaling AI-Enabled Capabilities at the DOD: Government and Industry Perspectives," Center for Strategic and International Studies, March 28, 2024, https://www.csis.org/analysis/scaling-ai-enabled-capabilities-dod-government-and-industry-perspectives.
  23. Office of the US Army Chief Information Officer, Army Data Plan (US Army, 2022), 9.
  24. Mark Pomerleau, "Project Linchpin Aims to Set Army on Sustainable Path toward Integrating AI into Weapons Programs," DefenseScoop, May 10, 2023, https://defensescoop.com/2023/05/10/project -linchpin-aims-to-set-army-on-sustainable-path-toward-integrating-ai-into-weapons-programs/.
  25. Katrina Manson, "AI Warfare Is Already Here," Bloomberg, February 28, 2024, www.bloomberg .com/features/2024-ai-warfare-project-maven/?srnd=homepage-americas; and Joseph O’Callaghan, e-mail message to author, February 28, 2024.
  26. Rizwan Choudhury, "Project Maven: The Epicenter of US' AI Military Efforts," Interesting Engineering, March 2, 2024, https://interestingengineering.com/military/project-maven-the-epicenter-of-us-ai-military-efforts.
  27. Justin Katz, "US Indo-Pacific Command Seeks $15.3 Billion in New, Independent Budget Request," Breaking Defense, March 9, 2023, https://breakingdefense.com/2023/03/us-indo-pacific-command -seeks-15-3-billion-in-new-independent-budget-request/; and Mallory Shelbourne, "Navy Set to Test Joint Fires Network at Valiant Shield Exercise This Summer," U.S. Naval Institute News, March 21, 2024, https://news.usni.org/2024/03/21/navy-set-to-test-joint-fires-network-at-valiant-shield-exercise -this-summer.
  28. Nicklaus Walker, e-mail message to author, November 13, 2023.
  29. Desarro, "Chief Digital."
  30. Charles Pope, "Advanced Battle Management System Field Test Brings Joint Force Together across All Domains during Second Onramp," US Air Force, September 3, 2020, https://www.af.mil /News/Article-Display/Article/2336618/advanced-battle-management-system-field-test-brings-joint -force-together-across/; and OUSD (Comptroller), 2025 Budget Request, 5-19-20.
  31. OUSD (Comptroller), 2025 Budget Request, 4-22; Mark Pomerleau, "Indo-Pacific Command to Test Prototype of Joint Fires Network This Year," DefenseScoop, March 21, 2024, https://defensescoop .com/2024/03/21/joint-fires-network-indo-pacific-command-test-prototype/; and Shelbourne, "Navy Set to Test."
  32. Joseph O'Callaghan, e-mail message to author, February 28, 2024.
  33. "Types of Funds," Defense Acquisition University (DAU), n.d., accessed February 2, 2024, https:// www.dau.edu/acquipedia-article/types-funds.
  34. Nick Bono and Bharat Patel, "Pipeline as a Product: How Project Linchpin Plans to Deliver Artificial Intelligence for the Army," War on the Rocks, March 9, 2023, https://warontherocks .com/2023/03/pipeline-as-a-product-how-project-linchpin-plans-to-deliver-artificial-intelligence -for-the-army/.
  35. "Types of Funds."
  36. Megan McKernan et al., Using Metrics to Understand the Performance of the Adaptive Acquisition Framework (RAND Corporation, 2022), 1.
  37. Bonnie Evangelista, host, Defense Mavericks, podcast, "Accelerating and Scaling Defense Acquisition with Sharothi Pikar," December 5, 2023, www.defensemavericks.com/accelerating-and -scaling-defense-acquisition-with-sharothi-pikar/.
  38. "Adaptive Acquisition Framework Pathways," DAU, n.d., accessed April 2, 2024, https://aaf .dau.edu/aaf/aaf-pathways/.
  39. Bono and Patel, "Pipeline as a Product."
  40. "Major Capability Acquisition," DAU, n.d., accessed April 2, 2024, https://aaf.dau.edu/aaf \(/ \mathrm{mca} /\); and McKernan et al., Using Metrics, 9.
  41. "Your Marketplace for AI/ML, Digital and Data Analytics Solutions," Tradewinds, n.d., accessed April 2, 2024, https://www.tradewindai.com/solutions-marketplace.
  42. "Your Marketplace."
  43. Tradewinds, Tradewinds Solutions Marketplace Customer Handbook, Version 1.0 (Chief Digital and Artificial Intelligence Office, August 2023), 2, 4-6.
  44. Joseph O'Callaghan, e-mail message to author, February 28, 2024; and Manson, "AI Warfare."
  45. Jaspreet Gill, "Continuing Resolution the 'One Thing' Keeping CDAO from Taking over DoD Project Maven AI Program," Breaking Defense, October 25, 2022, https://breakingdefense.com/2022/10 /continuing-resolution-the-one-thing-keeping-cdao-from-taking-over-dod-ai-program/; Jaspreet Gill, "Now That Maven Is a Program of Record, NGA Looks at LLMs, Data Labeling," Breaking Defense, November 16, 2023, https://breakingdefense.com/2023/11/now-that-maven-is-a-program-of-record -nga-looks-at-11ms-data-labeling/; and Manson, "AI Warfare."
  46. "Army Announces Awards in Support of Project Linchpin," Program Executive Office - Intelligence, Electronic Warfare \& Sensors, October 2, 2023, https://peoiews.army.mil/2023/10/02/army-announces -awards-in-support-of-project-linchpin/.
  47. "Army Tactical Intelligence Targeting Access Node (TITAN) Ground Station Prototype Award," Program Executive Office - Intelligence, Electronic Warfare \& Sensors, March 6, 2024, https://peoiews.army.mil/2024/03/06/army-tactical-intelligence-targeting-access-node-titan-ground -station-prototype-award/.
  48. Jon Reilly, "Cost of AI in 2024: Estimating Development \& Deployment Expenses," Akkio, May 2, 2024, https://www.akkio.com/post/cost-of-ai.
  49. Robert Coop, "What Is the Cost to Deploy and Maintain a Machine Learning Model?," phData, May 20, 2021, https://www.phdata.io/blog/what-is-the-cost-to-deploy-and-maintain-a-machine -learning-model/.
  50. "Artificial Intelligence Cost Estimation," Run:ai, n.d., accessed January 27, 2025, https://www .run.ai/guides/machine-learning-engineering/ai-cost-estimation.
  51. "How Generative AI Will Reshape the Enterprise," Databricks, n.d., https://www.databricks.com /resources/ebook/mit-cio-generative-ai-report; and Jonathan Vanian and Kif Leswing, "ChatGPT and Generative AI Are Booming, but the Costs Can Be Extraordinary," CNBC, updated April 17, 2023, https://www.cnbc.com/2023/03/13/chatgpt-and-generative-ai-are-booming-but-at-a-very-expensive -price.html.
  52. Bharat Patel, e-mail message to author, March 29, 2024; and GAO, Department-Wide Guidance, 12-21.
  53. "Azure Data Lake Storage Pricing," Azure, n.d., accessed April 2, 2024, https://azure.microsoft .com/en-us/pricing/details/storage/data-lake/; "Machine Learning in the Cloud: Complete Guide for 2023," Run:ai, n.d., accessed April 2, 2024, https://www.run.ai/guides/machine-learning-in -the-cloud; and Rahul Awati and Stephen J. Bigelow, "Microsoft Azure Data Lake," TechTarget, n.d., accessed April 2, 2024, https://www.techtarget.com/searchcloudcomputing/definition/Microsoft -Azure-Data-Lake.
  54. Reilly, "Cost of AI."
  55. Hicks, Task Force, 1.
  56. "What Are Large Language Models (LLMS)?," IBM, n.d., accessed April 2, 2024, https://www .ibm.com/topics/large-language-models.
  57. Lennart Heim, "Estimating PaLM's Training Cost," heim.xyz (blog), April 5, 2022, https://blog .heim.xyz/palm-training-cost/; and Timothy Prickett Morgan, "Counting the Cost of Training Large Language Models," Next Platform, December 1, 2022, https://www.nextplatform.com/2022/12/01 /counting-the-cost-of-training-large-language-models/.
  58. David Morgan, "Using Large Language Models in the DoD Context," DAU, February 14, 2024, https://media.dau.edu/media/t/1_p0m38z1q.
  59. DoD, DoD Cloud Strategy (DoD, December 2018); and DoD, Artificial Intelligence Adoption Strategy, 19.
  60. "Disruptive Technologies"; and Defense Innovation Board, Building a DoD Data Economy (Defense Innovation Board, January 23, 2024), 5-6.
  61. The department operates numerous legacy systems that are often incompatible with one another, slow at data processing, and challenged with difficulties in data storage and retrieval. Defense Innovation Board, DoD Data Economy, 14.
  62. "The True Cost of Data Cleaning," Strategic DB (blog), n.d., accessed January 14, 2025, https://strategicdb.com/2017/12/18/the-true-cost-of-data-cleaning/?utm_source=chatgpt.com.
  63. "Azure Data Lake Storage."
  64. "Azure Operator Nexus," Azure, n.d., accessed April 2, 2024, https://azure.microsoft.com /en-us/products/operator-nexus/.
  65. Joint Chiefs of Staff, Joint Planning, Joint Publication 5-0 (Joint Chiefs of Staff, 2020), xi.
  66. Joint Chiefs of Staff, Joint Planning, C-1-8.
  67. Emelia S. Probasco, Building the Tech Coalition (Center for Security and Emerging Technology, August 2024), 11.
  68. Probasco, Building the Tech Coalition, 10.
  69. Probasco, Building the Tech Coalition, 19; and "Broad Agency Announcement," Defense Logistics Agency, September 17, 2024, https://www.dla.mil/Strategic-Materials/Business/Broad-Agency -Announcement/.
  70. Colin Demarest, "Pentagon AI Office Must 'Cannibalize' to Keep Operating, Martell Says," C4ISRNET, February 23, 2024, https://www.c4isrnet.com/artificial-intelligence/2024/02/23/pentagon -ai-office-must-cannibalize-to-keep-operating-martell-says/.
  71. Alexander Miller, interview by the author, April 3, 2024.
  72. Clark C. Gibson et al., The Samaritan's Dilemma: The Political Economy of Development Aid (Oxford University Press, 2009).

结论

整合新兴技术本质上是在追求创新所带来的潜在与未实现的收益,与衡量创新研发及潜在失败的底层成本之间寻找平衡。人工智能(Artificial Intelligence, AI)和机器学习(Machine Learning, ML)有可能从根本上改变美国军方进行规划的方式。但AI与ML的益处虽值得追求,却并非没有代价。为了理解成本与收益的平衡,本研究项目从技术、组织、资源和伦理四个不同视角考察了将AI作为规划工具进行整合的问题。结合这四个视角,突出了国防部可采取的基本且具体的行动,以更有效地整合AI,并对相关成本与收益保持现实预期。

技术建议

\(\mathrm{AI}/\mathrm{ML}\)纳入联合规划流程(Joint Planning Process, JPP)的前提是理解新兴技术能做什么,不能做什么。对潜在益处的过高预期会扭曲困难的资源配置决策,并限制渐进性的成功。相反,预期管理对于成功且渐进地整合新系统至关重要,这意味着至少在初期要接受AI在塑造部队通用作战图或制定行动方案时只能发挥有限作用。从技术角度,国防部可采取以下四个具体步骤开始将AI作为规划工具进行整合:

  • 聘请数据科学家以确定构建支持特定JPP相关问题(如执行既定作战计划)的AI规划工具模型所需的数据要求。
  • 建立作战数据网格(data mesh),标准化作战数据,投资于合成数据生成,并制定宽松的数据解密政策,为数据整合打下基础。
  • 作为中间步骤,首先专注于开发较小的AI/ML模型与应用,以改进情报生成和参谋评估制作等辅助规划功能。
  • 有意识地通过投资国防部范围内增强人类能力的自动化倡议(如数字助手、机器人伙伴和其他自动化工具)来开始建立对新系统的信任。

然而,落实这些建议存在两方面挑战。首先,由于所提变革的潜在作用较小,所带来的益处远低于许多国防部领导人对新兴技术的预期,因此相关成本将难以合理化。其次,潜在的技术上可行的益处可能会取代许多参谋军官熟悉的工作。尽管AI/ML项目可使联合规划更高效,但它们也可能削弱甚至取代一些参谋职能,甚至减少岗位编制。因此,技术变革很可能会遭遇文化阻力,并需要组织适应。

组织建议

尽管将AI/ML纳入规划流程的基础是技术性的,但适应新兴技术需要组织层面的调整。随着军事单位中正在进行的实验,国防部可以在组织层面采取以下四项措施,以支持AI在JPP中的整合:

  • 通过开发在线培训来扩大熟悉AI的初始领导人才库,使所有与规划流程相关的人员掌握新知识与技能。培训可分多个层级,从理解基础系统到掌握特定技能(如为大语言模型设计提示)。
  • 专注于保留具备独特技术能力与经验的AI专业人员,方法包括为军官设立AI职能领域、为准尉设立AI技术员路径,以及为士官和士兵制定AI用户保留计划。
  • 开展研究以确定哪些岗位应归类为需要AI专业人员、技术员或用户,以确保全军各单位能获得必要的受训人员。
  • 为主要职能将被AI/ML取代的军人建立培训管道和军种专业再分类路径。

落实这些建议是当前训练工作的自然延伸。最大挑战将是准确识别需要AI受训人员的岗位,并在职业发展投资与竞争性需求和现代化举措之间取得平衡。

资源建议

将AI/ML作为规划工具的整合取决于相关倡议是否得到资源支持。虽然其他视角关注潜在益处,但该视角着眼于相关成本。然而,本节所提出的建议并不聚焦于国防部是否应为某个具体项目提供资源、提供多少或优先级如何,而是旨在确保对AI整合所投入的资源得到高效利用:

  • 推动国防部范围内的AI/ML项目,并规范期望的全军成果,以最大化资金效率,避免冗余或重复努力。
  • 开展研究,总结正在进行的成功与失败的技术整合倡议的经验教训,重点分析计划与实际资源支出之间的差异,资金支出如何保持或偏离轨道,以及在许可协议与合同续签等权威问题上出现的意外挑战。
  • 建立资金冗余与项目优先级清单,以应对意外的资金变化。
  • 专注于AI/ML项目的监督,以避免因项目获得预期资金而产生“成功幻觉”。

落实这些建议的最大障碍在于权力结构。尽管国防部可优先考虑其研发计划,但资金控制权掌握在国会手中,而国会对发展新项目和管理遗留项目都有既得利益。

伦理建议

如前文所示,在规划流程中使用AI将引发主要与偏见和问责相关的伦理问题。正如引言所提,国防部已通过规范负责任的AI战略迈出了正确的一步。但随着AI和ML技术的成熟,部门的战略必须不断调整,以应对整合AI作为规划工具所带来的未知影响和意外后果。新系统必然会挑战军事领导人能在多大程度上依赖技术。战略层面的指导必须通过持续和更新的伦理准则支撑军事领导人的决策。

引言中讨论的负责任AI战略的伦理特征——负责任(responsible)、公平(equitable)、可追溯(traceable)、可靠(reliable)与可治理(governable)——为管理未来系统设计提供了坚实基础。负责任的AI使用意味着对AI的行为承担责任。这种责任有两层含义。首先,负责任的使用意味着用户会按照系统设计的功能加以利用。对于进行JPP的参谋而言,这种功能性意味着理解任何纳入规划流程的系统的能力与局限性,而这种理解主要通过训练和实验新技术获得必要熟悉度来实现。其次,负责任的使用意味着人类操作员始终对行为负责,无论其如何利用技术。\({ }^{1}\) 尽管AI可能接管历史上由人类执行的行为,但该技术本身并不具备能动性。作为规划工具,AI提供支持,指挥官作出决策并对部队计划负责。

公平的AI使用要求采取措施尽量减少系统中不必要的偏见。虽然该原则更多聚焦于AI能力的开发,但在应用过程中同样可得到支持。减少偏见的关键因素在于系统如何解释数据。在最基本层面,减少偏见意味着确保所有必要数据被纳入,这有时可能会导致侵犯隐私。相较于涉及人员问题的制度性规划,作战规划中这一隐私挑战的影响较小。在为作战组织开发AI规划工具时,结合自上而下定义的参数与自下而上优化的特征,可以帮助减少偏见。随着系统从单纯的数据综合发展到制定行动方案或创建通用作战图,必须特别注意不同数据的权重分配,例如那些有助于减少平民伤亡的数据。

可追溯的AI使用意味着用户能理解。用户理解来源于对特定系统或更广泛AI功能与能力的训练。熟悉度必须使用户与开发者能够追溯性地解释AI系统为何、如何做出特定行为,不论是通过作战术语还是技术审计。从作战角度,这种能力意味着理解并追踪AI由谁、如何以及用于何种目的。作为规划工具的AI已存在训练管道,可开始将专业技能注入美陆军组织,且单位目前正在实验系统应用中的“如何、谁以及为什么”的问题。但正如在讨论AI整合的组织性考量时所指出的,持续投资于培训与认证机会,在关键岗位被归类为AI专业人员、技术员或用户的情况下,能增强AI使用的可追溯性。

可靠的AI使用意味着其角色被规范化且行为一致。国防部通过建立正式记录系统、开展广泛的测试与实验、制定正式条令来构建可靠性。值得注意的是,将AI作为规划工具的可靠性建设将是一个渐进过程。国防部优先考虑哪些系统尚未可知,而关于AI如何增强JPP的条令仍在形成之中。但随着实验逐步转化为实施,总结经验教训将有助于形成一个强调可靠性的审慎与结构化方法。

可治理的AI使用意味着其受控。系统必须被开发来完成特定功能,用户必须能够停用任何运行异常的系统,这意味着完全理解某一系统的能力。尽管当前整合AI作为规划工具的努力主要利用现有系统,但为了实现可治理性,国防部必须开始识别AI可增强的关键需求,以推动定制化系统的开发。此外,由于使用AI增强规划的最初意图是帮助综合数据与制定选项,军事参谋可选择脱离系统。但如果意图演进至利用AI系统生成通用作战图或制定行动方案,则可能出现依赖性,必须加以考虑以确保AI系统保持可治理。

综上所述,本综合研究项目提出的五大原则为管理AI作为规划工具的整合提供了框架。这些原则超越了任何单一实体,必须通过自上而下的指导、自下而上的优化、系统开发者与系统用户共同落实。此外,尽管在新兴技术整合的实验阶段某些领域可能需要较少强调,但五大伦理原则适用于新能力的整个生命周期。总体而言,国防部已规范出一个框架,使下级组织能够以符合美国价值观和国际规范的方式,追求整合AI作为规划工具的潜在与未实现的益处。

结论

人工智能(Artificial Intelligence, AI)有潜力彻底变革军事规划。但利用新兴技术的新系统整合将是一个渐进过程,其带来的益处也将是循序渐进的。本项目旨在建立一个框架,供国防部在此基础上推动AI融入联合规划流程(Joint Planning Process, JPP),以及更广泛地融入军事规划的艺术与科学。然而,该项目只是一个垫脚石,随着AI/ML(Machine Learning,机器学习)技术的快速成熟,尚未预见的收益、成本与风险将逐渐显现,这也要求进一步的研究。展望未来,要成功地将AI整合为一种规划工具,需要持续且真实地评估AI在技术上能够实现的成果;来自部队的坦诚自下而上的反馈,以帮助组织适应利用新系统所带来的变革;高效投入资源于AI训练与实验的研发预算;以及来自高层的持续指导,确保全军领导人在依赖AI增强人类能力时,能够充分考虑相关的伦理问题。

Endnotes

  1. Department of Defense, U.S. Department of Defense Responsible Artificial Intelligence Strategy and Implementation Pathway (Department of Defense, 2022), 5.

关于首席研究员

C. Anthony Pfaff 博士(美国陆军退役上校)现任战略研究所与美国陆军战争学院出版社主任,同时也是战略、军事职业与伦理领域的研究教授。Pfaff 博士还是乔治梅森大学哲学与公共政策研究所的杰出研究员、大西洋理事会的非常驻高级研究员,以及伦理与新兴科学小组的外部研究员。他拥有斯坦福大学哲学硕士学位(科学哲学方向)、德怀特·D·艾森豪威尔国家安全与资源战略学院国家资源战略理学硕士学位,以及乔治城大学哲学博士学位。

Christopher John Hickey 上校(美国陆军)是美国陆军战争学院的副教授,同时担任功能领域 47W 教授,教授军事战略与战役课程。此外,他还在约翰·霍普金斯大学高级国际研究学院教授太空军高级教育项目的联合全球战役课程。Hickey 上校曾在《Orbis》、《国防建模与仿真期刊》及《军事时报》发表文章。他拥有马里兰大学公共政策学院、哈佛大学约翰·F·肯尼迪政府学院以及美国陆军战争学院的高等学位,并毕业于北约国防学院和约翰·霍普金斯大学。

关于研究员

Madeline Bodoh 博士现任国防部长办公室下属绩效改进官/行政与管理主任办公室的立法分析师。她为绩效改进官及行政与管理主任提供立法事务咨询,并通过监控国会动态,分析与提出相关建议,执行机构的立法议程。Bodoh 博士拥有北中大学工业与组织心理学博士学位、费耶特维尔州立大学工商管理硕士学位,是哈佛大学约翰·F·肯尼迪政府学院的高级行政研究员校友,并以优异成绩毕业于美国陆军战争学院。

Steven C. Chetcuti 中校(晋升中,美国陆军)兼具航空兵与军事情报军官背景。他是美国西点军校功能领域 47R 教授,现任土木与机械工程系航空航天工程分部主任及学术飞行项目主任。Chetcuti 博士拥有佐治亚理工学院航空航天工程博士学位、密歇根大学航空航天工程硕士学位,以及西点军校机械工程学士学位。他于 2024 年以杰出毕业生身份获得美国陆军战争学院战略研究硕士学位,并荣获陆军战争学院基金会杰出研究论文奖。

Sapriya Childs 上校(美国陆军)现任第 513 军事情报旅旅长,该旅是支持美国陆军中央司令部、面向中东战区的陆军情报组织。作为陆军现代化与转型的一部分,第 513 旅在与关键利益相关方合作中大量投入,致力于开发与测试人工智能(AI)分析解决方案,以支持美军中央的需求,并推动全军可扩展的情报工作流。Childs 上校毕业于美国陆军战争学院卡莱尔学者项目和国家情报大学,曾在常规部队与特种作战部队担任战术与作战层级的情报指挥与职务。

Brennan Deveraux 少校(美国陆军)是一名战略家,现任美国陆军战争学院战略研究所的国家安全研究员。他拥有三个与国防相关的硕士学位,研究重点是军事创新、新兴技术管理以及未来战争的特征。Deveraux 少校著有《歼灭“伊斯兰国”:科技战争的幕后》(Exterminating ISIS: behind the Curtain of a Technological War,Casemate 出版,2025年7月)。

Isaac L. Henderson 中校(美国陆军)现任驻伊拉克安全合作办公室陆军特种任务组主任。他通过预备役军官训练团(ROTC)项目在博伊西州立大学获得任命,成为步兵军官,随后毕业于宾夕法尼亚州卡莱尔的美国陆军战争学院并获得第二个硕士学位。目前,Henderson 正在自由大学攻读历史学博士学位,曾担任从排长到营长的多种领导职务。

Angela L. Hughes 中校(美国陆军)现任陆军预备役司令部陆军发展处处长。她拥有佐治亚州立大学英语学士学位(专攻高级写作与修辞学)、韦伯斯特大学人力资源管理硕士学位,以及美国陆军战争学院战略研究硕士学位。Hughes 中校在战略部队管理方面拥有丰富经验,近期职位包括:陆军部总部计划处处长、G-3/5/7 部队管理计划与项目处副参谋长、美国陆军预备役司令部人力分析局经理,以及联合兵种中心部队设计处陆军总体分析参谋军官。

Pamela Lovasz 现任美国陆军工程兵团纽约区参谋长。她拥有土木工程学士与硕士学位,以及地质学学士学位,是哈佛大学约翰·F·肯尼迪政府学院高级行政研究员校友,并毕业于美国陆军战争学院卡莱尔学者项目。

Alfred Wong 现任联合化学、生物、放射与核防御项目执行办公室首席数据官。他是国际系统工程理事会成员,并发表过多篇系统工程领域的学术著作。Wong 拥有康奈尔大学工程硕士学位、美国陆军战争学院战略研究硕士学位,以及罗格斯大学计算机科学学士学位。


美国陆军战争学院(United States Army War College, USAWC)的使命是培养和发展能够在战略层级服役的领导者,同时推动对全球陆上力量(Landpower)运用的知识发展。

美国陆军战争学院的宗旨是培养在全球陆上力量运用方面具备批判性思维和复杂问题解决能力的毕业生。同时,作为对陆军的责任,战争学院也充当战略层级军官与文职领导的“思想工厂”,定期就地面部队在实现国家安全目标中的作用展开讨论与辩论。

战略研究所(Strategic Studies Institute, SSI)发布国家安全与战略研究和分析成果,以回答战略安全问题、支持战略安全决策,并建立战略安全专业知识网络,为陆军与联合部队提供支撑。

SSI Live 播客系列提供关于国家安全与军事战略相关议题的访问渠道,重点是地缘战略分析,邀请 SSI 学者和专家进行探讨。

战略领导中心(Center for Strategic Leadership)为陆军、联合部队及国家提供战略教育、思想、条令和能力。该中心被视为战略实验室,用于产生与培养战略思想、检验战略理论、维持战略条令、培养战略领导者并支持战略决策制定。

战略陆上力量学院(School of Strategic Landpower)通过制定、协调和管理与学术相关的政策、计划、项目和程序,支持美国陆军战争学院的宗旨、使命、愿景和学术教学部门,重点在于课程开发、实施与评估;独立或跨部门学术项目的规划与执行;师生发展;以及司令指定的学术相关职能。

美国陆军遗产与教育中心(US Army Heritage and Education Center)以独特而持久的知识与思想资源,吸引、激励并启发陆军、美利坚人民及全球伙伴。

陆军战略教育项目(Army Strategic Education Program, ASEP)为全军将官群体实施职业军事教育,并通过基于证据的决策支持,提供评估以保持高级领导知情并推动项目性变革。


美国陆军战争学院出版社(USAWC Press)

美国陆军战争学院出版社通过出版专著与季度学术期刊《Parameters》,支持战争学院的发展。出版物聚焦于地缘战略问题、国家安全与陆上力量。相关材料会分发给陆军及国防部关键战略领导者、军事教育体系、国会、媒体、智库与国防研究机构,以及主要高校与大学。出版社作为连接更广泛战略共同体的桥梁。

所有由战略研究所和战争学院出版社发布的出版物与播客均可在美国陆军战争学院网站免费下载。部分出版物的纸质版可通过美国政府书店网站获取:https://bookstore.gpo.gov。战略研究所与出版社的出版物可在获得许可并注明出处的情况下部分或全部引用或转载。联系战略研究所或出版社,请访问以下网站:https://ssi.armywarcollege.eduhttps://press.armywarcollege.edu

美国陆军战争学院出版社制作两个播客系列:
- Decisive Point:作为出版社的配套播客系列,邀请作者讨论其文章与出版物中的研究成果。网站:https://ssi.armywarcollege.edu/SSI-Media/Podcasts-Lectures-and-Panels/Decisive-Point-Podcast/
- Conversations on Strategy:作为 Decisive Point 的子系列,邀请知名作者与贡献者探讨国家安全事务中的重要议题。网站:https://ssi.armywarcollege.edu/SSI-Media/Podcasts-Lectures-and-Panels/Conversations-on-Strategy-Podcast/