2025年3月,兰德公司发布报告《借助人工智能改进意义建构》(Improving Sense-Making with Artificial Intelligence),报告分析了美国空军部(DAF)如何在其“意义建构”流程中采纳人工智能技术。启元洞见编译文章主要内容,旨在为读者了解当前意义构建过程中的挑战以及如何克服这些挑战提供参考。
一、“意义建构”是什么?
“意义建构”被一些人视为一种艺术形式,分析人员借此结构化未知事物,以理解如何在其中有效行动;在军事语境中,它是一种“将相关数据有意义地转化为可用信息的过程”。
对于美国空军部(DAF)而言,意义建构的结构包括收集、组织并转化数据,形成对作战环境的知识,以在特定任务中为全军提供近实时的态势感知以及规划与决策支持。
二、选择合适的人工智能采纳战略
(一)采纳战略
采纳人工智能不仅带来成本和挑战,同时也带来机遇和益处。相关工具需要开发和持续维护,训练数据在必要时需获取和整理,人员也需要接受培训,相应政策也需进行调整。如果采纳成功,人的工作重心可以转向其他任务,一些任务可以更快、更全面或更准确地完成。
人工智能采纳战略大致可分为两类:
1.非颠覆性采纳:人工智能在工作流程中支持一个定义明确的任务,但不会打乱整体流程。
2.颠覆性采纳:人工智能从根本上改变一个更大的工作流程,重新分配任务和职责。
总体来说,非颠覆性采纳的实施成本较低,失败风险也较小(其他条件相同)。但其带来的益处也相对有限,通常仅体现在提升被应用任务的效率、效果、人力资源利用率和灵活性方面。而颠覆性采纳往往需要重构更大范围的工作流程,成本更高,但如果成功,回报也更可观。
(二)非颠覆性采用的经验
人工智能辅助的影像诊断是一个非颠覆性采用的例子,其特征与情报感知流程足够相似,能够提供有益的经验借鉴。这是医学领域中人工智能应用研究最为深入的领域之一,因为每位患者往往会有大量的诊断图像,这些图像通常都是数字化的,而计算机视觉(CV)又是人工智能研究中一个富有成效和活跃的领域。
在放射科,图像误读可能导致不当治疗,甚至对患者造成伤害;而在情报感知中,错误可能导致错失目标、造成不可接受的附带损害,甚至违反战争法,从而削弱战略目标。
虽然各国和不同机构在是否采用人工智能于放射学方面的决策各不相同,但仍存在一些共性。其中一个关键因素是与错误相关的法律责任问题,这一因素促使临床环境中在采纳人工智能时采取较为谨慎的态度,从而形成了一些具有借鉴意义的做法,对于美国空军部的情报感知流程亦具有明显的借鉴价值:
1.开发高质量的数据集,努力去除已知偏差。
2.验证和确认算法以减少误报和漏报。漏报可能致命,而误报则可能增加从业人员的工作量,并造成难以估量的患者痛苦。
3.理解训练数据集的局限——了解其覆盖范围以及不覆盖的内容,对于超出其适用范围的情况慎用人工智能算法。
4.意识到算法可能犯下一些人类不太可能犯的简单错误,例如仅因病人胸部插有引流管就推断肿瘤为恶性。
5.将最终的判断权保留给专业人员,而不是完全交由算法作出分类决策。
(三)颠覆性采用的启示
值得注意的是,在诊断影像中采用人工智能的成功并非理所当然。颠覆性采用人工智能有可能彻底变革大规模流程,从而带来超越任务执行边际改进的收益,但它也伴随着更高的失败风险。对于组织而言,大规模工作流程的变更是一个变革管理的挑战。
颠覆性采用人工智能是变革管理的一种特殊情况,它涉及从组织外部引入新技术能力的需求。一个组织吸收、同化、转化和利用新技术知识以获得竞争优势的能力,被称为“组织的吸收能力”。在某一技术领域的吸收能力取决于组织对该领域知识的掌握程度,而这种知识是可以扩展的。就人工智能而言,这意味着要扩展对人工智能、其局限性及其应用的理解。为了培育足够的内部知识接受环境,组织文化可能需要发生变化。近期,兰德公司的一份报告也指出:“提升吸收能力是DAF可以控制的,因为吸收能力体现了从外部组织发现、理解和接受技术转移的能力。”
本报告从工业界对人工智能的颠覆性采用中获得的经验较少,部分原因是颠覆类型存在巨大差异,难以进行横向比较;此外,颠覆性采用可能并不常见或不被公开报道。然而,有一点是明确的:在快速演进的技术中率先采取行动有助于增强吸收能力,并降低未来“被排除在外”的风险。所谓“被排除在外”,是指由于进入技术领域太晚,当该领域已经演变到高度复杂的阶段时,组织无法达到与竞争者同等的技术熟练度。
因此,如果未能及早投资于人工智能,就可能导致未来人工智能融入能力不足,进而在面对对手时失去竞争优势。正因如此,非颠覆性与颠覆性人工智能采用之间并非二选一关系,而是可以互为补充:非颠覆性采用是一种相对低风险的方式,能够提升吸收能力,为更大规模的技术变革做好准备。
(四)前进方向
本报告主要论述了如何通过结合现有人工智能能力所构建的狭义应用,将人工智能以非颠覆性的方式部署于DAF的“意义建构”流程中。本报告主张在近期采取这种渐进式的演化采用方式,原因有二:
首先,它能更快地将人工智能融入意义建构工作流程,从而更早实现人工智能所承诺的改进效果,同时帮助DAF意义建构体系逐步增强其吸收能力,为未来更广泛的人工智能应用奠定基础。
其次,它力求缓解分析人员“因频繁变革而感到疲惫”的问题,尽可能减少对工作流程的明显干扰和新技术所需的额外培训成本。
然而,意义建构的工作流程本身已经随着时间发生了重大变化,并且必须继续适应不断变化的任务需求以及技术所带来的新机遇。因此,尽管本报告力求将人工智能工具顺利引入现有工作流程,但必须避免由此使DAF固守当前流程、错失未来发展机会。换言之,本报告所描述的人工智能采用方案应被理解为一系列帮助权衡变革风险、并为未来更多变革做准备的阶段性步骤。
三、降低人工智能风险
近年来,关于人工智能系统的可信、安全与负责任使用的讨论越来越多。美国国防部已启动多项工作,旨在将“负责任人工智能”(Responsible AI, RAI)的方法纳入其各项流程。RAI被定义为“一种动态的方法,用于设计、开发、部署和使用人工智能系统,落实国防部人工智能伦理原则,以提升这些系统的可信度”。
这些努力的一部分包括开发一整套RAI工具包,其中包含各种框架、工作表和工具,帮助开发人员与维护人员在其实践中贯彻RAI的基本理念。
RAI工具包中的一个工具是《国防人工智能风险指南》(Defense AI Guide on Risk, DAGR),其目标是“对风险评估提供整体性指导,提供抽象化的风险模型以便管理风险,并提出一种量化人工智能能力整体风险的路径”。在本章中,报告将展示如何利用DAGR中提出的社会、技术、操作、政治、经济与可持续性(STOPES)框架对某个假想的人工智能工具进行风险分析。
(一)人工智能应用示例:CoordClass
F2T2EA流程(即“发现、固定、追踪、定位、打击、评估”)通常对时间极为敏感,可能需要情报收集人员、分析师、任务规划人员和打击目标人员之间进行快速协调与数据共享。目标坐标通常通过聊天系统传递,用户需为每条信息标注其保密等级;其他用户只能看到与其授权等级相符的信息。
然而,尽管基础目标坐标可能属于较低级别的保密信息,但关于目标的高级情报,以及该情报的来源与获取方式可能属于更高等级的保密信息。这就可能导致“过度保密”问题:有些需要使用目标坐标的人员,因权限不足无法看到信息,从而影响任务时效。
“CoordClass”是一个虚构的人工智能应用,该系统利用自然语言处理和专家系统技术来解决通用的保密分级问题。CoordClass作为聊天平台的插件运行,它会在用户发送信息前分析信息草稿,如果检测到其中包含坐标但打上了较高的保密标签,则会弹出提示,提醒用户并建议适当的分级。
若用户接受建议,CoordClass将自动发送两条消息:一条是原始保密等级的完整信息,另一条是保密等级较低、仅包含坐标信息的消息。
(二)社会、技术、运营、政治、经济
与可持续性分析(STOPES分析)
为了展示DAGR方法的应用,本章对假设的CoordClass工具进行了STOPES分析。本章的分析仅聚焦于美国空军可能面临的风险。STOPES分析包含以下六个方面:
社会因素:涉及社区、社会支持、收入、教育、种族与民族、就业以及社会认知等相关因素。
技术因素:涉及技术能力失效、受损或运行不当对组织产生的影响,以及与技术和安全相关的供应链风险。
运营因素:涵盖因作战(战斗与非战斗)行动、内部流程、系统或控制失效或出错、外部事件,以及与运营相关的供应链风险所导致的资源不利变化。运营因素还包括声誉、法律、伦理、人机交互及其反馈机制。
政治因素:涉及政府政策、法律变更、政治氛围与国际关系等。
经济因素:涉及影响组织的因素,如资金获取、采购流程与渠道、劳动力成本与技能、市场状况,以及与经济相关的供应链风险。
可持续性因素:涉及人类、环境、社会与经济的可持续性。环境、经济与社会公平的交叉与平衡共同支撑可持续发展举措。
(三)风险缓解
表1 CoordClass的STOPES分析
为了说明分析流程的最终部分,表2列出了一些关键的风险缓解措施及相关的RAI工具包指导。表格第一列列出了具体的风险缓解措施,第二列和第三列则提供了来自RAI工具包的操作指导。
表2 结合RAI工具包指导的CoordClass
风险缓解措施
这里列出的风险缓解措施仅为本研究团队为虚构工具创设的示例,用于说明风险缓解可能采取的形式。而在实际中,哪些风险可以容忍、容忍到什么程度、针对不可容忍风险采取何种措施,这些都应由使用这些工具的单位来决定。
四、结论
(一)建议
在考量采用这些人工智能技术的推动因素与限制条件后,本文提出了四条具有跨领域意义的建议:
1. 共同制定发展“理解能力”(Sense-Making Capabilities)的路线图
为了更好地组织整合工作,美国空军的理解能力单位(如第480情报、监视与侦察联队)应与其太空军对应单位协作,并与美国空军首席数据与人工智能官(CDAO)合作,依据表5.1所总结的能力,制定一套人工智能整合的共同优先事项。应从最不具破坏性的人工智能工具开始,这些工具能够轻松嵌入现有工作流程且所需额外培训最少。尽管我们认为数据融合与分析工具极为重要,但优先级应综合各种相关因素考虑。从不具破坏性的工具起步,将为今后必要的颠覆性人工智能技术采纳铺平道路。
2. 提前预判风险
3. 尊重“工具疲劳”情绪
面对接踵而至的新工具,空军理解人员已经感到疲惫不堪。虽然由本地熟悉业务的人员参与人工智能应用的设计与开发可以一定程度缓解这种疲劳感,但不能让空军理解群体过度负担。如果某软件工具与实际需求差距太大,需大幅调整,其开发过程本身就会变成一种负担。
4. 避免技能退化
使用人工智能工具替代人工操作,可能导致相关人类技能退化。这可能造成对任务的思维多样性减少、流程理解缺失、缺乏创新能力。更糟糕的是,如果人员丧失专业判断力,也可能难以优化数据集。美国空军首席数据与人工智能官应制定人工智能工具广泛应用下的技能保持计划。
(二)结论
美国空军在21世纪前二十年,将理解能力的大部分精力投入到支援相对“宽松环境”下的作战行动,如阿富汗、伊拉克和叙利亚。而如今,面对与“对等威胁”的博弈,传感器与目标数量激增,对数据的理解需求剧增,使得“可扩展性”成为理解流程的首要问题。
本报告在思考人工智能的辅助作用时,始终牢记目标在于增强情报分析,而非取而代之。正如之前兰德公司报告所述:“分析不是情报循环中一个繁琐步骤,而是一个至关重要、需要加强的环节。”
总而言之,空军在推进人工智能整合进理解能力体系过程中,必须始终重视“人”的关键作用。正如一项关于空军联络官的研究指出:“数据与网络中心战依然依赖于以人为本的关系。”人工智能虽前景广阔,但不能走向依赖。希望本报告提出的思路与路径,能为人工智能在理解能力领域的投资与落地提供参考,也提醒决策者重视技术采纳过程中的实施难题。