数据让我们能够以前所未有的清晰度观察事物,但要获得数据的好处就需要改变外交政策的制定方式。
2023 年 6 月 19 日 晚上 11:00
作者:美国退役四星将军、Rhombus Power 顾问 Stanley McChrystal和Rhombus Power 创始人兼首席执行官 Anshu Roy 。
2022 年初,华盛顿经验丰富的俄罗斯专家和国家安全官员难以置信地目睹俄罗斯总统弗拉基米尔·普京 (Vladimir Putin) 在乌克兰边境集结军队。这到底是为了从基辅和西方获得更多让步而虚张声势,还是他即将发动一场全面的陆地战争,以重新划定二战以来的欧洲边界?专家们用他们丰富的专业知识震撼了雪球,但关于普京意图的争论却从未得出结论。
但在硅谷,我们在俄罗斯发动袭击前四个月就已经断定普京将入侵。到一月底,我们几乎就预测到了战争的爆发。
如何?我们 Rhombus Power的团队主要由科学家、工程师、国家安全专家和前国家安全从业人员组成,他们所看到的景象与传统的外交政策界完全不同。依靠人工智能来筛选几乎难以想象的大量在线和卫星数据,我们的机器正在汇总地面行动,计算包括导弹基地的活动和当地商业交易在内的输入,并几乎实时构建俄罗斯活动的热图。
我们做对了,因为我们不受传统外交政策分析的限制。我们并没有试图猜测普京的动机,也不必在试图解释他的话时与自己的偏见和假设作斗争。相反,我们通过跟踪通常很小但非常重要的数据来观察俄罗斯人实际上在做什么,这些数据在有效汇总时会成为强大的预测因素。各种细节引起了我们的注意:武器系统于 2021 年转移到了边境地区,克里姆林宫声称军事演习仍然在那里,仿佛为未来的前进做好了预先部署。俄罗斯军官在当地企业的支出模式表明,他们不打算很快返回军营,更不用说回家了。
到 2021 年 10 月下旬,机器是否百分百确定地告诉我们俄罗斯会入侵?不,但他们告诉我们,俄罗斯导致战争的活动模式使得普京极有可能下令发动袭击。事实上,这就是人工智能的工作原理:大型语言模型通过筛选过去的数据来学习——在我们的例子中,大约是 10 年的数据,可以追溯到俄罗斯 2014 年入侵克里米亚之前。他们寻找模式:每当过去发生 X 时,结果往往就是 Y。有时相关性很弱,但有时模式很强。添加足够多的这些信号,我们的系统就可以以特定的置信度对全球未来的热点地区进行攻击性预测。
人工智能所做的一些事情与传统的侦查并没有太大不同。毕竟,推特用户发布了开源卫星图像,显示俄罗斯设备在战前在边境附近收集。但仅复制机器模型的一小部分就需要数千名开源调查人员或情报分析师。人工智能可以做的——而人类做不到的——是同时快速地查看所有地方的一切。想想《大空头》吧,这部电影讲述了好奇的银行家们费力地浏览大量抵押贷款数据,发现可疑的怪癖,并挨家挨户进行调查,以揭开导致 2007 年次贷危机的恶作剧的故事。人工智能是大空头一百万遍——不仅关注抵押贷款,还关注一切可能有趣的事情,并同时、自动、几乎实时地进行。
同样重要的是,机器是冷静的,更容易规避人类的偏见和一厢情愿的想法。一些经验丰富的俄罗斯政策专家不愿意相信,普京会在军队如此少、准备不足、经济灾难风险如此之高的情况下发动战争。他们对普京准备情况的看法是正确的,但却将自己对理性的定义投射到这位俄罗斯领导人身上。当机器筛选历史模式时,它们并不关心人类对“理性”普京可能会做什么的看法,只关心观察到的模式在过去导致某种结果的可能性。该模型使用了从 2014 年至今的无数数据点,包括俄罗斯首次入侵乌克兰,因此有大量的模式和结果可供观察。
机器是冷静的,更容易规避人类的偏见和一厢情愿的想法。
大型语言模型是否正确,而许多终生专家却没有正确,这并不重要。正如我们从人工智能早期就知道的那样,机器和人类一样能够产生幻觉。更重要的是,我们认识到这一工具对未来的国家安全和外交政策具有巨大影响,并承认迄今为止我们在应对这些影响方面做得很少。问问自己:今天的技术可以对俄罗斯-乌克兰战争的可能走向进行哪些预测?就此而言,它能告诉我们有关战争、地缘政治和国家安全规划的未来的什么信息?正如我们的团队在去年入侵前夕所看到的那样,技术所能告诉我们的信息已经超出了我们十年前的想象。如果我们准备好充分利用它,那么从现在起十年后,它将能够告诉我们更多的信息。
在一个数据可以帮助我们以前所未有的清晰度观察和预测的世界中,我们必须利用我们的新能力,并通过重组围绕人类输入设计的流程来为决策者提供支持。美国政府处理信息和制定国家安全决策的系统是针对 20 世纪的战情室而完善的,最优秀的大脑围坐在桌子旁面对面审议,而不是针对 21 世纪的数据和网络技术。现在,我们不仅需要更大的桌子和战情室,还需要它们的数字版本。未来审议的一些参与者根本不是人类,而是思考机器,它们将使专家能够以越来越快的相关速度进行推论、干预点和假设情景。决策者不再像旧系统那样聚集在一起讨论如何应对正在发生的危机,而是需要在事件发生之前定期处理事件的预测。仅此一点就需要重新思考如何制定国家安全决策。
如今,各种发展——包括无处不在的传感器、更快的计算机、强大的算法和开源革命——让我们能够突然收集、存储和访问比以往更多的信息。 。现在,它也可以由人工智能进行互操作和操作。在我们的总部,我们使用、汇总并在人工智能的帮助下理解所有类型的数据,包括早期指标、可疑的财务指纹、物流活动、武器流动、基础设施建设的微妙变化以及媒体报道的语气和内容。其结果是数字神经系统可以警告决策者有关威胁的收集,而且通常比过去更早。
例如,在时任美国众议院议长南希·佩洛西 2022 年 8 月访问台湾之后,我们的系统在中国大规模导弹和飞机飞越台湾水域之前就发出了警告信号。同样,该系统在美国总统之前预测日本周围的风险加剧乔·拜登2022年5月访问。媒体随后报道了中国和俄罗斯战略轰炸机在该地区的不寻常飞行。
在所有这些情况下,可以想象美国政府可能从传统情报来源收到了类似的警报。但重要的是,由于数据聚合和意义构建模型的力量和速度,人工智能生成的警告通常会更早出现。更重要的是,人力资源是有限的。传统情报可能集中在少数已知的热点地区,而全球看似平静的地区可能几乎不受监控。当人类的眼睛在看别处时,人工智能可以成为您的眼睛。
决策者需要在事件发生之前定期处理事件预测,从而需要重新思考如何制定国家安全决策。
对即将发生的事件的早期警告增加了整个国家安全领域的行动自由,包括外交、信息、军事和经济领域。更快的洞察力还可能有助于在不良结果发生之前预防、改变或减轻不良结果。目前,就在士兵、政治家和外交官决定乌克兰的最终结果时,我们正在加利福尼亚州筛选数据,以预测俄罗斯下一步可能袭击的地点。
无论是否准备好,人工智能已经让我们能够看到多种可能的未来,并让我们能够以令人惊讶的可量化可能性知道其中哪些可能发生,哪些可能不会发生。更重要的是,它使政策制定者能够在真正的危机情况下进行兵棋推演和压力测试可能的反应——在几分钟或几小时内,而不是像传统桌面演习那样需要几天或几周。我们分析的数据量有助于以前所未有的信心预测对手牌组中的下一张牌。让一个技术装备先进的国家措手不及变得越来越困难。
但在很多方面,虽然人工智能可以让情况变得更清晰,但它只会让决策者的选择变得更加复杂。在俄罗斯入侵前夕,拜登政府采取了创新举措,公开了其对俄罗斯战争准备机密情报的判断,并向每个首都广播。如果人工智能能够持续推断对手的下一步行动,这将如何影响外交和谈判策略?可能性令人眼花缭乱。
到目前为止,我们应该清楚的是,日益强大的人工智能无法替代人类的判断。尽管模型产生的见解很有价值,但政策制定者仍然必须决定如何处理这些信息。就像人类生成的情报评估一样,人工智能支持的理解总是伴随着事件发生的可能性——从来没有 100% 的确定性。及时采取行动改变事件总是需要信心和勇气;在某些方面,基于人工智能做出决策需要更多的信心,因为这意味着对来自非常规来源的预测进行押注。
因此,政策制定者需要在将这些工具融入到工作中时保持谦逊态度,就像对待容易出错的人类输入一样。整个系统需要考虑到这样一个事实:预测有时会是错误的。人工智能并没有创造出水晶球:重要的是对得出结论的输入保持透明,而不是期望在战场上做出绝对准确的决策。对于人工智能的判断来说,这个过程应该比依赖传统手段的判断更加严格。
许多一生研究国家、地缘政治、治国方略和战争的专家在人工智能外交政策的世界中仍然不可或缺。这些专业人员必须成为技术驱动决策的检查和护栏,就像技术是对人类判断的检查,其已知的群体思维和盲点缺点一样。最终,我们可以通过技术优势增强人类情报、外交和军事规划,并向前规划而不是主要回顾过去。在军事领域,人工智能不会决定每场战斗的进程,但它将扩大选择范围并增加行动自由度,以便以相关的速度做出决策。
随着我们在预测技术方面取得进一步进步,领导者和政策制定者将面临一系列全新的挑战。拥有如此多的信息将迫使政策制定者决定机器预测的多种情况中哪一种最需要做好准备。预测能力的增强将大大减少不确定性,这种不确定性往往会减慢政策进程,迫使政府更快地做出决策,而不是包揽所有赌注并为所有可能发生的情况做好准备。在事态的发展消除所有疑虑之前,或者中央情报局局长威廉·伯恩斯所说的对这个问题表示钦佩之前,拖延的借口将会减少。
我们仅仅触及人工智能在国家安全中的作用所带来的问题的表面。
增强远见的惊天动地的能力是政府尚未在其人员和流程、国家安全理论等方面做好准备的。当对手使用相同的技术时,它将创造出相互保证透明度的改变游戏规则的现实:一种新的情况,在这种情况下,他们知道我们提前几步知道他们正在计划什么,反之亦然。正如意外和不确定性定义了过去的重大安全事件——从珍珠港到古巴导弹危机再到 9/11——预期和无处不在的可操作信息将定义 21 世纪的剩余时间。
我们仅仅触及了人工智能在国家安全中的作用将带来的问题的表面。在一个信息优势成为巨大优势的世界中,美国如何知道自己相对于对手和竞争者保持着优势?华盛顿及其盟友是否投资了正确的技术和概念?他们是否以必要的速度和规模采用这些措施,以便能够阻止并在需要时击败未来的侵略?
对于政策制定者来说,还有真正棘手的问题。如果我们现在可以提前几年预测对手或不良行为者的举动,那么我们采取行动的责任是什么?外交的作用是什么?政策制定者如何确保人工智能的预测能力不会简单地成为先发制人使用军事力量的简单理由,因为这样做不符合美国的利益和价值观?基于人工智能预测的致命行动的国际合法性或合法性是什么?是否有义务公开分享警告?在人工智能变得透明的世界中,战略模糊性是否有任何作用?或者华盛顿是否希望对手知道它知道他们在计划什么?什么时候不作为是合理的——甚至是必要的?
人工智能不是科幻小说。现在就到了,已经进了战情室的门。我们的技术遥遥领先。但我们现在才刚刚开始发展人类使用人工智能的能力,如果我们要及时获得人工智能对国家安全的好处,组织、程序和理论方面的变革将是必不可少的。