人工智能重塑未来战争格局|深度
2018-02-14 15:48:00

 来源:机器之能

人工智能加持下,未来战争将走向何处?

编译 | 王宇欣 Edison Ke Rik R

来源 | 经济学人

过去,关于未来战争的预测往往会过多强调新型技术和理论。19 世纪,普鲁士军队在 1870 年力挫法国,接连的胜利使欧洲的军士们明白了一件事:军队借助铁路形成的快速机动力、快速发射的火炮以及对攻击的专注会在短时间内决定战争的胜利。这些想法在第一次世界大战开始时就被付诸实验。而西线长达四年的阵地战证明了他们战法的错误。

二十世纪三十年代,人们普遍认为对城市进行大规模空中轰炸就足以让对方立即投降。但是这个预测却是在 10 年之后核武器问世之后才真正实现。当美国在 1990 - 1991 年的海湾战争中展示出精确制导导弹、新型情报、监控和侦查方法、空基通信和隐形技术等高新技术的组合能够获得的巨大的胜利后,许多人认为未来西方可以一直取得这种迅速、伤亡小的胜果。但是在 2001 年 9 月 11 日美国的恐怖袭击发生之后,战争就有了不同的进程。

因此,这份特别报告将以谦卑之心提供预测。所提供的预测范围也仅限于 20 年左右,如果超出这个年限,不确定性将会占据主导地位。本报告不会推测围绕朝鲜核武器爆发战争所引发的清晰而现实的危险,幸好这一现状现在仍旧处于可控状态。相反,本次报告对概述战争的长期趋势有一定的信心。

在过去的半个世纪,国家之间的战争已经非常罕见。而大国与盟国之间的战争更是几乎不存在,这主要是因为核武器的相互破坏力、国际法律的制约以及相对繁荣的社会下不断下降的对暴力的渴望等因素。另一方面,国内战争或者内战则较为频繁,这一现象特别是在脆弱和衰败中的国家尤为明显,而且通常战争一旦打响就将是持久战。气候变化、人口增长和宗派或种族极端主义都有可能使战争延续。

战争的爆发地会逐渐移向城市,因为到 2040 年,世界上 2/3 的人口将居住在城市之中。人口超过 1000 万 的特大型城市在过去 20 年间里数量翻了一番,达到了 29 座,每年有近 8 千万人从农村流向城市。近日,阿勒颇和摩苏尔之间仍然日夜不休的在城市间激战,这将继续为善意的西方调停力量带来困难。技术将改变城市战争以及其他各类战争,但是城市战仍然必须一个街区一个街区地进行近距离交锋。

尽管大国之间全面开战的可能性不大,但是彼此之间仍然存在较为缓和的军事竞争。尤其是现在俄罗斯和中国似乎都不愿意接受冷战结束的 20 年来美国占据国际主导地位这一事实,两者似乎都有兴趣挑战美国支持的国际秩序,最近两国都表示他们准备用武力捍卫他们所认为的合法利益:俄罗斯吞并克里米亚半岛,破坏乌克兰的稳定,中国则建立了军事化的人造岛屿与东海、南海的邻国发生争端。

过去十年,中国和俄罗斯都斥巨资提升各个方面的军事力量,以此对抗美国威胁和霸凌邻国的强权。用军事术语来说,这些能力被称为反介入(anti-access)/区域组织(area denial)或者是 A2/AD。他们的目的不是要和美国开战而是要让美国的干预更有风险,耗费更加巨大。这让俄罗斯和中国愈发利用介于战争和和平之间的「灰色地带」。灰色地带行动的目标是在不与强大对手进行战争的前提下,取得与公然的军事侵略相关的政治或是领土利益。都是一些关于定标、施加影响和模糊性的行动。灰色地带特别适合混合战争,这个术语在十年前才被首次提出。对混合战争的定义各不相同,但实质上是模糊军事、经济、外交、情报和犯罪手段等以实现政治目标。

大国想要达到其政治目标却又不直接发动战争最主要的原因还是核威胁,但是这不意味着冷战时期的特色「恐怖均势」将会与过去一样稳定。俄罗斯和美国正在以巨大的代价实现核武器的现代化,而中国也正在扩大其核武器库,所以核武器的战备至少要到本世纪末才能结束。普京和特朗普正在以各自不同的方式享受着核武器带来的武力威胁。现有的核武控制条约正在逐渐瓦解。而冷战时期避免世界末日的约定和理解却并未得到延续。

俄罗斯和中国现在担心,技术进步可能会让美国不用进行核打击就能威胁到他们的核武器库。十多年来,尽管还未部署武器,但是美国一直致力于一个被称为「常规快速全球打击能力(Conventional Prompt Global Strike)」的概念。该想法是即使是在防控力量最密集的区域,也能以超音速(至少比音速快 5 倍)实现极高精度的传统导弹打击。可能的任务包括,反卫星武器;定向针对敌方 A2/AD 网络指挥控制节点;打击北韩等流氓扩散者的核设施;击杀重要的恐怖分子。俄罗斯和中国称,如果与先进的导弹防御系统配合,CPGS 将会非常不稳定。同时他们也在自己开发类似的武器。

对核稳定还存在其他潜在威胁——利用各国正在投资的网络和反卫星武器直接攻击核指挥和控制系统,这些武器可使核力量暂时瘫痪。至关重要的是,攻击者的身份可能难以确定,这让受攻击者不知应该对谁反击。

杀人机器人的崛起

至少全世界都知道生活在核武器阴影下究竟是种什么滋味。而人工智能和深度学习的快速发展将会带来更大的问题,它们会如何影响战争的方式,甚至它们会如何影响人们思考战争的方式。最大的担忧在于,这些技术可能会创建出自主武器系统,这些系统可能独立于创建或部署系统的人类自行选择杀死人类。一场国际性的「阻止杀手机器人运动」正在进行,试图在致命的自主武器被开发之前将其扼杀在摇篮之中。2015 年,包括 Stephen Hawking、Elon Musk 和 Demis Hassabis 在内的 1,000 多名人工智能专家签署了一封信,联名警告即将到来的自主武器军备竞赛。

这种禁令似乎不太可能被真正提出,但是人们应该如何与不同程度的自治机器交互仍然有商量的余地,无论是在循环内(人类不间断监控操作,并保有关键决策的负责人),还是在循环上(人类监督机器,并可以在任务的任何阶段干预机器)亦或是跳出循环(机器执行任务时没有人员干预)。西方军事机构坚持认为,遵守武器冲突法,人类必须始终处于循环之中。但是如果看到完全自治系统所带来的军事优势,一些国家可能就不会那么审慎了。

这些技术正在全球范围内发展,而其中大部分在民间发展,所以这些技术必然会激增。2014 年,五角大楼宣布了「第三次抵消战略」,战略内容包括利用机器人技术、自主系统和大数据在内的一系列技术重新获取军事优势,并且要比潜在的对手更快、更有效地完成任务。但即使是最殷切的拥护者也明白,西方再也无法依赖其在军事技术的优势了。支持第三次抵消战略的副国防部长 Robert Work 认为,西方最持久的军事优势将是开放社会下的人民素质。如果认为过去战争中一直是重要组成部分的人力因素仍然可以算作是将来的军事优势的话,这很令人欣慰。但是即便如此,仍旧存在不确定性。

有效——还便宜

新美智库(New America think-tan)的「未来战争专家」Peter Singer 非常确信。「我们拥有的是一系列颠覆性的技术。他们不是科幻小说,而是提出了新的问题:还有什么可能发生?就是什么才是合适的?」Singer 先生正在谈论人工智能、机器学习、机器人技术和大数据分析。他们将共同生产拥有不同程度自主能力的系统和武器——从能够在人类的监督下工作到能为自己「思考」。在未来战场上,最关键的因素可能是双方算法的质量。战斗可能会加速到人类肉体无法再跟上的速度。

美国国防大学的研究员 Frank Hoffman 发明了「混合战争」一词,他认为,这些新技术不仅有可能改变战争的特点,甚至可能改变长久以来被认为是永恒不变的「意志较量」的本质。他说,有史以来第一次,在战争中决定成功与否的人类因素,「意志、恐惧、决策甚至是人类的天才火花,可能都不再那么明显了。」

能够有限地自主控制的武器并不新鲜。1943 年,德国制造了一种带有声波导航装置的鱼雷,帮助它找到了通往目标的路径。「战斧」(Tomahawk)巡航导弹一旦发射,就可以使用地球表面的数字地图调整航线。反导弹系统也是预先设定好的,以决定什么时候开火以及接触进入监控范围的目标,因为人类大脑的反应速度不够快。

但是,如此程度上的自主控制是截然不同的。五角大楼国防科学委员会在 2016 年发布的一份报告称,「要实现自主,一个系统必须具备基于其对世界、自身和形势的认识和理解,独立构建和选择不同行动路线以实现其目标的能力。」自主系统与可能应该更精确地被描述为计算机化的自动系统的区别在于,它们在运行过程中想出办法,根据传感器的数据输入推测实现目标的最佳方式。在伦敦皇家国际事务研究所的一篇论文中,杜克大学的 Mary Cummings 说,一个自主系统通过传感器感知世界并重构世界,以提供给它的计算机「大脑」一个可以用来做决定的世界模型。有效的自主系统的关键是「世界模型的逼真度和更新的及时性」。

我们需要区分一下「狭义」人工智能以及「通用」人工智能。狭义人工智能让机器比人类更好地完成特定任务,而通用人工智能的应用范围更广。狭义人工智能已经广泛用于民用任务,如搜索和翻译、垃圾邮件过滤器、自动驾驶、高频率股票交易和国际象棋计算机。

等待奇点

通用人工智能可能还需要至少 20 年的时间。一台通用的人工智能机器应该能够执行人类所能完成的几乎任何智力任务。它将具有推理、计划、解决问题、抽象思考和快速学习经验的能力。去年,AlphaGo Zero 机器学会了围棋这种古老的战略棋盘游戏。AlphaGo Zero 被誉为创造出通用算法的重要一步,这种算法将为真正的智能机器提供动力。在 40 多天的时间里,通过数百万次的对弈,它发现了人类花了几千年才发展起来的策略,并添加了一些自己的新策略,展现出其创造力和直觉。

「奇点」是科幻作家 Vernor Vinge 创造的术语,来代指机器变得比他们的创造者更聪明的那一时刻。虽然人类离「奇点」还有很长一段路要走,但是机器人杀手的可能性再也不能被忽视了。Stephen Hawking、Elon Musk、Bill Gates 和许多其他专家都认为,如果处理得不好,人工智能可能会成为人类生存的威胁。

与此同时,狭义人工智能的军事应用已经快要带来另一场革命。美国「第三个抵消战略」的设计师 Robert Work 强调说,这并不完全是关于无人机的,尽管它们将越来越重要。他的主要工作重点是人机协作,帮助人类更快地做出更好的决策,以及「战斗合作」,将无人系统和载人系统结合在一起。

自主系统将利用机器深度学习以「光速」运行,在这种情况下,人类对诸如网络攻击、超音速导弹或电子战等事件的反应速度都不够快。人工智能在大数据分析中也变得越来越重要。军事分析家们目前被大量的数据所淹没,尤其是视频,这些数据是由监视无人机和监控恐怖组织的社交媒体发布的动态。在离开五角大楼之前,他建立了一个算法作战团队,来思考人工智能如何帮助在叙利亚追捕伊斯兰国战士和在朝鲜的移动导弹发射装置。特别是网络战可能会成为算法之间的较量,因为人工智能系统会寻找网络漏洞攻击,而反自主软件会从攻击中学习,以设计最佳响应。

在高级的人机战斗合作中,无人机将会飞到 F-35 等驾驶飞机的前面或周围。人类飞行员将向无人机下达一般任务说明并明确目标,比如击打特定的目标位置。但无人机能够自主决定它如何从一组预定义的行为中进行选择,来达成这一目标,此外还将响应任何意想不到的挑战和机会。或者,无人驾驶的地面车辆可能与配备了可穿戴电子设备和外骨骼的特种部队一起工作,以提供机器的力量和保护。正如 Work 先生所言:「从现在开始的 10 年内,如果首个突破居然不是机器人,那我们真该感到羞耻。」

自主的「无人」车,无论是在空中、地面上还是在海上,都比类似的载人设备有很多优势。除了在人工费上省钱,他们通常还比人类更大胆、更持久,因为他们不会感到劳累、害怕、无聊或生气。它们可能也比有人操纵的设备更便宜、更小,因为它们不需要保护人们免受敌人的攻击。所以它们可以更大量地部署在更危险的环境下。

越来越多的自主无人机将能够执行一系列任务,这些任务将很快使它们不可或缺。无人机将执行全部的侦察或打击任务,而隐形变种将成为穿透复杂防空武器的矛头。有些在等待目标出现时会被设计成在某一高度巡航。以色列已经部署了一种自主的防辐射无人机 Harop,可以飞行长达 6 个小时,只在敌人防空雷达亮起的时候进行攻击。自主高空无人机将被用作以防卫星被摧毁的备份数据链路,或作为反导弹固体激光器的平台。更大的无人机将被部署为加油机和运输机,这些飞机可以在靠近行动的地方运行。

水下战争在未来将变得更加重要,因为海洋提供了某种程度上的圣地,可以向 A2/AD 区域内投射战力。无人海底车(Unmanned undersea vehicles,UUVs)将能够执行许许多多困难而又危险的任务,例如扫雷或在敌方海岸附近布雷;在有争议的水域分布和收集海底反潜传感器网络的数据;用主动声纳巡逻;向载人潜艇补给导弹;甚至成为导弹平台本身。而成本也仅仅是核动力攻击潜艇的一小部分。仍有一些技术上的难题需要克服,但是进步正在加速。

可能对战争的方式最大的改变将来自于同时部署大量的机器人。Paul Scharre 是 CNAS 的自主武器专家,他率先提出了「集群化」的概念,他认为「集体的,集群的机器人系统有可能使军事行动发生更戏剧性的、破坏性的变化。」集群能带来更大的质量、协调性、智力和速度。

多数,而不是少数

正如 Scharre 先生所指出的,集群将解决美国的一个大问题。这个国家目前依靠的是日益减少的极具能力但贵得令人泪目的多任务平台,如果在战争冲突的一开始就损毁了,不可能重新购置。一架 F-35 型飞机的造价将超过 1 亿美元,一艘攻击型潜艇价值 27 亿美元,一艘福特航空母舰加上上面的飞机造价接近 200 亿美元。

相比之下,低成本、可消耗的分布式平台可以被大量构建并由相对较少的人控制。集群会使敌人的日子变得非常难过。它们会有许多不同的形状和大小,每一个都设计来执行一个特定的任务,比如在广阔的区域进行侦察,在地面上保护船只或部队等等。他们将能够找出完成任务的最佳方式,同时也可能被网络连接成一整个「集群组」。Scharre 先生说,3D 打印出来的小型无人机,每架成本可能只有一美元,它可以形成「智能云」,可以渗透到建筑物中,或者被空投到一大片范围内,以寻找隐藏的敌力量军。

可以肯定的是,自主武器系统将在未来几年内出现在战场上。不太清楚的是,美国是否能率先部署它们。2017 年 7 月,中国推出了《新一代人工智能发展规划》,该规划将人工智能指定为未来经济和军事力量的转型技术。它的目标是,到 2030 年,中国将利用美国难以复制的「军民融合」战略成为人工智能领域的卓越力量。此外,2017 年 9 月,普京对刚开学的俄罗斯孩子说:「人工智能就是未来,不仅对俄罗斯而言,更是对整个的人类社会…谁成为这一领域的领导者,就将成为世界的统治者。」特斯拉和 SpaceX 的创始人 Elon Musk 在推特上回应道,「在国家层面上人工智能优势的竞争是最可能导致第三次世界大战的原因。」

Peter Singer 没有 Musk 那么悲观,但他也同意,对人工智能主导地位的竞争正在加剧一场军备竞赛,而这场军备竞赛本身就会产生不安全感。这种军备竞赛可能会使国际局面特别不稳定,因为机器人武器系统的能力在有人想要真正使用之前都不会很清晰。最大的问题是,这种竞争能否被控制,以及确保人类能控制自主系统的这一规则是否真的可能——更不用说能不能执行了

人工智能机器人将成为全新的,或许是存在主义式的威胁

这份特别报告指出,种种战争趋势虽然令人担忧,但至少尚在人类的经验范围内。大国竞争可能卷土重来。企图在灰色地带利用混合战来达到目的的修正主义势力,正在尝试新的战争形式。但是,大国一向都会通过武力来与弱小邻国谈判,这并不是什么新鲜事。新技术的出现增加了核武器国之间的不稳定性,令人担忧,但过去的军备控制协议提供了一些减少风险升级的可能途径。

然而,即将到来的军事机器人革命则不可同日而语。它在伦理、法律、政策和实践领域所引发的问题令人生畏,可能会造成一种全新的(被一些人认为是)存在主义式的危险。人们的日渐担忧已经持续了一段时间。联合国特定常规武器(Certain Conventional Weapons,CCW)公约已经就致命自动化武器(lethal autonomous weapon,LAW)问题组织了讨论,意在禁止或限制某些被视为会对人类造成不合理痛苦的武器。11 月的一次 CCW 会议汇聚了一批政府专家,以及来自 Campaign to Stop Killer Robots 的一些非政府组织,后者要求通过制定具有法律约束力的国际条约来取缔 LAW,正如过去一直被禁止的集束炸弹、地雷和致盲激光那样。

问题在于,自动化武器的范围太广,涵盖了从具有选择性瞄定能力的导弹,到具有认知能力的学习机器,后者可以决定何人、何时以及如何作战。大多数人都同意,致命武力的使用离不开人类参与。但更为棘手的问题是,人类应该如何参与控制才会合适?况且技术发展如此之快,国际外交追之莫及。

更为复杂的是,在人工智能和自动化机器领域,其中最引人注目的进步是由具有商业动机的私营公司创造的。即使达成了禁止军事机器人的协议,自动化武器技术也非常易于转让,并将普及开来。

此外,政府有责任保护公民的安全。说他们不使用化学武器或集束炸弹就能很好地进行管理,这是一回事;而由于一些运动团体引起了关注,就允许潜在对手垄断技术,使他们能够发动粉碎性攻击,这是另一回事。

正如 Peter Singer 指出的那样,人工智能军备竞赛是由不可阻挡的力量所推动:地缘政治竞争、推动知识前沿的科学,以及追求利润的技术企业。所以问题是,其中一些更令人不安的方面是否以及如何能够受到限制。简言之,大多数人都会被这种想法所震惊,即认为机器被允许拥有自主杀人选择权。虽然我们还只能在科幻小说中看到机器人厌恶人类、发动暴乱并采取种族灭绝策略,这种终极噩梦还只是天方夜谭,但其它方面的恐惧却是有据可依的。

噩梦情景

Paul Scharre 担心,自动化系统可能会失灵,比如代码编写出错,或是受到网络攻击。这可能导致机器攻击自己人,或由于系统升级太快,人类伙伴无法及时响应。很难对自动化武器的可靠性进行测试。会思考的机器的行事方式可能会超出其人类控制者的想象。

在针对人类与机器人系统「协作」问题的探讨中,很多是围绕人类在「观察、定位、决定、行动(OODA)决策循环中的位置。一辆 Reaper 遥控无人机需要人类来决定其目的地和行动,因此该名人类操作员是处于 OODA 循环中的。相反,一个闭环系统可以在没有人类操作员的情况下执行大部分任务,但是人类可以随时对其进行调解,比如目标发生了变化,人类就可以中止任务。而一个全自动系统会负责完成所有决策任务,包括目标选择,只需操作员按下启动按钮,此时人类是脱离了决策循环的。对于处于自动驾驶汽车决策循环中的司机来说,他可以让汽车去完成大部分的工作,但如果需要,也可以随时恢复控制权。然而,如果用户只提供给汽车目的地,没有给出任何进一步的干预,且最终汽车自行抵达了目的地,那么在这种情况下,人类就脱离了决策循环。

就目前而言,西方武装力量决定保留决策循环中的部分或全部人类控制。2012 年,五角大楼发布了一条政策指示:「这些 [自动化] 系统的设计应该允许指挥者和操作者的决策权限高于机器,保证人类对武力使用的控制。这些系统的直接使用人,或操作员,必须给予适当关注,并遵照战争法、适用条约、武器系统安全规则和交战适用规则来行事。」

这仍然只是政策。但是五角大楼前国防政策副秘书长 James Miller 说,尽管美国将试图在一个决策循环中保留一个人类操作者,但是交战对手可能不会。例如,如果他们的指挥与控制节点受到攻击,他们可能会即刻采取预授权决策。据信,如果俄罗斯探测到其地震、光线、放射性和压力传感器受到了核攻击,就会自动发射其核导弹。

Miller 先生认为,如果人类是在高度竞争的氛围中运作自动化系统,就会难以抑制让机器接管一切的诱惑:「有人会越过感性和道德的界限。」并且一旦有人这样做之后,其他人肯定也会这么做。对于战争的未来,可以确定的是,技术潜力总能造成各个利益集团对优势资源的争夺。

阅读前一篇

一位领导硅谷人工智能革命的华人|《财富》年度回顾