专题
首页  >  专题  >  媒体视点  >  名刊精选  >  《科学画报》

《科学画报》

开博时间:2016-07-01 14:43:00

由中国科学社于1933年8月创刊,距今已有80年的历史。《科学画报》在80年的办刊历程中,形成了通俗生动、图文并茂地介绍最新科技知识,形式多样地普及科学技术的特点,对提高广大群众的科学水平,启发青年爱好科学、投身科学事业起了很大的作用,当今的不少著名学者、教授、科学家,青少年时代都曾受到它的熏陶和启发。

文章数
分享到:

人工智能怎样改变未来的战争

2021-06-15 11:55:00

  美国哲学家乔治·桑塔亚纳曾悲观地说道:“只有死者才能看到战争的结局。”一句话道尽了战争的残酷。虽然很少有人喜欢战争,但不得不承认,战争是人类历史的一部分。如今,随着人工智能(AI)的发展,人类引入了一种新的军事思维,即按照我们的想法为机器人编程,而最终结果却有可能出乎我们的意料之外。有迹象表明,人工智能将以不可避免和不可预见的方式对人类战争产生深远的影响。

  兵力和社会智力

  战争中兵力往往决定一切,获胜方通常也是兵力最强的一方。英国著名工程师、流体力学家兰彻斯特在对第一次世界大战中一系列实例进行研究后发现:每当进入多对多的混战时,无论是远程武器的攻击,还是短兵相接的近战,人数多的一方,其战斗力往往呈几何级数增强。

  在冲突中,社会智力,即社交智能亦是人类的强大优势之一。我们擅长揣摩他人心思,了解他人想法。我们还通过共同的思想、理念、语言和文化,将没有血缘关系的人,包括一些完全陌生的人团结在一起,惩罚不合作者。这些特性让我们能够组织和装备起一支强大的军队。

  社交智能还让弱小方设法避开或延缓战争,通过计谋、设防、地形、军队列阵等来削弱对方军事实力上的优势。中国古代军事家孙武在其所著《孙子兵法》中提出,军事指挥者要“知己知彼”,方能“百战不殆”,比如,需要部署多少兵力才有胜算,敌方有何意图,对方士气如何,等等。

  要解决战争决策中的一些问题,心智理论很重要。心智理论是指个体理解自己与他人的心理状态,包括情绪、意图、期望、思考和信念等,并借此信息预测和解释他人行为的一种能力。

  战略决策通常是直觉的、下意识的,但还可通过对敌我双方力量对比的反复揣摩和思考来加以优化。即使进入核武器时代后,战略决策依然是由人做出的,因此不可避免地仍会受到意外因素和人类情绪的影响,包括误解和沟通不畅等问题。所以,对人的心理的掌控是决定战争胜负的重要因素之一。

  以“古巴导弹危机”为例,这是心理学家和军事家反复研究的一个案例。1962年,美国总统肯尼迪在获悉苏联在古巴部署导弹的情报后,愤怒之下产生了不惜冒冷战升级的巨大风险进行军事反击的想法。但他的一时之怒很快让位于深思熟虑的努力和尝试,最终通过精心设计的解决方案化解了这场危机,将东西方的紧张对峙化解于无形。在这场有惊无险的导弹危机中,社交智能和心智理论起到了决定性的作用。

  改变战争模式

  人工智能的到来改变了传统的战争模式。首先,它增强了战略决策的攻击性倾向。人工智能强大的模式识别能力可轻易发现敌方的弱点,精确定位打击目标,集中力量攻其关键性的薄弱点,在战争中将己方伤亡降至最低。精心策划和协调的攻击甚至能一次性击毁敌方所有报复性军事力量。面对“一剑封喉”的诱惑,交战方很可能会选择先发制人。

  其次,人工智能的出现增加了国与国之间军事实力对比的不确定性。军事领域内的人工智能与其说是一种武器,不如说是一种决策技术。人工智能决策在精确度和速度上的微弱差距,将成为决定战争胜负的关键因素。

  可以说,人工智能将打破原有的战略平衡,就像20世纪中期的核武器那样。有学者指出,人工智能做决定的方式与人类截然不同,这将产生难以预料的后果。人工智能没有情感、情绪的体验,不能体会、揣摩对方的想法,而这正是人类在做重大决策时不可缺少的心理能力,肯尼迪当年正是利用这种能力化解了一触即发的古巴导弹危机。

  思维方式与人类不同

  战争策略是敌对双方的博弈,人工智能要胜过对方,就要拥有预测对方行动的能力。最直接的方法是,利用人工智能在图像处理与模式识别、数据存储和调用等方面的巨大优势,研究对手以前的行为,建立概率模型。这正是人工智能阿尔法围棋(AlphaGo)战胜围棋世界冠军李世石的关键。阿尔法围棋能以超快速度,在数据量庞大且千变万化的各种走法中搜索,做出最佳决策。然而,这种方法在战术层面或许很有效,在战略层面却难以发挥作用。

  另一种方法是让人工智能模拟对手的“内心想法”,但这只有在不太复杂的情况下才能做到。战略人工智能或许能够凭“直觉”判断出同样水平人工智能对手的目标,却无法判断对方实现这些目标的途径。有专家认为,人工智能学习的内部机制就像一个黑匣子,即使那些设计它们的技术人员也难以一窥其中奥妙。

  如果人工智能的对手是人类,问题就更复杂了。人工智能或许可以将人类思维的一些主题融入其中,但它们不能理解这些东西对人类的意义。要让人工智能理解人类的想法,比如“我知道你知道她是知道的”,还有很长的路要走。

  我们也许可以尝试在战争冲突发生之前,将交战规则作为一种奖励机制编入人工智能的程序,告诉它们应该争取什么样的结果,以及如何去做。这在实现战术层面的一些目标上或许是可行的,包括赢得战斗、将平民伤亡降至最低等,但更大的军事行动要复杂得多。人类擅长模糊的、有时甚至是互相矛盾的思维方式,能够在瞬息万变的战场上做出及时的应对,但这些却难以准确描述并编入人工智能程序,而在战争中是没有足够时间对程序进行调整的,片刻的耽搁就有可能导致一败涂地。

  在瞬间决定一切

  人工智能有时会做出令人意外的行动。例如,阿尔法围棋在与李世石的博弈中走出的关键性一步,就是周围观战的围棋专家完全预料不到的。这并非因为阿尔法围棋有什么了不起的创意,也不是它能够洞察李世石的策略。它出奇制胜的那一步,归结于强大的概率推理能力和对数十万场早期比赛的完美记忆,加上快得令人眼花缭乱的计算速度。

  在战场上,人工智能也可能有出人意料之举。在事态失控之前,人类未必有时间干预人工智能的决策。有军事家认为,在战术层面上,人类对现代战争的监控空间将越来越小,在战略层面上同样如此。

  人工智能的能力越来越强,速度越来越快,自动化程度越来越高,但它们没有人类的心智理论和移情能力,也不会像人类那样向对方进行恐吓和胁迫。它们只是通过冷冰冰的、无情感、无情绪的概率,在瞬间决定一切。

  阿尔法围棋出奇制胜的那一步棋就是这样走出来的。有人担心,或许在未来的某一天,冷冰冰的概率也会导致这样的场景:一支无人机战队以超高速度掠过大洋,直逼某个国家的首都。

  这到底是杞人忧天,还是合理想象,目前没有人能给出肯定的回答。人工智能在军事领域的应用日渐广泛,它将怎样深刻影响未来的战争,人工智能的军事应用该受到哪些控制和约束,值得我们认真思考。

本文来自《科学画报》

©2011-2021 版权所有:中国数字科技馆
未经书面许可任何人不得复制或镜像
京ICP备11000850号 京公网安备110105007388号
信息网络传播视听节目许可证0111611号
国家科技基础条件平台