为什么超级人工智能的发展难以预测?--中国数字科技馆
./t20200506_946454_taonews.html
首页  >  音视频  >  音频  >  科学播报

为什么超级人工智能的发展难以预测?

为什么超级人工智能的发展难以预测?(科学播报) 0:00/0:00
最新发布时间: 2020-05-02
分享到:

1997年“深蓝”打败了国际象棋世界冠军(图片来源:pixabay)

  人们曾经不止一次地对科技的发展做出过分乐观的预测,尤其是在人工智能方面。五十年代,人们认为计算机在象棋上打败人类只要十年,但人类在四十年后才得以实现。象棋程序“深蓝(Deep Blue)”直到1997年才第一次打败了人类冠军。而在六十年代,人们则认为四十年后人工智能将会超越人类的智慧,我们的社会将被超级人工智能所覆盖。但至今为止,这仍然还是科幻电影里才会出现的情节。

  事实上,即便是在今天,人们也总认为人工智能将迎来高速发展的时代。尤其是2016年,当 Google 公司旗下 DeepMind 团队所开发的“阿尔法围棋(AlphaGo)”程序打败了人类职业围棋世界冠军,让人工智能话题再度成为社会热点的时候,来自不同领域的专家们开始畅想人工智能在二十年之内的发展。这些构想包括但不限于 AI 诊断、自动驾驶等技术的大范围推广,以及通过严格的图灵测试等等。

  然而,就像二十年前的计算机程序在面对像围棋这类更加复杂项目的时候,并没有表现出比人类拥有更多的优势一样,今天的人工智能程序其实也不如人们所想的那样无所不能。

2016年“阿尔法围棋”打败了围棋世界冠军(图片来源:pixabay)

  现实的情况是,一些人工智能技术的发展进度缓慢、困难重重,甚至每一项具体的应用都有无法解决的核心问题。人工智能的优势显而易见,但人们总是忽视阻碍其发展的两个原因。首先,人工智能基于算法学习,它并不以人类的方式进行所谓的“思考”,哪怕是再高级的人工智能,也会犯下在人们看来“极为愚蠢”的错误。其次,人工智能不能综合应用多个领域的所谓“知识”,这也决定了人工智能发展的一个瓶颈。

  具体来说,人工智能会以自己的方式去达到需要的结果,而不在乎过程。最简单的例子,在棋类竞技领域,它可以计算出当前棋局下所有可能的比赛结果,再选出最有可能获胜的一种下法,如此不断重复推进棋局。人工智能只会进行比较和学习,并不会建立自己的常识与知识系统。

  而人类的大脑不可能达到计算机的运算量,人类棋手只会在一个较近的回合范围内进行思考,并且结合过往的经验做出判断,这其中往往还有棋局规则之外的知识。反过来说,人工智能在一个方面的专业能力并不能化用到另一个方面上,人工智能不能自行地结合多种不同的技能去应对复杂并且充满变化的实际问题。

人工智能与人类的思考模式完全不同(图片来源:pixabay)

  正因如此,人类不会把明显的大炮照片误认为是鸵鸟,而人工智能不依赖于所谓的经验与常识,就常常会出现这类可笑的错误。这些问题也许并不是无法解决,但是如果人工智能真的拥有了和人类一样的思维方式,那可能就会形成一种需要我们去判断它是否有感知、有意识的道德困境。因此,无论是从人工智能自身涉及的技术上看,还是从人类开发的角度上看,它都还需要长期按部就班地进行平稳推进。

  正因人工智能的发展方向直到现在也依然是一个难以做出判断的问题,所以我们也很难准确预测未来的人工智能会是怎样的形态。不过,智能算法的一些成果已经广泛地应用在我们的日常生活之中,我们或许也不必过多地去要求实现所谓的超级人工智能。正如科学家利用“阿尔法围棋”程序做到过去人们做不到的事情一样,也许其他方向的发展,会比我们想象中那个最终被超级人工智能覆盖的世界更有价值。

 

原创稿件

制作 叶鹏飞

审校 赵峥 北京师范大学物理系教授

参考文献:Silver, D., Hubert, T., Schrittwieser, J., Antonoglou, I., Lai, M., Guez, A., . . . Hassabis, D. (2018). A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play. Science, 362, 1140-1144.


专辑里的声音
查看更多
©2011-2021 版权所有:中国数字科技馆
未经书面许可任何人不得复制或镜像
京ICP备11000850号 京公网安备11010502039775号
信息网络传播视听节目许可证0111611号
国家科技基础条件平台