人工智能——最坏的结果会是啥?对路易斯维尔大学的计算机科学家Roman Yampolskiy而言,它们可以为所欲为。同未来主义者Federico
Pistono共同协作下,他提出了一系列邪恶AI的最糟糕设想:
建立军队(发展网络武器和机器人士兵来实现统治),控制政府(用AI建立霸权,控制人们,或者推翻其他政府),操纵企业(实现垄断,通过非法手段消灭竞争);以及催生黑帽子黑客,恶棍,末日邪教和罪犯。
Yampolskiy认为预先想到最可怕的结果可以帮助人类预防灾难,就如同网络安全专家寻找脆弱点一样。他说:“思考AI的标准框架一直都是为了提出新的安全机制”,但是用网络安全的思维模式来观察这个问题可以提供全新的视角:列出所有可能的坏消息,从而更好地测试我们将会用到的防范措施。
Yampolskiy和Pistono设想的一些灾难场景包括让人类自相残杀。在其中一个场景中,一个AI系统发动了一场全球宣传战争,让政府和人群站在的对立面上,让“整个行星成为一台混乱的机器”。
他们的工作得到了埃隆马斯克旗下一家基金会的赞助,他本人就将AI称为“人类生存的最大威胁”。斯蒂芬霍金也表达过类似的担忧。
杞人忧天?
然而并非所有人都会担心。伦敦大学金斯密斯学院的Mark Bishop就认为这些恐惧太夸张了。中国互联网巨头百度的首席科学家AndrewNg则把担心杀人机器人比作担心火星人口膨胀。
但是Yampolskiy援引了微软的推特聊天机器人Tay满口跑火车的例子。虽然这无伤大雅,但是Yampolskiy说这场意外揭示了这类系统的不可预测性。他说:“研究者没有料到这个结果。”
他补充说:“我不仅仅想要看到我们提出解决方案。我希望你们提出安全机制时再反问自己能不能打破它。”
英国谢菲尔德大学的AI研究者NoelSharkey就赞同用网络安全的思路测试任何系统,尤其是自主武器。但是跟Bishop和Ng一样,他也同样怀疑AI的普遍威胁。他说:“一个邪恶的超级智慧人工智能仍然只存在科幻作品和想象之中。”
转自:http://jandan.net/2016/05/24/evil-ai.html
特别声明:本文转载仅仅是出于科普传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或其它相关事宜,请与我们接洽。
最热文章
对于100年前甚至只是50年前的人来说,今天的城市看起来已经完完全全是一副未来都市的样子
德国概念设计师Paul Siedler的场景创作,宏大气派。\n
所有这些时刻,终将流逝在时光中,一如眼泪,消失在雨中。——《银翼杀手》\n
最近,美国最大的经济研究机构——全国经济研究所(NBER,全美超过一半的诺奖经济学得主都曾是该机构的成员)发布了一份报告,全面分析了 1990 到 2007 年的劳动力市场情况。\n
J·J·艾布拉姆斯显然有很多科洛弗电影在他那神秘的盒子里。\n
我们都知道,到处都在重启;我们也知道,如果有钱,啥都能重启。所以,会不会被重启算不上是个问题,只能问什么时候会被重启。自然而然地,世界各地的各种重启现象衍生出了一个有趣的猜猜游戏:哪一部老作品会是下一个接受这种待遇的?\n
留言