在美国加利福尼亚州拉古纳比奇举行的一场科技大会上,情感机器人“佩珀”和一位与会者拍手。(路透社)
参考消息网11月2日报道 外媒称,随着人工智能技术越来越先进,人们愈发担心,机器人可能变成一种威胁。据加利福尼亚大学伯克利分校计算机学教授斯图尔特·拉塞尔说,这种危险是可以避免的,如果我们能够解决如何把人类价值变成可编程的代码。
据美国石英财经网站11月1日报道,拉塞尔说,在机器人领域,“道德哲学将是一个非常重要的产业部门”。他指出:“随着机器人从事更加复杂的任务,我们绝对有必要把我们人类的道德转化为人工智能语言。”
比如说,如果机器人在房子里做杂务——预计未来几十年将会出现这种场面——的话,你可不想机器人把宠物猫放进烤箱里,给饥肠辘辘的孩子们做顿大餐。拉塞尔说:“你会希望给那个机器人预先载入一大套人类价值。”
人们已将基本的人类价值编入了一些机器人的程序。玛丽女王大学计算机学教授彼得·麦克欧文说,可移动机器人就被编入了与人类保持适当距离的程序。
他说:“这是机器人行为可被视为体现某种价值的一个极为简单的例子。如果机器人在你和别人说话时靠近你们的私人空间,你就会认为,这不是一个有教养的人会做的事情。”
创造更复杂的、具备道德规范的机器人是可能的,但条件是我们要找到把人类价值设定成明确规则的办法。
麦克欧文说:“这种价值设定工程要有研究人类价值的专家参与进来,其中包括哲学家、心理学家、人种学家以及外行人士。就像你把专业知识转化成一套规则一样,你可以将这个讨论组提供的信息转化成一系列规则。”
此外,机器人还可以选取根据有关人类行为的大套数据制成的模型来学习人类价值。
麦克欧文说,只有在程序员不负责任的情况下,机器人才会成为一种危险。
他说:“就机器人违反人类价值这一问题,人们最担心的是,如果人类因为没有进行充分测试而没有给机器人正确编程的话,机器人就不会有充分的安全保障,它们就会有办法去打破某种禁忌。”
简单的方法是,当出现特殊情况时,给机器人编入让人去检查机器人行为是否正确的程序。
麦克欧文说:“如果机器人不确定一种动物是否适合被放进微波炉时,它可以停下来,发出哔哔的信号声,以请求人给出指示。”
把人类价值编成程序最困难的一步是,要确定什么才是我们认为的道德行为,以及如何制定一套道德规则。如果我们有了答案,那么机器人对人类就会是有益的。
最热文章
人工智能写科幻小说,和作家写科幻小说有什么不一样?
德国概念设计师Paul Siedler的场景创作,宏大气派。
《静音》是一部 Netflix 电影。尽管 Netflix 过去一年在原创电影上的表现并不如预期,但是《静音》仍让人颇为期待
最近,美国最大的经济研究机构——全国经济研究所(NBER,全美超过一半的诺奖经济学得主都曾是该机构的成员)发布了一份报告,全面分析了 1990 到 2007 年的劳动力市场情况。\n
坏机器人制片公司最新的一部电影名为《霸主》(overlord),背景设置在二战时期,很可能是一部在半遮半掩中秘密制作的科洛弗电影系列。
我们都知道,到处都在重启;我们也知道,如果有钱,啥都能重启。所以,会不会被重启算不上是个问题,只能问什么时候会被重启。自然而然地,世界各地的各种重启现象衍生出了一个有趣的猜猜游戏:哪一部老作品会是下一个接受这种待遇的?\n