整个世界都在为机器人疯狂,恨不得每天都有关于机器人革命即将来临的文章。然而,这些预测真的都合理吗?机器人革命真的会到来吗?
答案大概是,我们很快会在某些领域见到更多机器人,但实际上,我们的街道和办公室都不会在不久的将来出现一堆机器人。原因之一是机器人还不具备真正去看这个世界的能力。不过,在谈未来的机器人会如何去看之前,我们应该先想想,“看”究竟指什么。
“看”
大 多数人有两只眼睛,我们用它收集物体所反射的光线,并转化成电信号传递给视觉神经。这一过程会在大脑中迅速地完成。大脑利用这些电脉冲和我们的经验来理解 周围世界,并建立现实世界的表现形式。我们依靠这种表现形式来确定方向、捡起东西和做其它无数件我们认为理所当然的事。而这整个活动过程,从收集物体反射 的光线,到理解周围世界,就是“看”的含义。
研究人员估算,大脑中有高达50%的过程关于“看”。几乎世界上所有的动物都有眼睛,并且能以某种方式去“看”。大部分动物,特别是昆虫,拥有比人类简单得多的大脑,却也生活得很好。这说明,一些形式的“看”并不需要哺乳动物大脑中大规模的计算能力。而且在进化过程中,“看”无疑是十分有用的。
机器人视觉系统
因此,许多机器人研究员预测,当机器人拥有视觉后,更多的机器人将会被开发出来,最终成为人类的助手。
迪士尼动画中的WALL·E需要看到地球上所有的垃圾,然后清理它们。
那么,如何让机器人拥有视觉?第一步很简单。我们利用摄像机,就像智能手机上的那种,来收集持续的图像流。机器人摄像技术本质上是一个很广的领域,不过现在我们只把它想象成标准的摄像机。我们将这些图像传给计算机,然后就好办了。
从1970年 代开始,机器人视觉工程师就想到利用图像中的特征。这些特征可能是线条或让人关注的点,比如拐角或纹理。工程师们写出某些算法,用于在图像流中一帧帧地找 到这些特征并追踪它们。这一步使得本来庞杂的像素点数据被锐减为几百或几千个特征的数据。在过去几年中,当计算能力还有限时,这是过程中关键的一步。
之后,工程师开始考虑机器人需要应付的情景。于是他们写出一种能识别图形的软件来帮助机器人理解它们所处的环境。
本地环境
这种软件会创建出机器人所处环境的基本地图,或者尝试将机器人发现的特征和目标特征库里的特征相匹配。本质上来说,机器人就是被人类所写的程序驱动,看一些人类觉得它需要看见的东西。目前,这种机器人视觉系统已经有许多成功的例子,但还不足以稳定到支持机器人用于实际生活。
而实际上,没有一个现有的机器人能够只利用视觉判别行动方向。就连媒体热议的无人驾驶汽车也是用激光或者雷达辅助其视觉系统。
在过去五到十年中,一个新的机器人视觉研究团体形成了。这些研究人员论证了不同于以往的新系统,这些系统用于学习如何去“看”,它们结构的创建以动物视觉为灵感。比如,他们利用了动物脑中神经元层的概念。
工程师只设计了系统的结构,没有创建在这个系统上运行的算法,机器人需要自己解决这个问题。这就是机器学习。由于如今我们很容易以合理的价格获取可观的机器计算能力,这些技术已经开始成为现实!相关的投资也在加速增长。
集体智慧
让 机器人学习的重要性是它们可以很容易地分享学到的东西。一个新的机器人不用一切从头学起,而能够获得其它机器人的经验,并在此之上创建新的东西。比如,一 个机器人可能学会如何分辨一只猫,并把这些知识分享给其它成千上万个机器人。但更重要的是,在一个机器人解决完一个类似在城市中某区域判别行动方向的复杂 任务之后,它也可以马上将知识分享给其它机器人。
而且,互相分享经验的机器人可以一起学习。比如,一千个机器人可能会观察到一千种猫,它们可以通过互联网进行数据分享,一起学习如何将猫分类。这是分配学习的一个例子。未来的机器人将会进行分享和分配学习,这意义重大。不过可能在让一些人激动的同时,吓坏另一些人。
很可能数据中心的自主学习机器这会正在检查你的信用卡交易以防欺诈。这些系统能够识别可能的欺诈,这是人类无法做到的。这也是集体智慧的一个有利应用。
实际的机器人革命
显而易见,机器人用处很广,很难说出我们的生活中哪里用不上机器人。
第一个可以用到机器人的地方就是某些劳动力短缺、本质上对人类没什么吸引力或可能对人有害的岗位。比如,在灾难过后的废墟中进行搜寻,将人们从危险情境中疏散,或是在狭窄且困难的环境中工作。而人类所不擅长的、需要长时间专注的工作,也可以由机器人代劳。未来,若机器人能够看见我们,家庭机器人伙伴也会有用得多。
手术室里,很快也能见到有视觉的机器人协助外科医生。它们良好的视觉、超常的冷静以及结实稳固的手臂使外科医生能专注地做他们最擅长的事——决定接下来做什么。甚至,连做决定的能力都被机器人的集体智慧所取代。
原文链接:http://theconversation.com/how-do-robots-see-the-world-51205
翻译:吴苏栗 审校:檀泽浩
留言