老年人的孤独 养个机器人来打败它十分必要

与非网 中字

让机器人理解:“昨天我在客厅里吃药,药瓶去哪里了?”

在家庭生活中,王爷爷可能问机器人:昨天我在客厅里吃药,药瓶去哪里了?这个问题貌似非常简单,可能三岁小朋友也能理解,但是对机器人来说里面有很难跨越的技术鸿沟。其中王爷爷是对人的识别,吃药是动作识别,药瓶是物体识别,这些需要底层识别模块来实现。再看“昨天”和“客厅”这两个关键词,客厅是对空间的理解,昨天是对时间信的理解。如何让机器人理解这句话?首先最底层要进行人物识别、物体识别、情绪检测、动作检测,接下来,有一个三维语义环境,就是把底层检测到的信息和物理环境对应起来,比如人在什么位置,物体在什么位置,这件事发生在什么位置,这些信息只有在三维语义环境的模块中对应上,机器人才能够理解事件发生的意义。

英特尔利用三维语义环境和个性化知识库这两个模块来解决这些问题,从底层的感知模块走到应用,但是底层的感知模块不可能做到百分之百精准。这个错误会往上层传播,到了空间层,我们希望把底层的这些信息打上空间智能的标签,位置跟空间相对的情况,包括跟空间的三维建模,都是在这一层次进行的。理想的情况机器人到了家里,马上建立空间模型,并且能够理解空间的含义。到了知识库层面,能够很好的记忆这个知识,基于这个知识进行推理、应用,但是目前的技术还存在问题,不可能做到百分之百精准。

三维语义环境所做的是从感知层得到信息,比如药瓶的位置,用坐标的方式标记出来,接下来空间智能要理解这个空间是客厅还是餐厅,到 这一层次才能跟人交流,进而判断出客厅,然后顺利在客厅找到药瓶。可以看出,空间智能主要的工作是快速对空间进行建模,并理解这个空间。关于个性化的知识图谱,主要功能是记忆和推理,所面临的最大挑战来自于我们想记录的知识。人类知识分两块:一块是稳定的知识,就像谷歌和Facebook力图想存的知识,谷歌叫Google Graph,这些知识可以事先做好,并且经过专家审核;另外一种是个性化知识,是动态变化的,机器人来到家庭之前无法提前获取,为了获取这样的知识,我们的挑战必须要有一个合适的知识表示,合适的知识推理,而且这个知识图谱要能容忍底层产生的错误。

强化学习让机器人能够完成主动服务

当机器人能够理解语言的时候,说明机器人已经具备了和人沟通的能力,但是想要实现真正的照顾别人,机器人需要更深的理解能力,不光是被动地去服务,还能主动的猜测主人的意图。从王爷爷的例子来看,当王爷爷需要药瓶时机器人可以拿给他是一种情况,如果机器人看到王爷爷在找东西,能够猜测他想找药瓶还是找水,就能提供主动服务。这里会用到强化学习,它教给机器人三个功能:一是如何学习新的能力;二是如何做的一次比一次好;三是如何主动地提供正确服务。

关于一次比一次做的好这一点,需要通过小样本的强化学习来解决。我们希望机器人一次比一次做得好,需要猜测,而猜测本身也是需要优化的。猜测的目的主要有两方面,一是有时候不能进行标注,比如王爷爷走向桌子可能是找水,走向柜子可能是找药,但是这个事情无法去标注,机器人需要去主动采集样本,通过回报自己进行标注。强化学习需要不断探索和优化,从而让机器人更加智能。

当然,机器人的学习还面临巨大的挑战,比如:人的关节都是全向关节,而机器人不能做到这一点,每一个关节只能向一个方向旋转。如果我们希望把人的一个动作映射到机器人上,需要做一个推广,使它能够适应机器人独特的运动特性。另外,我们应用时还要考虑到采样成本的预算,当学习一个新的性能时,机器人必须一次学会。我们需要考虑采样成本和比较更高级的需求,来达到对于实际机器人学习来说可用的程度。

关于人工智能会替代人类的说法已经深入人心,曾经引来一波恐慌,听完英特尔研究院的工程师讲解,笔者觉得那个时代还很遥远,机器人需要经过漫长的自我学习才能达到熟练理解空间和语义的阶段,要实现真正的智能似乎还需要计算能力和存储能力的进一步的提高,硬件技术和软件算法还需要很大的进步空间。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存