都在吹捧谷歌关于机器人的新研究,更多的隐患你注意到了吗?

OFweek机器人网 中字

近日消息,谷歌公布了一项重磅研究进展:通过结合更强大的人工智能(AI)大型语言模型,进一步提高机器人的“智商”。

如今机器人已经随处可见,它们的身影也出现在世界各地的工厂中。不过,这些机器人只能遵循待定指令,专注于完成简单的预编程任务。但是谷歌的机器人似乎有所不同,它们可以接受简单命令并完成更复杂的任务,看起来像人类。

谷歌实验室的研究人员最近展示了新的机器人技能,用各种塑料玩具原料制作出汉堡。这个机器人了解烹饪过程,知道要在肉之后和生菜之前加入番茄酱,但他认为正确的方法应该是将整个瓶子放进汉堡里。

虽然这个机器人并没有真正意义上完成一个汉堡,但是这对于机器人的发展来说是一个很大的突破。换而言之,是谷歌让机器人和大型语言模型学了本事,会自学了!这个机器人不仅能听懂你说的话,还能相应付出行动。以后不用等命令,想做什么,只需吩咐它一句。

用语言模型做“大脑”,机器人充当“手”与“眼”,研究人员表示,这类机器人现在不再需要接受一连串的分析指令,然后一个接一个地指导它们完成每个动作,将PaLM-SayCan集成到机器人中后,机器人通过使用思维链提示和执行请求所需的分步解决方案,能更好地执行复杂、抽象的任务,根据自身能力权衡接下来最合适的执行步骤,并实现高度可解释的行动结果。

显而易见,谷歌为此项目投入了大量资源,而当我们在感叹科技的进步同时也引发担忧——这项研究是值得的吗?

首先,众所周知,这个新系统所依赖的大语言模型,而论起其背后涉及到社会、伦理、公平、数据泄露和信息安全等问题时,它是否能够处理得得心应手呢?

在PaLM-SayCam实验清楚地表明,研究人员就已经提出有21个问题需要更新。比如大型语言模型会建议人自杀,或者签署种族灭绝协定,或者它们可能带毒。而且它们对训练集的细节非常(过度)敏感——当你把这些训练集放进机器人里,如果他们误解了你,或者没有充分理解你要求的含义,他们可能会给你带来大麻烦。

值得称赞的是,PaLM-SayCan 的工作人员至少能想到预防这种情况的发生。对于机器人那里传来的每一个请求,他们都会进行一种可行性检查:语言模型推断出用户想要做的这件事,是否真的可以完成。但是这就万无一失了吗?如果用户要求系统将猫放入洗碗机,这的确是可行的,但安全吗?合乎道德吗?如果系统误解了人类,也会发生类似的问题。

比如,如果人们说「把它放在洗碗机里」,而大语言模型将「它」的指代对象视为单词cat,而用户指的是别的东西。从对大型语言模型的所有研究中,我们会了解到:它们根本就不够可靠,无法让我们100%地清楚了解用户的意图。误解是无法避免的。如果不对这些系统进行真正严格的检查,其中一些误解可能会导致灾难。

现实情况是,目前还没有可行的办法能够解决许多困扰大型语言模型的「alignment」问题,其与我们真实世界还存在鸿沟。除此之外还有更多的问题亟待我们去思考,如果真的解决了机器人独立思考、解决问题的难题,未来在机器人拥有人类的学习能力和理解能力,并且具有思考人类下达指令的能力的情况下,同时还要完全服从人类时,这时候人类真的还能“驾驭”具有同样智慧的机器人吗?并且只具有思考和理解学习等能力,而把人类具备的情感能力单独摘出来,这时机器人还能成为人类的帮手吗?

声明: 本网站所刊载信息,不代表OFweek观点。刊用本站稿件,务经书面授权。未经授权禁止转载、摘编、复制、翻译及建立镜像,违者将依法追究法律责任。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存