日本绝对是世界上最喜欢研究机器人的国家,他们开发了不同类型的机器人,种类之多令人眼花缭乱,同时机器人的开发水平也一直位列世界前茅。最近,大阪大学的研究人员将他们对机器人的喜爱提升到了一个全新的水平。肢体动作的丰富灵活已经不能满足他们对于机器人的想象,而是需要更多的情绪传达。
这个被称为Affeto的机器人,第一代头部模型是在2011年推出的,现在这个是第二代,相比第一代技术上有着巨大的飞跃。新一代的Affeto拥有儿童般的面部表情,升级后的它最大的改变就是,表达方式更像孩子,有更好和更深的情绪呈现模块,可以更好地与孩子进行互动。
我们都知道,面部表情是人类最丰富、也是最细微的情绪表达的呈现方式,为此对Affeto的面部表情研发也是全方面的,研究人员甚至勘察了116种不同的面部穴位以便更精准地了解面部情绪的传递特征。一方面,勘察面部穴位是从技术上进行三维测量和运动理解,另一方面也正因为如此,研究人员发现了面部的变化点是由变形单元支撑的。
也就是说,这些变形单元有助于创造特定的面部扭曲,使机器人更像人,包括了垂下眼睑,抬起眼睑,唇部相关的系列动作等。为此,研发人员通过数学模型测量了这些面部运动,以量化其表面运动模式的数据,并成功地调整了变形单位,使它们能够在Affetto的脸上呈现精确的面部运动,以便更好地传递相关情绪。
但是,技术上获得进步的同时,改善合成皮肤和施加整体力方面也面临着不小的挑战。
研究带头人石原尚志表示,“过去Android机器人的面部表达一直存在着黑盒问题,都是模糊、笼统的表达。而这次更精准的技术改善将让我们有效地控制机器人的面部动作,引入更多细微差别的表情,比如微笑和皱眉。”
回到研究的初衷。事实上,开发Android儿童机器人面部表情是为了向两岁左右的孩子展示人表情的多样性,用于研究社会背景下人类发展的早期阶段。
其实过去也有很多类似的尝试,尤其在第一代Affetto出来后,研究人员一直处于进一步的探索中,试图了解人与机器人之间可能存在的交互深度。但是过去并没有开发真实的孩子脸部外观,这在很大程度上影响了交互的研究深度。研究人员希望,有了这个新的儿童机器人头,能够对人机交互的深入信息获取起到最大的启发作用。