某审讯现场,一场博弈正在进行。嫌疑人在面无表情的表象下,隐藏着什么样的情绪?是否在紧张恐惧,有没有在说谎掩饰?显示屏幕上,起起伏伏的曲线正在实时描绘着嫌犯的生理指标数据以及心理情绪跟踪画像。当问到某个问题时,机器突然告警,审讯人员根据可视化的心理情绪分析结果,不断调整审讯问话方向,迅速抓住案情要害,打开案件突破口。这是电影中的片段吗,对于这样的情景,你是否会感到惊讶?AI和机器视觉真的能探测到我们的情绪吗?
上述场景已经被国家高新技术企业——深圳市科思创动科技有限公司(以下简称“科思创动”)实现,所采用的技术正是该公司自主研发的非接触式AI生理、心理情绪识别。为一探究竟,我们采访了科思创动创始人曾光博士,一起探索人工智能在生理和心理识别领域的现状和发展前景。
用AI感知最真实的内心世界
机器帮助人类进行情绪识别的历史并不长,但近年来发展速度惊人。伴随着机器视觉、深度学习等人工智能技术的快速发展,国内外出现了不同方式的情绪识别技术。有基于语音声纹的、有基于表情识别、有基于肌肉振动的、有基于文本的……与上述方法不同,科思创动则利用机器视觉的处理方法,以非接触方式获取自主神经系统所唤起的生理指标变化,并结合生理特征和微动作/微表情利用AI进行最为真实的心理情绪识别与分析。
非接触方式最突出的优势是无感知及场景适应能力强。在司法心理审讯领域,传统设备需要事前安装心电、皮电、呼吸等多组传感器 ,调试的时间往往在40分钟以上。不仅安装时间长,还给受测人带来额外的心理负担,影响测试结果。而非接触式的生理心理情绪识别技术,则利用一个小小的摄像头让受测人在无感知状态下完成识别与分析,有效降低对抗情绪,除了能够替代原来的接触式心理测试设备外,还能实现身心监控、心理跟踪、心理评估等功能,极大的丰富了生理和情绪检测技术在社会公共安全领域的应用。
“目前市场上部分的情绪识别类产品是基于表情识别法并在广告效果评估等领域得到应用,但依据表情识别情绪在很多应用里面存在天然缺陷,人们可以通过伪装面部表情来掩饰自己的真实情绪,而这种伪装往往不易被发现,不能保证情绪识别的可靠性、真实性。”曾光博士说。
以机器视觉捕获主观不可控制的生理指标并基于此来推断内心真实情绪,这就解决了表情识别可以被人为控制的缺点,使得这项技术在社会公共安全领域得到广泛的认同和应用。科思创动以非接触的方式,利用摄像头即可获取人心率及变异性、血压变化、血氧浓度、呼吸等生理指标,并结合被检测对象的年龄段、性别、眼球转动频率、头部抖动频率、脸部微表情变化等因素分析计算,从而判定被检测者的心理情绪变化。
技术打造“护城河”
除了生理指标外,科思创动的深度学习算法模型还纳入了微动作、微表情和生理特征等维度,使智能情绪识别技术从单模态向多模态演进。
众所周知,一个好的AI算法模型需要数据的“喂养”和训练,当被问及科思创动的核心竞争力时,曾光博士说:“算法和数据是科思创动最大的‘护城河’,科思创动实案测试数据超过千例,产学研合作项目试验数据和C端应用数据分别超过十万级和百万级。不要小看这千例实际案件数据,这里包括了几万小时的实案数据,比现有的公有情绪检测数据库要大很多倍。”
基于AI的情绪识别应用场景众多,如公检法司安的审讯问话、公共安全/安防、医疗健康、互联网金融、远程教育、直播娱乐、安全驾驶异常情绪检测与干预等。随着行业发展,情绪识别算法需要不断迭代优化。2G端场景向2C端场景的迁移,就对算法和产品实现提出了不同的适应性要求。“这就对不同环境下算法识别率的优化处理和算法鲁棒性提升,以及有效降低算法运行时间和资源要求等提出了很高的要求。比如在利用手机摄像头来监测人的生理和情绪指标,这就是一个典型的功耗和计算能力受限场景下实现AI算法和运算,现在科思创动的算法已经在手机上及魔镜等ARM CPU上实现了预商用;再比如说,在很多场景下,边缘计算和云结合的AI很重要,目前科思创动的产品已经完全基于边云架构,也可以在公有云和私有云上实现弹性部署;还有就是,在实现情绪感知后,如何打通从感知到认知的“任督二脉”,形成感知到认知的“闭环”。针对这些不同应用场景,除了持续的模型训练外,还需要开发不同的算法和解决方案。公司目前依赖得到公检法司安领域验证和认可的算法和模型,正在积极向2C端市场扩展,并得到了一些TOP级行业合作伙伴的认可,并在一起合作就实际的应用进行联合开发。”曾光博士说。