随着AI情绪识别技术的发展,机器已经能识别人类情绪的变化。并且,情绪识别也正被越来越广泛地应用于机器智能中。近日,台湾联合大学研究人员还提出了用特定连续动作间骨骼点速度的变化程度,来区分人类微妙情绪变化的新方法。
AI通过骨骼检测识别情绪
“如今AI能够通过面部特征、语义与脑波分析来识别人类情绪,而我们现在试图提出一种新的情绪识别方式,可以让人们在不同场景下有更多选择,更加准确地进行情绪识别。”论文第一作者、台湾联合大学助理教授蔡明峰表示,“基于PoseNet深度学习神经网络,我们提出时空变化图卷积网络技术(STV-GCN),在进行情绪识别时,获得人体骨架关键点信息将不受衣物、皮肤或肌肉等因素的影响。”
这种新的方法通过时空变化图卷积网络的连续运动,来训练和识别人类行为模式,训练方法是采用骨骼检测技术,计算连续动作之间的骨骼点变化程度,并使用特定算法对速度水平进行分类,以区分快速和细微的动作。
目前,该系统对相同动作不同速度的识别精度达到88.89%,情绪状态的识别精度达到83.34%。并且,通过骨骼点变化进行情感识别,还能避免潜在的危险发生。比如当系统识别出处于愤怒或悲伤等特殊情绪状况的人时,会主动通知该区域的安全管理人员进行处理,能在一定程度上规避暴力冲突或恶性伤害事件发生。
准确率最高达到90%以上
在AI情绪识别领域,多数识别方法在分析面部表情的背景下进行。而在现实生活中,人们有时会通过语言和表情来掩饰自己的情绪,相比之下,肢体语言却很难操纵,微表情很难被掩饰,往往能传达出更细致、真实的情感状态。
中国科学院自动化研究所研究员、模式识别国家重点实验室副主任陶建华介绍说,目前主要有两种AI情感识别方式。一种是接触式,即利用脑电、皮肤电、心率心跳等生理特征的信号变化,通过生理参数分析人的情绪变化。另一种是非接触式,可以基于音频或视频,利用声音的特点或者依靠视频信息中表情、头部、身体姿态变化进行识别。“无论是传统的统计模型,还是现在基于神经网络、深度神经网络的一些方法,都能取得比较好的结果”。
“机器不但能识别出人的情绪,还相当准确。总体来说,现在的准确率超过80%,在一些特定的场景中,甚至能达到90%以上。”陶建华说,“如果结合语义、周围环境等信息,机器还可以综合判断人的心理状况和真实的意图,从而改善人机交互能力,增强人机交互的友好性。”
有望应用到更多场景
陶建华介绍说,机器与人、机器与机器之间的交流和人们的理想尚有距离。在情感识别过程中,如何在一个数据集中做好一个模型,并在更大范围内使用是一个问题。“为此,有些方面需要进一步提高。”
如果AI能够更“善解人意”,就可以应用到更多的场景。比如,在全球疫情常态化的背景下,线上学习逐渐成为一种重要的学习方式。但是,屏幕前的学生是否在认真听讲、是否听懂了?他在困惑、紧张或者觉得乏味时,都会有相应的情绪和表现。如果通过AI技术,识别出屏幕前学生的情绪并判断出学习状态,就可以更好地控制难度和进度。
截至目前,已经有不少AI情绪识别研究机构在远程医疗、远程教育、养老看护、打击犯罪、营销、游戏,以及定向广告投放等领域进行探索。据一家市场研究公司预测,2021年全球情感计算市场将达到540亿美元。