一种面向人机交互的多类信息耦合的情感识别方法
基本信息
申请号 | CN201410482861.8 | 申请日 | - |
公开(公告)号 | CN104200804B | 公开(公告)日 | 2017-05-17 |
申请公布号 | CN104200804B | 申请公布日 | 2017-05-17 |
分类号 | G10L15/02(2006.01)I;G10L15/26(2006.01)I;G10L25/63(2013.01)I;G06K9/00(2006.01)I;G06K9/46(2006.01)I | 分类 | 乐器;声学; |
发明人 | 孙晓;陈炜亮;李承程;任福继 | 申请(专利权)人 | 山东心法科技有限公司 |
代理机构 | 安徽省合肥新安专利代理有限责任公司 | 代理人 | 何梅生 |
地址 | 266000 山东省青岛市市南区宁夏路288号市南软件园11号楼A座5层504室 | ||
法律状态 | - |
摘要
摘要 | 本发明公开了一种基于深度学习的多类信息耦合的情感识别方法,其特征是按如下步骤进行:1获取人脸表情的视频数据以及语音数据;2对文本内容进行文本特征提取,获得文本信息特征;3提取语音数据的韵律学特征和整体语音特征并进行耦合,获得语音信息特征;3对视频数据进行进行图像特征提取,获得表情信息特征;4对文本信息特征、语音信息特征和表情信息特征进行耦合,获得综合信息特征;5利用深度学习方法对综合信息特征进行数据优化,并利用分类器对优化的综合信息特征进行训练,获得情感识别模型,以情感识别模型实现对多类信息耦合的情感识别。本发明能全面结合文本、语音和视频三个方面的数据信息,从而提高人机交互中的情感状态判断的准确度。 |
