一种面向人机交互的多类信息耦合的情感识别方法

基本信息

申请号 CN201410482861.8 申请日 -
公开(公告)号 CN104200804B 公开(公告)日 2017-05-17
申请公布号 CN104200804B 申请公布日 2017-05-17
分类号 G10L15/02(2006.01)I;G10L15/26(2006.01)I;G10L25/63(2013.01)I;G06K9/00(2006.01)I;G06K9/46(2006.01)I 分类 乐器;声学;
发明人 孙晓;陈炜亮;李承程;任福继 申请(专利权)人 山东心法科技有限公司
代理机构 安徽省合肥新安专利代理有限责任公司 代理人 何梅生
地址 266000 山东省青岛市市南区宁夏路288号市南软件园11号楼A座5层504室
法律状态 -

摘要

摘要 本发明公开了一种基于深度学习的多类信息耦合的情感识别方法,其特征是按如下步骤进行:1获取人脸表情的视频数据以及语音数据;2对文本内容进行文本特征提取,获得文本信息特征;3提取语音数据的韵律学特征和整体语音特征并进行耦合,获得语音信息特征;3对视频数据进行进行图像特征提取,获得表情信息特征;4对文本信息特征、语音信息特征和表情信息特征进行耦合,获得综合信息特征;5利用深度学习方法对综合信息特征进行数据优化,并利用分类器对优化的综合信息特征进行训练,获得情感识别模型,以情感识别模型实现对多类信息耦合的情感识别。本发明能全面结合文本、语音和视频三个方面的数据信息,从而提高人机交互中的情感状态判断的准确度。