一种基于BERT和BiGRU融合注意力机制的实体关系抽取方法

基本信息

申请号 CN202111551310.9 申请日 -
公开(公告)号 CN114510576A 公开(公告)日 2022-05-17
申请公布号 CN114510576A 申请公布日 2022-05-17
分类号 G06F16/36(2019.01)I;G06F16/35(2019.01)I;G06N3/04(2006.01)I;G06N3/08(2006.01)I;G06K9/62(2022.01)I;G06F40/284(2020.01)I;G06F40/216(2020.01)I 分类 计算;推算;计数;
发明人 周焕来;李嘉豪;乔磊崖;曾靓;李金润;刘桐;贾海涛;王俊 申请(专利权)人 一拓通信集团股份有限公司
代理机构 - 代理人 -
地址 210000江苏省南京市江苏自贸区南京片区浦滨路320号科创一号大厦B座701室
法律状态 -

摘要

摘要 本发明提出采用BERT模型和BiGRU网络并融入注意力机制的实体关系抽取方法。该方法使用BERT作为神经网络模型嵌入层,使用动态词向量对中文进行编码,弥补了word2vec在解决多义词问题上的不足;基于GRU更好地处理序列化任务的能力和CNN提取局部特征的突出性能,改善了单个神经网络模型特征提取不足的问题;结合了注意力机制,输出特征通过注意力机制加权,使得对关系分类影响较大的词通过注意力机制加权,从而提高分类精度。