一种基于BERT和BiGRU融合注意力机制的实体关系抽取方法
基本信息
申请号 | CN202111551310.9 | 申请日 | - |
公开(公告)号 | CN114510576A | 公开(公告)日 | 2022-05-17 |
申请公布号 | CN114510576A | 申请公布日 | 2022-05-17 |
分类号 | G06F16/36(2019.01)I;G06F16/35(2019.01)I;G06N3/04(2006.01)I;G06N3/08(2006.01)I;G06K9/62(2022.01)I;G06F40/284(2020.01)I;G06F40/216(2020.01)I | 分类 | 计算;推算;计数; |
发明人 | 周焕来;李嘉豪;乔磊崖;曾靓;李金润;刘桐;贾海涛;王俊 | 申请(专利权)人 | 一拓通信集团股份有限公司 |
代理机构 | - | 代理人 | - |
地址 | 210000江苏省南京市江苏自贸区南京片区浦滨路320号科创一号大厦B座701室 | ||
法律状态 | - |
摘要
摘要 | 本发明提出采用BERT模型和BiGRU网络并融入注意力机制的实体关系抽取方法。该方法使用BERT作为神经网络模型嵌入层,使用动态词向量对中文进行编码,弥补了word2vec在解决多义词问题上的不足;基于GRU更好地处理序列化任务的能力和CNN提取局部特征的突出性能,改善了单个神经网络模型特征提取不足的问题;结合了注意力机制,输出特征通过注意力机制加权,使得对关系分类影响较大的词通过注意力机制加权,从而提高分类精度。 |
