一种基于注意力共享Transformer的语法改错模型
基本信息
申请号 | CN202010482641.0 | 申请日 | - |
公开(公告)号 | CN111859927A | 公开(公告)日 | 2020-10-30 |
申请公布号 | CN111859927A | 申请公布日 | 2020-10-30 |
分类号 | G06F40/253(2020.01)I | 分类 | 计算;推算;计数; |
发明人 | 徐书尧;陈进;秦龙 | 申请(专利权)人 | 北京先声智能科技有限公司 |
代理机构 | 北京中企讯专利代理事务所(普通合伙) | 代理人 | 北京先声智能科技有限公司 |
地址 | 100000北京市海淀区上庄乡上庄村北京市西郊农场机关10幢平房1027 | ||
法律状态 | - |
摘要
摘要 | 本发明涉及神经翻译的语法改错模型技术领域,尤其是一种基于注意力共享Transformer的语法改错模型,包括编码器与解码器,所述编码器由多层结构组成,每层结构均包含自注意力层与前馈神经网络,数据输入自注意力层,自注意力层进行计算后输出处理数据至前馈神经网络,前馈神经网络输出处理结果至解码器;所述解码器由自注意力层、编码器解码器注意力层与前馈神经网络构成,解码器的前馈神经网络输出计算数据,并通过Softmax映射到词汇表上的概率分布,本发明的语法改错模型,注意力共享机制下,语法改错模型的效果(F0.5)几乎与基线系统相同,但却可以减少计算量,加快推理速度。 |
