一种优化BERT的问题语义匹配方法
基本信息
申请号 | CN202111442232.9 | 申请日 | - |
公开(公告)号 | CN114218921A | 公开(公告)日 | 2022-03-22 |
申请公布号 | CN114218921A | 申请公布日 | 2022-03-22 |
分类号 | G06F40/211(2020.01)I;G06F40/30(2020.01)I;G06N3/04(2006.01)I;G06N3/08(2006.01)I;G06K9/62(2022.01)I | 分类 | 计算;推算;计数; |
发明人 | 高东平;秦奕;杨渊;李玲;池慧 | 申请(专利权)人 | 中国医学科学院医学信息研究所 |
代理机构 | 北京正阳理工知识产权代理事务所(普通合伙) | 代理人 | 张利萍 |
地址 | 100020北京市朝阳区雅宝路3号 | ||
法律状态 | - |
摘要
摘要 | 本发明公开了一种基于Bert的语义匹配方法,该方法基于哈工大的预训练模型Bert‑wwm‑ext,我们先使用该模型在我们的大数据背景下做全词遮罩的无监督训练,使得模型先适应下我们的数据特点,保存基于我们数据的模型后,我们在该模型的结构上做了以下调整,在Bert的输出层加上Pooling层,在句子输入的时候,每个Batch我们输入的是一组特定的句子,其中一部分句子是语义相近的,剩下的句子是语义不同的,这样做是考虑到使得模型像人学习时一样,考虑数据之间的对比学习,使得模型更快收敛,模型架构改造完成后,我们基于该模型,再次在我们的大语料背景下做句子语义相似性训练,在训练的过程中,我们加入了同义句和非同义句之间的对比计算,然后使模型反向传播,最终得到的句向量语义表示更贴合实际。 |
