Skip to content

Latest commit

 

History

History
101 lines (58 loc) · 3.67 KB

README.md

File metadata and controls

101 lines (58 loc) · 3.67 KB

Semantic-Similarity-Match

此开源hub基于Tensorflow2.x实现文本相似度匹配

1、项目介绍

本项目源于QA对话系统中的文本相似度检索的排序阶段,一般的排序模型可抽象为句对的文本相似度匹配任务; 文本相似度匹配中特征的提取一般为静态词向量和动态词向量两种,本项目基于预训练模型的动态词向量;

由于位于检索的排序阶段,考虑到推理时延,需用浅层模型,本项目以Tiny Roberta为 baseline进行实验,后续版本会再次基础上对评价指标进行持续优化,更新中...

  • 支持加载各种bert范式的预训练模型
  • 支持 tf2 分布式训练
  • 支持模型知识蒸馏
  • 支持tf2 pb格式与onnx格式转换用于部署
  • 支持 Sentence Bert 微调及模型onnx转换

2、数据集来源

  • 数据集来源:QA_corpus

  • 数据集情况

type pair(个)
train 约 10w
valid 约 1w
test 约 1w

3、支持模型

  • 1. 支持模型:

  • chinese_rbt4_L-4_H-768_A-12

  • chinese_rbt6_L-6_H-768_A-12

  • chinese_rbt12_L-12_H-768_A-12 等...

  • 注:根据情况在 config/xxx.yaml、config.py 中配置

  • 2. 双塔模型

4、版本更新

Version Describe 传送门
v1.0 交互模型 原始Tiny Roberta:baseline
v2.0 交互模型 Big Roberta->distill->Tiny Roberta 入口
v3.0 双塔模型 Sentence Bert 微调 入口

5、结构原理图

  • finetune-Tiny-Roberta

finetune-Tiny-Roberta

distilled-Tiny-Roberta

  • 双塔模型 Sentence Bert 微调

sbert

6、评估结果

运行 run_tasks.py 开始训练并评测.

  • 原始Tiny-Roberta finetune的效果:

效果1

  • 原始big-Roberta(rbt12) finetune的效果:

效果2

  • Big Roberta->distill->Tiny Roberta finetune的效果:

效果3

  • 双塔模型 Sentence Bert 微调的效果:

效果4

模型 acc 输入说明
原始Tiny Roberta 0.8252 动态词向量
Roberta(rbt12)->distill->Tiny Roberta 0.8400(+0.0148) 动态词向量
Roberta(rbt12) 0.8482(+0.023) 动态词向量
双塔模型sbert finetune 0.8233 动态词向量

参考传统匹配模型对比:各种模型评价

交流

本项目作为笔者在之前工作中项目背景下的抽象出的NLP任务demo和trick。 源码和数据(实验数据)已经在项目中给出。

如需要更深一步的交流,可在 Github 上直接issue 或者发邮箱至 [email protected]。欢迎点赞👍、收藏!