对话系统草稿


参考:https://www.infoq.cn/article/WdRCkMF37fXBKP7l0UXm

                                    图一:对话系统整体架构

一、NLU

  NLU的学习按照样本的多少可以分为:无样本学习,少样本学习和多样本学习。

  1. 无样本学习。为了快速的冷启动一般采用规则的方法。

  

  2. 少样本学习。采用Few-shot learning方法

  

  参考论文:Few-Shot Text Classification with Induction Network

  3. 多样本学习。采用有监督方法,

     

  通用模型采用bert,行业模型使用整个行业的数据训练,然后再用具体的企业数据迁移学习,此时模型参数大,在线预测慢,就采用知识蒸馏方法压缩模型。此外,在实际业务场景的多数情况下,任务型对话和 FAQ 型问答一般都是同时存在的,我们也引入了多任务学习(multi-task learning),能让任务共享底层的信息并互相增强,使得模型具有更强的泛化能力。

  最后NLU的整体架构: