对话系统草稿
参考:https://www.infoq.cn/article/WdRCkMF37fXBKP7l0UXm
图一:对话系统整体架构
一、NLU
NLU的学习按照样本的多少可以分为:无样本学习,少样本学习和多样本学习。
- 无样本学习。为了快速的冷启动一般采用规则的方法。
2. 少样本学习。采用Few-shot learning方法
参考论文:Few-Shot Text Classification with Induction Network
3. 多样本学习。采用有监督方法,
通用模型采用bert,行业模型使用整个行业的数据训练,然后再用具体的企业数据迁移学习,此时模型参数大,在线预测慢,就采用知识蒸馏方法压缩模型。此外,在实际业务场景的多数情况下,任务型对话和 FAQ 型问答一般都是同时存在的,我们也引入了多任务学习(multi-task learning),能让任务共享底层的信息并互相增强,使得模型具有更强的泛化能力。
最后NLU的整体架构: