摘要

《LaMDA: Language Models for Dialog Applications》是谷歌于 2022 年发表的论文,收录在 arxiv 中。论文提出了一个名为 LaMDA(Language Models for Dialog Application)的对话模型,拥有 137B 参数,在 1.56T 公开对话数据和网页上预训练。实验证明,虽然模型扩展能够提升对话质量,但是在安全性和事实性方面的改进很小。而监督数据上的微调能够帮助模型利用外部知识源进行回复,显著改进了安全性和事实性两个指标。

阅读全文 »

简介

《Program Transfer for Answering Complex Questionsover Knowledge Bases》是由清华大学和华为合作完成的工作,收录于 ACL 2022 长文中。该文试图通过一个两阶段的方法来完成 KBQA 任务:解析器将 query 解析为知识库操作序列(无参数),参数分析器为每个操作填入参数。通过在复资源知识库预训练,显著提升了在低资源知识库上的 KBQA 性能。

阅读全文 »

前言

PLATO-XL 是百度于 2021 年发布的论文《PLATO-XL: Exploring the Large-scale Pre-training of Dialogue Generation》中提出的模型,旨在探索大规模预训练对话生成任务的效果,在中英文的多项对话任务上取得了 SOTA。目前,百度提供了百度PLATO 微信公众号服务,可供试用。经笔者测试,PLATO 的效果要远优于微软小冰。因此今天来读下这篇论文。

阅读全文 »

简介

今天来读一篇对话系统综述。《Recent Advances in Deep Learning Based Dialogue Systems: A Systematic Survey》是由南洋理工大学于 2021 年发表的论文,目前收录在 arxiv 中。该文调研了对话系统中的历史研究工作,并从模型和系统两个方面进行分析,确定了可能的未来研究方向。此外,本文还涵盖了相关框架、数据集的介绍。

阅读全文 »

简介

《Pre-Trained Models: Past, Present and Future》是由来自清华、人大、复旦等高校的多位学者合作完成的预训练模型(Pre-Trained Models, PTM)综述。顾名思义,该文主要在讨论预训练模型的过去、现状和未来。

阅读全文 »
0%