XLNET:基于置换语言任务的自回归模型
摘要
XLNET 是由卡耐基梅隆大学和谷歌于 2019 年提出的自回归预训练模型,论文名为《XLNet: Generalized Autoregressive Pretraining for Language Understanding》,收录于 2019 NIPS 中。其动机是为了解决 BERT 面临的两个问题:忽视了 [MASK] token 间的依赖关系以及 [MASK] 导致的预训练 - 微调差异。 XLNet 在 20 项任务上的表现优于 BERT,通常大幅度提高,包括问答、自然语言推理、情感分析和文档排序。