BART
简介
BART 是 Facebook AI 于 2019 年发表的《Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension》论文中提出的预训练模型,论文收录于 2020 年 ACL。顾名思义,BART 是一个基于 seq2seq 的预训练模型,可以用于自然语言生成、翻译、理解等任务。论文中的 “Denoising” 直译为降噪,实际上是模型的预训练目标。