简介

今天来回顾一下变分自编码器(Variational Autoencoder,VAE),这是 2013 年提出的一种生成模型,时至今日,它的各类变体还活跃在各类会议上。之前我读过它的离散变体 VQ-VAE,这里再回顾一下原本的 VAE。

阅读全文 »

简介

对抗自编码器(Adversarial Autoencoders,AAE)出自 2015 年的《Adversarial Autoencoders》,其核心想法是将 VAE 与 GAN 结合,来得到一个更好的生成模型。论文首次提出了聚合后验分布(aggregated posterior),并使用它来优化 VAE。事实上这篇论文是在 CV 上生成的,这里只是简单分析下其提出的聚合后验分布及与 VAE 的比较。

阅读全文 »

简介

今天来分享一个网站吧,Hugging Face,最大的 NLP 社区,提供了数以千计的预训练模型,涵盖一百余种语言、覆盖几乎所有常见的 NLP 任务。其提供的 transformers 框架提供了简洁高效的 api,可以在无需处理模型细节的前提下,快速进行推理、微调。Hugging Face 至今在 github 上已有超过 5 万个 star,可见其影响力。

阅读全文 »

简介

RoBERTa 是华盛顿大学和 FaceBook 在论文《RoBERTa: A Robustly Optimized BERT Pretraining Approach》提出的预训练模型,论文似乎仅存在 arxiv 版本。RoBERTa 本质上是 BERT 的一个改进版本。论文发现 BERT 是未充分训练的,改进训练之后的 RoBERTa 在 GLUE、RACE、SQuAD 数据集上达到了 SOTA。代码和模型公开在了 github 上。

阅读全文 »
0%