Skip to content

Latest commit

 

History

History
40 lines (33 loc) · 5.13 KB

model_zoo.md

File metadata and controls

40 lines (33 loc) · 5.13 KB

PaddleNLP Model Zoo

PaddleNLP提供了丰富的模型结构,包含经典的RNN类模型结构,与Transformer类模型及其预训练模型。

RNN类模型

模型 简介
BiGRU-CRF BiGRU-CRF是一个经典的词法分析模型,可用于中文分词、词性标注和命名实体识别等任务。
BoW 最基础的序列特征提取模型,对序列内所有词向量进行线性求和或取平均的操作。
RNN/Bi-RNN 单/双向RNN序列特征提取器,是变种的LSTM结构,计算量相比LSTM较少。
LSTM/Bi-LSTM 单/双向LSTM序列特征提取器。
TextCNN Convolutional Neural Networks for Sentence Classification
LSTM/Bi-LSTM with Attention 带注意力机制的单/双向LSTM特征提取器。
GRU/Bi-GRU 单/双向GRU序列特征提取器,是变种的LSTM结构,计算量相比LSTM较少。
TCN TCN(Temporal Convolutional Network)模型基于卷积的时间序列模型,通过因果卷积(Causal Convolution)和空洞卷积(Dilated Convolution) 特定的组合方式解决卷积不适合时间序列任务的问题,TCN具备并行度高,内存低等诸多优点,在某些时间序列任务上效果超过传统的RNN模型。
RNNLM Recurrent neural network based language model,RNN/LSTM等结构的经典语言模型。
ELMo Embedding from Language Model(ELMo), 发表于NAACL2018的动态词向量开山之作。
SimNet SimNet是百度自研的文本匹配计算的框架,主要包括 BOW、CNN、RNN、MMDNN 等核心网络结构形式,已在百度各产品上广泛应用。
LSTM Seq2Seq with Attention 使用编码器-解码器(Encoder-Decoder) 结构, 同时使用了Attention机制来加强Decoder和Encoder之间的信息交互,Seq2Seq 广泛应用于机器翻译,自动对话机器人,文档摘要自动生成,图片描述自动生成等任务中。

Transformer类模型

模型 简介
Transformer Attention Is All You Need
Transformer-XL Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
BERT BERT(Bidirectional Encoder Representation from Transformers)
ERNIE ERNIE: Enhanced Representation through Knowledge Integration
ERNIE-Tiny 百度自研的小型化ERNIE网络结构,采用浅层Transformer,加宽隐层参数,中文subword粒度词表结合蒸馏的方法使模型相比SOTA Before BERT 提升8.35%, 速度提升4.3倍。
ERNIE-GEN ERNIE-GEN: An Enhanced Multi-Flow Pre-training and Fine-tuning Framework for Natural Language Generation ERNIE-GEN是百度发布的生成式预训练模型,通过Global-Attention的方式解决训练和预测曝光偏差的问题,同时使用Multi-Flow Attention机制来分别进行Global和Context信息的交互,同时通过片段生成的方式来增加语义相关性。
ERNIESage ERNIESage(ERNIE SAmple aggreGatE) 通过Graph(图)来构建自身节点和邻居节点的连接关系,将自身节点和邻居节点的关系构建成一个关联样本输入到ERNIE中,ERNIE作为聚合函数 (Aggregators) 来表征自身节点和邻居节点的语义关系,最终强化图中节点的语义表示。
GPT-2 Language Models are Unsupervised Multitask Learners
ELECTRA ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators
RoBERTa RoBERTa: A Robustly Optimized BERT Pretraining Approach
PLATO-2 百度自研领先的开放域对话预训练模型 PLATO-2: Towards Building an Open-Domain Chatbot via Curriculum Learning
SentenceBERT Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks

更多模型应用场景介绍请参考PaddleNLP Example