Pytorch – nn.Transformer、nn.TransformerEncoderLayer、nn.TransformerEncoder、nn.TransformerDecoder、nn.TransformerDecoder参数详解
1 nn.Transformer
1.1 nn.Transformer定义
1.函数形式
torch.nn.Transformer(d_model=512, nhead=8, num_encoder_layers=6, num_decoder_layers=6, dim_feedforward=2048, dropout=0.1, activation='relu', custom_encoder=None, custom_decoder=None)
2.函数参数
- d_model:编码器或者解码器输入特征数量,默认值为512
- nhead:多头注意力模型中的头数,默认值为8
- num_encoder_layers:编码器中子编码器层数,默认值为6
- num_decoder_layers:解码器中子解码器层数,默认值为6
- dim_feedforward:前馈网络模型的维度,默认值为2048
- dropout:dropout值,默认为0.1
- activation:编码器或者解码器中间层的激活函数,relu或者gelu,默认为relu
- custom_encoder:自定义编码器,默认无
- custom_decoder:自定义解码器,默认无
1.2 nn.Transformer使用
1.函数形式
forward(src, tgt, src_mask=None, tgt_mask=None, memory_mask=None, src_key_padding_mask=None, tgt_key_padding_mask=None, memory_key_padding_mask=None)
2.函数参数
- src:编码器的序列,必需参数,形状为(S,N,E)
- tgt:解码器的序列,必需参数,形状为(T,N,E)
- src_mask:src的附加掩码,可选参数,形状为(S,S)
- tgt_mask:tgt的附加掩码,可选参数,形状为(T,T)
- memory_task:编码器输出的附加掩码,可选参数,形状为(T,S)
- src_key_padding_mask:每个batch的scr keys的ByteTensor掩码,可选参数,形状为(N,S)
- tgt_key_padding_mask:每个batch的tgt keys的ByteTensor掩码,可选参数,形状为(N,T)
- memory_key_padding_mask:每个batch的memory keys的ByteTensor掩码,可选参数,形状为(N,S)
其中,S为源序列长度,T为目标序列长度,N为batch size,E为特征数
3.函数输出
输出形状为(T,N,E)的Tensor
1.3 简单使用
假设batch size为32,输入序列长度为10,输出序列长度为20,特征数量为512,采用6个多头注意力模型,编码器的子编码层数为10,则
transformer_model = nn.Transformer(nhead=16, num_encoder_layers=12)
src = torch.rand((10, 32, 512))
tgt = torch.rand((20, 32, 512))
out = transformer_model(src, tgt)
2 nn.TransformerEncoderLayer
Transformer EncoderLayer 由 self-attn 和前馈网络组成。
2.1 nn.TransformerEncoderLayer定义
1.函数形式
torch.nn.TransformerEncoderLayer(d_model, nhead, dim_feedforward=2048, dropout=0.1, activation='relu')
2.函数参数
- d_model:输入特征数量,必需参数
- nhead:多头注意力模型中的头数,必需参数
- dim_feedforward:前馈网络模型的维度,默认值为2048
- dropout:dropout值,默认为0.1
- activation:编码器或者解码器中间层的激活函数,relu或者gelu,默认为relu
2.2 nn.TransformerEncoderLayer使用
1.函数形式
forward( src , src_mask=None , src_key_padding_mask=None )
2.函数参数
- src:编码器层的序列,必需参数
- src_mask:src 序列的掩码,可选参数
- src_key_padding_mask:每个batch的scr keys的ByteTensor掩码,可选参数
2.3 简单使用
encoder_layer = nn.TransformerEncoderLayer(d_model=512, nhead=8)
src = torch.rand(10, 32, 512)
out = encoder_layer(src)
3 nn.TransformerEncoder
3.1 nn.TransformerEncoder定义
1.函数形式
torch.nn.TransformerEncoder(encoder_layer, num_layers, norm=None)
nn.TransformerEncoder是堆叠num_layers个自编码器层数的模块
2.函数参数
- encoder_layer:nn.TransformerEncoderLayer的实例对象,必需参数
-
num_layers:编码器中子编码器层数,必需参数
-
norm:层规范化组件,可选参数
3.2 nn.TransformerEncoder使用
1.函数形式
forward(src, mask=None, src_key_padding_mask=None)
将输入依次通过编码器层。
2.函数参数
- src:编码器的输入序列,必需参数
- mask:src序列的掩码,可选参数
- src_key_padding_mask:每个batch的scr keys的ByteTensor掩码,可选参数,默认为None
2.函数输出
输出out与输入src具有相同的形状(S,N,E)。
3.3 简单使用
encoder_layer = nn.TransformerEncoderLayer(d_model=512, nhead=8)
transformer_encoder = nn.TransformerEncoder(encoder_layer, num_layers=6)
src = torch.rand(10, 32, 512)
out = transformer_encoder(src)
4 nn.TransformerDecoderLayer
4.1 nn.TransformerDecoderLayer定义
1.函数形式
torch.nn.TransformerDecoderLayer(d_model, nhead, dim_feedforward=2048, dropout=0.1, activation='relu')
2.函数参数
- d_model:输入特征数量,必需参数
-
nhead:多头注意力模型中的头数,必需参数
-
dim_feedforward:前馈网络模型的维度,默认值为2048
-
dropout:dropout值,默认为0.1
-
activation:编码器或者解码器中间层的激活函数,relu或者gelu,默认为relu
4.2 nn.TransformerDecoderLayer使用
1.函数形式
forward(tgt, memory, tgt_mask=None, memory_mask=None, tgt_key_padding_mask=None, memory_key_padding_mask=None)
2.函数参数
- tgt:解码器的序列,必需参数
-
memory:编码器最后一层的序列,必需参数
-
tgt_mask:tgt的附加掩码,可选参数
-
memory_mask:编码器输出的附加掩码,可选参数
-
tgt_key_padding_mask:每个batch的tgt keys的ByteTensor掩码,可选参数
-
memory_key_padding_mask:每个batch的memory keys的ByteTensor掩码,可选参数
4.3 简单使用
decoder_layer = nn.TransformerDecoderLayer(d_model=512, nhead=8)
memory = torch.rand(10, 32, 512)
tgt = torch.rand(20, 32, 512)
out = decoder_layer(tgt, memory)
5 nn.TransformerDecoder
5.1 nn.TransformerDecoder定义
1.函数形式
torch.nn.TransformerDecoder(decoder_layer, num_layers, norm=None)
2.函数参数
- decoder_layer:nn.TransformerDecoderLayer的实例对象,必需参数
-
num_layers:解码器中子解码器层数,必需参数
-
norm:层规范化组件,可选参数
5.2 nn.TransformerDecoder使用
1.函数形式
forward(tgt, memory, tgt_mask=None, memory_mask=None, tgt_key_padding_mask=None, memory_key_padding_mask=None)
2.函数参数
-
tgt:解码器的序列,必需参数
-
memory:编码器最后一层的序列,必需参数
-
tgt_mask:tgt的附加掩码,可选参数
-
memory_mask:编码器输出的附加掩码,可选参数
-
tgt_key_padding_mask:每个batch的tgt keys的ByteTensor掩码,可选参数
-
memory_key_padding_mask:每个batch的memory keys的ByteTensor掩码,可选参数
5.3 简单使用
decoder_layer = nn.TransformerDecoderLayer(d_model=512, nhead=8)
transformer_decoder = nn.TransformerDecoder(decoder_layer, num_layers=6)
memory = torch.rand(10, 32, 512)
tgt = torch.rand(20, 32, 512)
out = transformer_decoder(tgt, memory)
本文作者:StubbornHuang
版权声明:本文为站长原创文章,如果转载请注明原文链接!
原文标题:Pytorch – nn.Transformer、nn.TransformerEncoderLayer、nn.TransformerEncoder、nn.TransformerDecoder、nn.TransformerDecoder参数详解
原文链接:https://www.stubbornhuang.com/2205/
发布于:2022年07月13日 9:04:51
修改于:2023年06月25日 20:57:48
当前分类随机文章推荐
- Pytorch - pad_sequence、pack_padded_sequence、pack_sequence、pad_packed_sequence参数详解与使用 阅读1579次,点赞0次
- Pytorch - 模型保存与加载以及如何在已保存的模型的基础上继续训练模型 阅读751次,点赞0次
- Pytorch - torch.nn.Module的parameters()和named_parameters() 阅读799次,点赞0次
- Pytorch - 为什么要设置随机数种子? 阅读993次,点赞0次
- Pytorch - 模型微调时删除原有模型中的某一层的方法 阅读3223次,点赞0次
- Pytorch - 梯度累积/梯度累加trick,在显存有限的情况下使用更大batch_size训练模型 阅读1031次,点赞0次
- Pytorch - masked_fill方法参数详解与使用 阅读1286次,点赞0次
- Pytorch - 使用torchsummary/torchsummaryX/torchinfo库打印模型结构、输出维度和参数信息 阅读2113次,点赞1次
- Pytorch - torch.cat参数详解与使用 阅读2145次,点赞1次
- Pytorch - 创建随机Tensor的常用方法 阅读563次,点赞0次
全站随机文章推荐
- Javascript - 接收websocket服务器发送base64编码的音频数据并进行播放 阅读56次,点赞0次
- 资源分享 - Effective Computational Geometry for Curves and Surfaces 英文高清PDF下载 阅读1796次,点赞0次
- 姿态估计之Openpose-Body25数据集骨骼关节keypoint标注对应 阅读9292次,点赞5次
- TensorRT - onnx_graphsurgeon工具库的安装与API简介 阅读1889次,点赞0次
- C++ - 在两个互有依赖关系的类中使用std::shared_ptr和std::weak_ptr进行内存管理 阅读987次,点赞0次
- C++ - queue存储动态指针时正确释放内存 阅读6182次,点赞2次
- OpenCV | C++ - 为原始图片添加透明通道,并将图片中的红色区域置为透明并保存 阅读524次,点赞0次
- 深度学习 - 归纳轻量级神经网络(长期更新) 阅读419次,点赞0次
- 资源分享 - 3D Engine Design for Virtual Globes 英文高清PDF下载 阅读2359次,点赞0次
- 一文带你从欧拉角的角度搞懂左手坐标系到右手坐标系的转换 阅读17069次,点赞20次
评论
169