Pytorch – 训练网络时出现_pickle.UnpicklingError: pickle data was truncated错误
1 Pytorch训练网络时出现_pickle.UnpicklingError: pickle data was truncated错误 今天重新在一个大的数据集上重新训练一个模型时,在第二个epoch时出现了_pickle.UnpicklingError: pickle data was trun…
- Pytorch
- 2022-11-07
模型训练 – 解决启动深度学习项目出现OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized问题
今天在开始跑一个深度学习项目时,在启动时,程序出现了以下的错误, OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized. OMP: Hint This means that …
- 模型训练
- 2022-09-30
Pytorch – torch.nn.Module的parameters()和named_parameters()
1 torch.nn.Module的named_parameters()和parameters() Pytorch的torch.nn.Module有两个比较相似的属性函数named_parameters()和parameters(),parameters()返回整个模型参数的迭代器,而named_p…
- Pytorch
- 2022-09-06
深度学习 – 动作识别Action Recognition最重要的问题
1 动作识别Action Recognition最重要的问题 引用一下Human Action Recognition and Prediction: A Survey中一段话,我觉得总结的比较到位。 The first and the foremost important problem in a…
- 深度学习
- 2022-09-05
深度学习 – 语音识别框架中wenet最大动态chunk大小为什么取值为25?
1 原文论文 在wenet的论文Unified Streaming and Non-streaming Two-pass End-to-end Model for Speech Recognition中的3.2.2节Dynamic Chunk Training中对动态chunk size有以下描述:…
- 深度学习
- 2022-09-01
Pytorch – torch.distributed.init_process_group函数详解
在pytorch中使用torch.nn.parallel.DistributedDataParallel进行分布式训练时,需要使用torch.distributed.init_process_group()初始化torch.nn.parallel.DistributedDataParallel包。 …
- Pytorch
- 2022-08-29
深度学习 – 为什么要初始化网络模型权重?
1 为什么要进行网络模型权值初始化? Pytorch中设计好网络结构,并搭建完成之后通常一个重要的步骤就是需要对网络模型中某些层的权值进行初始化,如下代码所示,我们搭建了一个三维卷积网络C3D,并使用私有成员函数__init_weight对网络中的nn.Conv3d和nn.BatchNorm3d模块…
- 深度学习
- 2022-08-26
Pytorch – RuntimeError: No rendezvous handler for env://错误
1 RuntimeError: No rendezvous handler for env:// 今天在Windows上使用torch.nn.parallel.DistributedDataParallel进行单机多卡分布式训练出现RuntimeError: No rendezvous handle…
- Pytorch
- 2022-08-25
深度学习 – 深度学习中的术语/专有名词归纳
1 Backbone、Head、Neck 以一个图像分类的卷积神经网络为例,网络分成两部分,前部分是由卷积层、归一化层、激活层、池化层堆叠的,输入图像在经过若干层卷积、归一化层、激活层和池化层的堆叠后进入全连接层,经过几次全连接后输出每个类别的概率值。 在这里,前面卷积层、归一化层、激活层和池化层的…
- 深度学习
- 2022-08-24
Pytorch – 没有使用with torch.no_grad()造成测试网络时显存爆炸的问题
1 显存爆炸的问题 最近使用以下示例代码测试自定义深度学习网络时耗光了所有显存,出现了梯度爆炸的问题。 model.eval() for batch_idx, data in enumerate(tqdm(data_loader)): image = data[0].to('cuda:0') ...…
- Pytorch
- 2022-08-23
深度学习 – 图像标准化与归一化方法
如果深度学习的源数据为图像数据时,首先需要对图像做数据预处理,最常用的图像预处理方法有两种,正常白化处理又叫图像标准化处理,另外一种方法为图像归一化处理,本文将对这两种预处理方法进行简要介绍。 1 图像标准化 图像标准化处理公式如下: \text{image} = \frac{image - \mu…
- 深度学习
- 2022-08-22
Pytorch – 多GPU训练方式nn.DataParallel与nn.parallel.DistributedDataParallel的区别
1 torch.nn.DataParallel和torch.nn.parallel.DistributedDataParallel函数详解 1.1 torch.nn.DataParallel 1. 官方文档 https://pytorch.org/docs/1.8.0/generated/torch…
- Pytorch
- 2022-08-16