当前位置:网站首页>Pytorch学习笔记--常用函数总结3
Pytorch学习笔记--常用函数总结3
2022-07-25 15:28:00 【whut_L】
1--torch.optim.SGD()函数拓展
import torch
LEARNING_RATE = 0.01 # 梯度下降学习率
MOMENTUM = 0.9 # 冲量大小
WEIGHT_DECAY = 0.0005 # 权重衰减系数
optimizer = torch.optim.SGD(
net.parameters(),
lr = LEARNING_RATE,
momentum = MOMENTUM,
weight_decay = WEIGHT_DECAY,
nesterov = True
)参数解释:lr表示学习率;momentum表示冲量因子;weight_decay表示权重衰减系数(将使用L2正则项);nesterov表示使用Nesterov冲量;
常规梯度下降算法:

l表示学习率; J(θ)表示损失函数;▽表示求梯度;
带momentum的梯度下降算法:

m表示冲量因子,l表示学习率;
基于Nesterov冲量的梯度下降算法:

带weight_decay的梯度下降算法:
主要作用是对损失函数增加L2正则项,强烈建议通过参考链接1了解L2正则化的作用,即如何避免过拟合,权重衰减通过参考链接2理解。
2--torch.manual_seed()函数和torch.cuda.manual_seed()函数
torch.manual_seed()函数:为CPU设置种子,确保每次实验生成的随机数固定,即初始化相同;
torch.cuda.manual_seed()函数:为当前GPU设置种子,作用与torch.manual_seed()函数相同;
torch.cuda.manual_seed_all()函数:为所有GPU设置种子。
在神经网络中,参数默认是进行随机初始化的。不同的初始化参数往往会导致不同的结果,当获得较好结果时我们通常希望这个结果是可以复现的。在pytorch中,通过设置随机数种子确保每次代码运行时初始化操作都相同,从而在相同的算法或神经网络程序中,确保运行的结果也相同。参考链接1参考链接2
边栏推荐
- Local cache --ehcache
- Endnote 无法编辑range 解决
- Spark SQL UDF function
- Spark AQE
- Singleton mode 3-- singleton mode
- 《图书馆管理系统——“借书还书”模块》项目研发阶段性总结
- C#精挑整理知识要点9 集合2(建议收藏)
- Redis elimination strategy list
- The development summary of the function of fast playback of audio and video in any format on the web page.
- matlab---错误使用 var 数据类型无效。第一个输入参数必须为单精度值或双精度值
猜你喜欢
随机推荐
获取键盘按下的键位对应ask码
Graph theory and concept
Remember that spark foreachpartition once led to oom
Notes on inputview and inputaccessoryview of uitextfield
2019陕西省省赛J-位运算+贪心
matlab randint,Matlab的randint函数用法「建议收藏」
SVD奇异值分解推导及应用与信号恢复
Overview of JS synchronous, asynchronous, macro task and micro task
分布式原理 - 什么是分布式系统
HDU3873-有依赖的最短路(拓扑排序)
4PAM在高斯信道与瑞利信道下的基带仿真系统实验
p4552-差分
Spark SQL UDF function
MySQL transactions and mvcc
死锁杂谈
GAMES101复习:三维变换
BPSK调制系统MATLAB仿真实现(1)
2021上海市赛-B-排序后dp
PAT甲级题目目录
JS URLEncode function









