当前位置:网站首页>深度学习理论 —— 初始化、参数调节
深度学习理论 —— 初始化、参数调节
2022-08-04 05:30:00 【学习历险记】
初始化
深度学习模型训练的过程本质是对参数w进行更新,这需要每个参数有相应的初始值。
为什么要初始化?
神经网络要优化一个非常复杂的非线性模型,而且基本没有全局最优解,初始化在其中扮演着非常重要的作用。
□ 初始点的选取,有时能够决定算法是否收敛;
□ 当收敛时,初始点可以决定学习收敛的多快,是否收敛到一个代价高或低的点;
□ 过大的初始化导致梯度爆炸,过小的初始化导致梯度消失。
什么是好的初始化?
好的初始化应该满足以下两个条件:
□ 让神经元各层激活值不会出现饱和现象;
□ 各层激活值也不能为0。
全零初始化:参数初始化为0。
缺点:同一层的神经元会学习到相同的特征,不能破坏不同神经元的对称性质。
如果神经元的权重被初始化为0,所有神经元的输出都将是相同的,除了输出之外,所有的中间层的节点的值都为零。一般神经网络拥有对称的结构,那么在进行第一次误差反向传播时,更新后的网络参数将会相同,在下一次更新时,相同的网络参数学习提取不到有用的特征,因此深度学习模型都不会使用0初始化所有参数。
参数调节
![]()
批量 batchsize 选择2的指数倍 与计算机内存相符
超参数调节方法
试错法、网络搜索、随机搜索、贝叶斯优化、高斯过程
边栏推荐
猜你喜欢

Pytorch语义分割理解
![[Go language entry notes] 13. Structure (struct)](/img/0e/44601d02a1c47726d26f0ae5085cc9.png)
[Go language entry notes] 13. Structure (struct)

打金?工作室?账号被封?游戏灰黑产离我们有多近

fill_between in Matplotlib; np.argsort() function

双向LSTM

【CV-Learning】卷积神经网络预备知识

sklearn中的pipeline机制

Dictionary feature extraction, text feature extraction.

lstm pipeline 过程理解(输入输出)

TensorFlow2 study notes: 5. Common activation functions
随机推荐
Pytest常用插件
TensorFlow2 study notes: 7. Optimizer
【深度学习21天学习挑战赛】0、搭建学习环境
Dictionary feature extraction, text feature extraction.
Android foundation [Super detailed android storage method analysis (SharedPreferences, SQLite database storage)]
Lee‘s way of Deep Learning 深度学习笔记
彻底搞懂箱形图分析
0, deep learning 21 days learning challenge 】 【 set up learning environment
【论文阅读】Further Non-local and Channel Attention Networks for Vehicle Re-identification
【论文阅读】Exploring Spatial Significance via Hybrid Pyramidal Graph Network for Vehicle Re-identificatio
TypeError: load() missing 1 required positional argument: ‘Loader‘
【论文阅读】TransReID: Transformer-based Object Re-Identification
光条提取中的连通域筛除
tensorRT5.15 使用中的注意点
周志华机器学习
sklearn中的pipeline机制
度量学习(Metric learning、损失函数、triplet、三元组损失、fastreid)
MAE 论文《Masked Autoencoders Are Scalable Vision Learners》
动手学深度学习_卷积神经网络CNN
中国联通、欧莱雅和钉钉都在争相打造的秘密武器?虚拟IP未来还有怎样的可能




批量 batchsize 选择2的指数倍 与计算机内存相符





