博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
训练深度学习网络时候,出现Nan 或者 震荡
阅读量:5087 次
发布时间:2019-06-13

本文共 1052 字,大约阅读时间需要 3 分钟。

出现Nan :

原因有多种,需要注意的是,要保证训练数据中没有脏数据,如果在training sample中出现了脏数据,那么在固定的迭代次数段,都会loss突然变nan,导致acc骤降,慢慢变0

 

震荡 :

分析原因:  1:训练的batch_size太小

 

1.  当数据量足够大的时候可以适当的减小batch_size,由于数据量太大,内存不够。但盲目减少会导致无法收敛,batch_size=1时为在线学习。

2.  batch的选择,首先决定的是下降方向,如果数据集比较小,则完全可以采用全数据集的形式。这样做的好处有两点,

    1)全数据集的方向能够更好的代表样本总体,确定其极值所在。

    2)由于不同权重的梯度值差别巨大,因此选取一个全局的学习率很困难。

3.  增大batchsize的好处有三点:

    1)内存的利用率提高了,大矩阵乘法的并行化效率提高。

    2)跑完一次epoch(全数据集)所需迭代次数减少,对于相同的数据量的处理速度进一步加快。

    3)一定范围内,batchsize越大,其确定的下降方向就越准,引起训练震荡越小。

4.  盲目增大的坏处:

    1)当数据集太大时,内存撑不住。

    2)batchsize增大到一定的程度,其确定的下降方向已经基本不再变化。

 

 总结:

        1)batch数太小,而类别又比较多的时候,可能会导致loss函数震荡而不收敛,尤其是在你的网络比较复杂的时候。

        2)随着batchsize增大,处理相同的数据量的速度越快。

        3)随着batchsize增大,达到相同精度所需要的epoch数量越来越多。

        4)由于上述两种因素的矛盾, Batch_Size 增大到某个时候,达到时间上的最优。

        5)过大的batchsize的结果是网络很容易收敛到一些不好的局部最优点。同样太小的batch也存在一些问题,比如训练速度很慢,训练不容易收敛等。

        6)具体的batch size的选取和训练集的样本数目相关

 

分析原因:  2:数据输入不对

 

1:数据输入不对包括数据的格式不是网络模型指定的格式,导致训练的时候网络学习的数据不是想要的; 此时会出现loss曲线震荡;

解决办法:检查数据输入格式,数据输入的路径;

 

 

分析原因:  3:训练脚本里面的 路径是否配置正确

 

1:当脚本中的train.bin的路径或者模型参数的路径配置不对时,会导致训练模型结果不对.

解决办法:检查脚本配置是否正确.

转载于:https://www.cnblogs.com/Allen-rg/p/10066764.html

你可能感兴趣的文章
洛谷 P2089 烤鸡【DFS递归/10重枚举】
查看>>
15 FFT及其框图实现
查看>>
Linux基本操作
查看>>
osg ifc ifccolumn
查看>>
C++ STL partial_sort
查看>>
3.0.35 platform 设备资源和数据
查看>>
centos redis 安装过程,解决办法
查看>>
IOS小技巧整理
查看>>
WebDriverExtensionsByC#
查看>>
我眼中的技术地图
查看>>
lc 145. Binary Tree Postorder Traversal
查看>>
sublime 配置java运行环境
查看>>
在centos上开关tomcat
查看>>
重启rabbitmq服务
查看>>
正则表达式(进阶篇)
查看>>
无人值守安装linux系统
查看>>
【传道】中国首部淘宝卖家演讲公开课:农业本该如此
查看>>
jQuery应用 代码片段
查看>>
MVC+Servlet+mysql+jsp读取数据库信息
查看>>
黑马程序员——2 注释
查看>>