服务器之家

服务器之家 > 正文

Python人工智能深度学习模型训练经验总结

时间:2022-02-28 12:02     来源/作者:Swayzzu

一、假如训练集表现不好

1.尝试新的激活函数

ReLU:Rectified Linear Unit

图像如下图所示:当z<0时,a = 0, 当z>0时,a = z,也就是说这个激活函数是对输入进行线性转换。使用这个激活函数,由于有0的存在,计算之后会删除掉一些神经元,使得神经网络变窄。

Python人工智能深度学习模型训练经验总结

该函数也有其他变体,如下图所示,主要是对于z小于0的时候,对应

Python人工智能深度学习模型训练经验总结

Maxout:以上几种函数的一般形式

简单来说就是谁大输出谁,通过Maxout可以自己学习激活函数。当给出的参数不同的时候,可以得到上面所描述的各类函数。如下图所示,当输入给1个计算单元时,得到蓝色的线,假如第二个计算单元参数均为0,则是X轴上的一条线,那么在这两个之中取大的那个,就是ReLU;当第二个计算单元参数不为0的时候,就可以得到其他形式的结果。

Python人工智能深度学习模型训练经验总结

2.自适应学习率

①Adagrad

Adagrad是使用前面的梯度进行平方和再开方,作为计算梯度时系数的一部分。

Python人工智能深度学习模型训练经验总结

②RMSProp

是Adagrad的进阶版,在Adagrad中,是使用了前面所有的梯度平方和再开方,这个系数中没有考虑当前的梯度。在RMSProp中,是考虑了现在的梯度,也对其进行平方,并对两项进行一个权重的分配。

Python人工智能深度学习模型训练经验总结

③ Momentum

加入动量的梯度下降

下图中,v就是上一次的方向。在计算本次方向的时候,加入lambda倍的上一次的方向。其实v就是过去算出来的所有的梯度的总和。

Python人工智能深度学习模型训练经验总结

④Adam

将RMSProp和Momentum结合

Python人工智能深度学习模型训练经验总结

 

二、在测试集上效果不好

1.提前停止

通过交叉验证集,提前停止训练

Python人工智能深度学习模型训练经验总结

2.正则化

和其他的算法正则化方式一致,有L1和L2正则,此处不再详细描述。

3.Dropout

每次训练的时候,都以p%的几率去掉一些神经元以及输入值。得到如下图所示的更瘦一些的神经网络。直接去训练这个神经网络。下一次训练的时候,对整个网络重新进行采样。(类似于随机森林)

在测试的时候不进行dropout,如果训练的时候的dropout几率是p%,那么在测试集上,所有的权重都乘上(1-p)%

Python人工智能深度学习模型训练经验总结

以上就是Python人工智能深度学习模型训练经验总结的详细内容,更多关于Python人工智能模型训练经验的资料请关注服务器之家其它相关文章!

原文链接:https://blog.csdn.net/Swayzzu/article/details/121027097?spm=1001.2014.3001.5501

相关文章

热门资讯

2022年最旺的微信头像大全 微信头像2022年最新版图片
2022年最旺的微信头像大全 微信头像2022年最新版图片 2022-01-10
蜘蛛侠3英雄无归3正片免费播放 蜘蛛侠3在线观看免费高清完整
蜘蛛侠3英雄无归3正片免费播放 蜘蛛侠3在线观看免费高清完整 2021-08-24
背刺什么意思 网络词语背刺是什么梗
背刺什么意思 网络词语背刺是什么梗 2020-05-22
yue是什么意思 网络流行语yue了是什么梗
yue是什么意思 网络流行语yue了是什么梗 2020-10-11
2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全
2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全 2019-12-26
返回顶部