pytorch 梯度NAN异常值
gradient 为nan可能原因:
1、梯度爆炸
2、学习率太大
3、数据本身有问题
4、backward时,某些方法造成0在分母上, 如:使用方法sqrt()
定位造成nan的代码:
1
2
3
4
5
6
|
import torch # 异常检测开启 torch.autograd.set_detect_anomaly( True ) # 反向传播时检测是否有异常值,定位code with torch.autograd.detect_anomaly(): loss.backward() |
pytorch处理inf和nan数值
在构建网络框架后,运行代码,发现很多tensor出现了inf值或者nan,在很多博客上没有找到对应的解决方法,大部分是基于numpy写的,比较麻烦。
下面基于torch BIF函数实现替换这2个值。
1
2
3
4
5
6
7
|
a = torch.Tensor([[ 1 , 2 , np.nan], [np.inf, np.nan, 4 ], [ 3 , 4 , 5 ]]) a Out[ 158 ]: tensor([[ 1. , 2. , nan], [inf, nan, 4. ], [ 3. , 4. , 5. ]]) |
下面把nan值还为0:
1
2
3
4
5
6
7
|
a = torch.where(torch.isnan(a), torch.full_like(a, 0 ), a) a Out[ 160 ]: tensor([[ 1. , 2. , 0. ], [inf, 0. , 4. ], [ 3. , 4. , 5. ]]) |
接着把inf替换为1:
1
2
3
4
5
6
7
|
a = torch.where(torch.isinf(a), torch.full_like(a, 0 ), a) a Out[ 162 ]: tensor([[ 1. , 2. , 0. ], [ 0. , 0. , 4. ], [ 3. , 4. , 5. ]]) |
简单回顾
tips:对于某些tensor,可能已经开启了grad功能,需要把它先转为普通tensor(使用.data)
torch.where(condition,T,F) 函数有三个输入值,
第一个是判断条件,
第二个是符合条件的设置值,
第三个是不符合条件的设置值
1
2
3
4
5
6
7
8
9
10
|
torch.full_like( input , fill_value, …) 返回与 input 相同size,单位值为fill_value的矩阵 #如下面这个例子,a为3*3的tensor b = torch.full_like(a, 0 ,) b Out[ 165 ]: tensor([[ 0. , 0. , 0. ], [ 0. , 0. , 0. ], [ 0. , 0. , 0. ]]) |
以上为个人经验,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/sini2018/article/details/112088749