证明出错在dataloader里面
在pytorch当中,float16和half是一样的数据结构,都是属于half操作,
然后dataloader不能返回half值,所以在dataloader里面,要把float16改成float32即可返回
补充:pytorch中tensor常用操作归纳
对常用的一些tensor的常用操作进行简单归纳,方便日后查询。后续有用到再补充。
1、创建tensor
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
import torch #经典方式 device = torch.device( "cuda:0" ) x = torch.tensor([ 1 , 2 ],dtype = torch.float32,device = device,requires_grad = true) w = sum ( 2 * x) w.backward() print (x.device) print (x.dtype) print (x.grad) #tensor y = torch.tensor([ 1 , 2 , 3 ]) #等价于 y = torch.floattensor([ 1 , 2 , 3 ]) #32位浮点型 #后者声明打开梯度 y.requires_grad = true #还有其他类型,常用的 torch.longtensor( 2 , 3 ) torch.shorttensor( 2 , 3 ) torch.inttensor( 2 , 3 ) w = sum ( 2 * y) w.backward() print (y.grad) print (y.dtype) |
输出:
cuda:0
torch.float32
tensor([2., 2.], device='cuda:0')
tensor([2., 2., 2.])
torch.float32
和numpy类似的创建方法
1
2
3
4
5
6
7
8
9
|
x = torch.linspace( 1 , 10 , 10 ,dtype = torch.float32,requires_grad = true) y = torch.ones( 10 ) z = torch.zeros(( 2 , 4 )) w = torch.randn(( 2 , 3 )) #从标准正态分布(均值为0,方差为1)上随机采用,高斯噪声点,而rand相当于在0,1间随机采样 #torch.normal()???? print (x) print (y) print (z) print (w) |
输出
tensor([ 1., 2., 3., 4., 5., 6., 7., 8., 9., 10.], requires_grad=true)
tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])
tensor([[0., 0., 0., 0.],
[0., 0., 0., 0.]])
tensor([[-0.6505, 1.3897, 2.2265],
[-1.7815, -1.8194, -0.4143]])
从numpy转换
1
2
3
4
|
np_data = np.arange( 2 , 13 , 2 ).reshape(( 2 , 3 )) torch_data = torch.from_numpy(np_data) #numpy转tensor print ( '\nnumpy' ,np_data) print ( '\ntorch' ,torch_data) |
输出
numpy [[ 2 4 6]
[ 8 10 12]]torch tensor([[ 2, 4, 6],
[ 8, 10, 12]], dtype=torch.int32)
2、组合
1
2
3
4
5
6
7
8
9
10
|
import torch x = torch.arange( 0 , 10 , 1 ).reshape( 2 , - 1 ) #size=(2,5) y = torch.ones( 10 ).reshape( 2 , - 1 ) #size=(2,5) print (x) print (y) w = torch.cat((x,y),dim = 0 ) #默认从size最左边开始,这里结果为:(2+2,5) z = torch.cat((x,y),dim = 1 ) #(2,5+5) print (w,w.size()) print (z,z.size()) #还有种stack() |
输出:
tensor([[0, 1, 2, 3, 4],
[5, 6, 7, 8, 9]])
tensor([[1., 1., 1., 1., 1.],
[1., 1., 1., 1., 1.]])
tensor([[0., 1., 2., 3., 4.],
[5., 6., 7., 8., 9.],
[1., 1., 1., 1., 1.],
[1., 1., 1., 1., 1.]]) torch.size([4, 5])
tensor([[0., 1., 2., 3., 4., 1., 1., 1., 1., 1.],
[5., 6., 7., 8., 9., 1., 1., 1., 1., 1.]]) torch.size([2, 10])
3、数据类型转换
法一
1
2
3
4
5
6
|
x = torch.rand(( 2 , 2 ),dtype = torch.float32) print (x.dtype) x = x.double() print (x.dtype) x = x. int () print (x) |
输出:
torch.float32
torch.float64
tensor([[0, 0],
[0, 0]], dtype=torch.int32)
法二
1
2
3
4
|
x = torch.longtensor(( 2 , 2 )) print (x.dtype) x = x. type (torch.float32) print (x.dtype) |
输出:
torch.int64
torch.float32
4、矩阵计算
1
2
3
4
5
6
|
x = torch.arange( 0 , 4 , 1 ).reshape( 2 , - 1 ) print (x) print (x * x ) #直接相乘 print (torch.mm(x,x)) #矩阵乘法 print (x + 1 ) #广播 print (x.numpy()) #转换成numpy |
输出:
tensor([[0, 1],
[2, 3]])
tensor([[0, 1],
[4, 9]])
tensor([[ 2, 3],
[ 6, 11]])
tensor([[1, 2],
[3, 4]])
[[0 1]
[2 3]]
5、维度变化
主要是对维度大小为1的升降维操作。
1
2
|
torch.squeeze( input ) #去掉维度为1的维数 torch.unsqueeze( input ,dim) #指定位置增加一维 |
以上为个人经验,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/zxyhhjs2017/article/details/88546423