线性回归都是包括以下几个步骤:定义模型、选择损失函数、选择优化函数、 训练数据、测试
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
|
import torch import matplotlib.pyplot as plt # 构建数据集 x_data = torch.tensor([[ 1.0 ],[ 2.0 ],[ 3.0 ],[ 4.0 ],[ 5.0 ],[ 6.0 ]]) y_data = torch.tensor([[ 2.0 ],[ 4.0 ],[ 6.0 ],[ 8.0 ],[ 10.0 ],[ 12.0 ]]) #定义模型 class linearmodel(torch.nn.module): def __init__( self ): super (linearmodel, self ).__init__() self .linear = torch.nn.linear( 1 , 1 ) #表示输入输出都只有一层,相当于前向传播中的函数模型,因为我们一般都不知道函数是什么形式的 def forward( self , x): y_pred = self .linear(x) return y_pred model = linearmodel() # 使用均方误差作为损失函数 criterion = torch.nn.mseloss(size_average = false) #使用梯度下降作为优化sgd # 从下面几种优化器的生成结果图像可以看出,sgd和asgd效果最好,因为他们的图像收敛速度最快 optimizer = torch.optim.sgd(model.parameters(),lr = 0.01 ) # asgd # optimizer= torch.optim.asgd(model.parameters(),lr=0.01) # optimizer= torch.optim.adagrad(model.parameters(), lr= 0.01) # optimizer= torch.optim.rmsprop(model.parameters(), lr= 0.01) # optimizer= torch.optim.adamax(model.parameters(),lr= 0.01) # 训练 epoch_list = [] loss_list = [] for epoch in range ( 100 ): y_pred = model(x_data) loss = criterion(y_pred, y_data) epoch_list.append(epoch) loss_list.append(loss.item()) print (epoch, loss.item()) optimizer.zero_grad() #梯度归零 loss.backward() #反向传播 optimizer.step() #更新参数 print ( "w= " , model.linear.weight.item()) print ( "b= " ,model.linear.bias.item()) x_test = torch.tensor([[ 7.0 ]]) y_test = model(x_test) print ( "y_pred= " ,y_test.data) plt.plot(epoch_list, loss_list) plt.xlabel( "epoch" ) plt.ylabel( "loss_val" ) plt.show() |
使用sgd优化器图像:
使用asgd优化器图像:
使用adagrad优化器图像:
使用adamax优化器图像:
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/qq_41521512/article/details/106646318