pytorch实现线性回归的方法

这篇文章主要介绍“pytorch实现线性回归的方法”,在日常操作中,相信很多人在pytorch实现线性回归的方法问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”pytorch实现线性回归的方法”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

线性回归都是包括以下几个步骤:定义模型、选择损失函数、选择优化函数、 训练数据、测试

import torch import matplotlib.pyplot as plt # 构建数据集 x_data= torch.Tensor([[1.0],[2.0],[3.0],[4.0],[5.0],[6.0]]) y_data= torch.Tensor([[2.0],[4.0],[6.0],[8.0],[10.0],[12.0]]) #定义模型 class LinearModel(torch.nn.Module):     def __init__(self):         super(LinearModel, self).__init__()         self.linear= torch.nn.Linear(1,1) #表示输入输出都只有一层,相当于前向传播中的函数模型,因为我们一般都不知道函数是什么形式的       def forward(self, x):         y_pred= self.linear(x)         return y_pred model= LinearModel() # 使用均方误差作为损失函数 criterion= torch.nn.MSELoss(size_average= False) #使用梯度下降作为优化SGD # 从下面几种优化器的生成结果图像可以看出,SGD和ASGD效果最好,因为他们的图像收敛速度最快 optimizer= torch.optim.SGD(model.parameters(),lr=0.01) # ASGD # optimizer= torch.optim.ASGD(model.parameters(),lr=0.01) # optimizer= torch.optim.Adagrad(model.parameters(), lr= 0.01) # optimizer= torch.optim.RMSprop(model.parameters(), lr= 0.01) # optimizer= torch.optim.Adamax(model.parameters(),lr= 0.01) # 训练 epoch_list=[] loss_list=[] for epoch in range(100):     y_pred= model(x_data)     loss= criterion(y_pred, y_data)     epoch_list.append(epoch)     loss_list.append(loss.item())     print(epoch, loss.item())       optimizer.zero_grad() #梯度归零     loss.backward()  #反向传播     optimizer.step() #更新参数   print("w= ", model.linear.weight.item()) print("b= ",model.linear.bias.item())   x_test= torch.Tensor([[7.0]]) y_test= model(x_test) print("y_pred= ",y_test.data)   plt.plot(epoch_list, loss_list) plt.xlabel("epoch") plt.ylabel("loss_val") plt.show()

使用SGD优化器图像:                                                      

pytorch实现线性回归的方法

使用ASGD优化器图像:

pytorch实现线性回归的方法

使用Adagrad优化器图像:                                                 

pytorch实现线性回归的方法

使用Adamax优化器图像:

pytorch实现线性回归的方法

到此,关于“pytorch实现线性回归的方法”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注亿速云网站,小编会继续努力为大家带来更多实用的文章!

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。