佳木斯湛栽影视文化发展公司

主頁 > 知識庫 > 使用pytorch實(shí)現(xiàn)線性回歸

使用pytorch實(shí)現(xiàn)線性回歸

熱門標(biāo)簽:客戶服務(wù) 呼叫中心市場需求 語音系統(tǒng) Win7旗艦版 百度AI接口 企業(yè)做大做強(qiáng) 硅谷的囚徒呼叫中心 電話運(yùn)營中心

本文實(shí)例為大家分享了pytorch實(shí)現(xiàn)線性回歸的具體代碼,供大家參考,具體內(nèi)容如下

線性回歸都是包括以下幾個(gè)步驟:定義模型、選擇損失函數(shù)、選擇優(yōu)化函數(shù)、 訓(xùn)練數(shù)據(jù)、測試

import torch
import matplotlib.pyplot as plt
# 構(gòu)建數(shù)據(jù)集
x_data= torch.Tensor([[1.0],[2.0],[3.0],[4.0],[5.0],[6.0]])
y_data= torch.Tensor([[2.0],[4.0],[6.0],[8.0],[10.0],[12.0]])
#定義模型
class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel, self).__init__()
        self.linear= torch.nn.Linear(1,1) #表示輸入輸出都只有一層,相當(dāng)于前向傳播中的函數(shù)模型,因?yàn)槲覀円话愣疾恢篮瘮?shù)是什么形式的
 
    def forward(self, x):
        y_pred= self.linear(x)
        return y_pred
model= LinearModel()
# 使用均方誤差作為損失函數(shù)
criterion= torch.nn.MSELoss(size_average= False)
#使用梯度下降作為優(yōu)化SGD
# 從下面幾種優(yōu)化器的生成結(jié)果圖像可以看出,SGD和ASGD效果最好,因?yàn)樗麄兊膱D像收斂速度最快
optimizer= torch.optim.SGD(model.parameters(),lr=0.01)
# ASGD
# optimizer= torch.optim.ASGD(model.parameters(),lr=0.01)
# optimizer= torch.optim.Adagrad(model.parameters(), lr= 0.01)
# optimizer= torch.optim.RMSprop(model.parameters(), lr= 0.01)
# optimizer= torch.optim.Adamax(model.parameters(),lr= 0.01)
# 訓(xùn)練
epoch_list=[]
loss_list=[]
for epoch in range(100):
    y_pred= model(x_data)
    loss= criterion(y_pred, y_data)
    epoch_list.append(epoch)
    loss_list.append(loss.item())
    print(epoch, loss.item())
 
    optimizer.zero_grad() #梯度歸零
    loss.backward()  #反向傳播
    optimizer.step() #更新參數(shù)
 
print("w= ", model.linear.weight.item())
print("b= ",model.linear.bias.item())
 
x_test= torch.Tensor([[7.0]])
y_test= model(x_test)
print("y_pred= ",y_test.data)
 
plt.plot(epoch_list, loss_list)
plt.xlabel("epoch")
plt.ylabel("loss_val")
plt.show()

使用SGD優(yōu)化器圖像:                                                      

使用ASGD優(yōu)化器圖像:

使用Adagrad優(yōu)化器圖像:                                                 

使用Adamax優(yōu)化器圖像:

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • python深度總結(jié)線性回歸
  • tensorflow基本操作小白快速構(gòu)建線性回歸和分類模型
  • 回歸預(yù)測分析python數(shù)據(jù)化運(yùn)營線性回歸總結(jié)
  • python實(shí)現(xiàn)線性回歸算法
  • python機(jī)器學(xué)習(xí)之線性回歸詳解
  • pytorch實(shí)現(xiàn)線性回歸
  • 詳解TensorFlow2實(shí)現(xiàn)前向傳播

標(biāo)簽:海南 喀什 崇左 山西 濟(jì)南 長沙 安康 山西

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《使用pytorch實(shí)現(xiàn)線性回歸》,本文關(guān)鍵詞  ;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話咨詢

    • 400-1100-266
    泰安市| 庆城县| 英德市| 肇州县| 瑞金市| 桂东县| 外汇| 定襄县| 响水县| 合江县| 大渡口区| 永平县| 绿春县| 牟定县| 安达市| 张北县| 都安| 华亭县| 江山市| 沽源县| 明光市| 哈巴河县| 偏关县| 仁寿县| 麻栗坡县| 页游| 弥渡县| 威宁| 江北区| 宁明县| 麻栗坡县| 灵武市| 黄大仙区| 垣曲县| 华蓥市| 阳谷县| 东安县| 定襄县| 民权县| 稷山县| 平远县|