介绍:

在线性神经网络中,线性回归是一种常见的任务,用于预测一个连续的数值输出。其目标是根据输入特征来拟合一个线性函数,使得预测值与真实值之间的误差最小化。

线性回归的数学表达式为:
y = w1x1 + w2x2 + ... + wnxn + b

其中,y表示预测的输出值,x1, x2, ..., xn表示输入特征,w1, w2, ..., wn表示特征的权重,b表示偏置项。

训练线性回归模型的目标是找到最优的权重和偏置项,使得模型预测的输出与真实值之间的平方差(即损失函数)最小化。这一最优化问题可以通过梯度下降等优化算法来解决。

线性回归在深度学习中也被广泛应用,特别是在浅层神经网络中。在深度学习中,通过将多个线性回归模型组合在一起,可以构建更复杂的神经网络结构,以解决更复杂的问题。

深度学习 线性神经网络(线性回归 从零开始实现)-CSDN博客 

 生成数据集:

import numpy as np
import torch
from torch.utils import data
from d2l import torch as d2l

true_w = d2l.tensor([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000)

 读取小批量数据集:

#选取小批量样本
def load_array(data_arrays,batch_size,is_train=True):
    dataset = data.TensorDataset(*data_arrays)
    return data.DataLoader(dataset,batch_size,shuffle=is_train)

定义模型:

from torch import nn#"nn"是神经网络的缩写

net = nn.Sequential(nn.Linear(2,1))#输入维度2,输出维度1

定义损失函数:

loss = nn.MSELoss()#均分误差函数

定义优化函数(实例化SGD):

#实例化SGD
trainer = torch.optim.SGD(net.parameters(),lr=0.03)#参数、学习率

模型训练:

num_epochs=8
for epoch in range(num_epochs):
    for X, y in data_iter:#拿出一批量x,y
        l = loss(net(X), y)  # X和y的小批量损失,实际的和预测的
        trainer.zero_grad()
        l.backward()
        trainer.step()  # 使用参数的梯度更新参数
    l = loss(net(features),labels)
    print(f'epoch {epoch + 1}, loss {l:f}')

'''
epoch 1, loss 0.000175
epoch 2, loss 0.000096
epoch 3, loss 0.000095
epoch 4, loss 0.000095
epoch 5, loss 0.000095
epoch 6, loss 0.000095
epoch 7, loss 0.000095
epoch 8, loss 0.000096
'''

print(net[0].weight)
'''
Parameter containing:
tensor([[ 2.0004, -3.3990]], requires_grad=True)
'''

print(net[0].bias)
'''
Parameter containing:
tensor([4.2007], requires_grad=True)

'''

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐