刘二大人《Pytorch深度学习实践》第六讲逻辑斯蒂回归
由于线性回归其预测值为连续变量,其预测值在整个实数域中。而对于预测变量y为离散值时候,可以用逻辑回归算法(Logistic Regression)逻辑回归的本质是将线性回归进行一个变换,该模型的输出变量范围始终。2. y如果是1,则loss = -ylogy’,y‘是0-1之间,则logy’在负无穷到0之间,y‘如果等于1则损失函数是0,如果和y的值越来越不接近,loss的值就会越来越大,y等于0
文章目录
线性回归和逻辑斯蒂回归的区别
线性回归一般用于预测连续值变量,如房价预测问题。
线性回归的一般表达式为:
代价函数为MSE(均方误差):
其中权重theta的更新,一般可选用梯度下降等相关优化方法。由于MSE对特征值的范围比较敏感,一般情况下对会对特征进行归一化处理。
逻辑回归虽然叫做回归,但是其主要解决分类问题。可用于二分类,也可以用于多分类问题。由于线性回归其预测值为连续变量,其预测值在整个实数域中。而对于预测变量y为离散值时候,可以用逻辑回归算法(Logistic Regression)逻辑回归的本质是将线性回归进行一个变换,该模型的输出变量范围始终在 0 和 1 之间。
本质上,逻辑回归就是线性回归再进行了sigmod变换,其值变化到(0,1).
课上代码
from torch.nn import ModuleList
import torch
import torch.nn.functional as F
# 准备数据
x_data = torch.Tensor ([[1.0], [2.0], [3.0]])
y_data = torch.Tensor ([[0], [0], [1]])
# 定义网络
class LogisticRegressionModel (torch.nn.Module):
def __init__(self):
super(LogisticRegressionModel, self).__init__()
self.linear = torch.nn.Linear (1, 1)
def forward (self, x):
y_pred = F.sigmoid (self.linear(x))
return y_pred
model = LogisticRegressionModel ()
# 定义优化器和损失函数
criterion = torch.nn.BCELoss (size_average = False)
optimizer = torch.optim.SGD(model.parameters(), lr = 0.01)
for epoch in range (1000):
y_pred = model (x_data)
loss = criterion (y_pred, y_data)
print (epoch, loss.item())
optimizer.zero_grad()
loss.backward ()
optimizer.step()
print ('w=', model.linear.weight.item())
print ('b=', model.linear.bias.item())
x_test = torch.Tensor ([[4.0]])
y_test = model (x_test)
print ('y_pred = ', y_test.data)
交叉熵函数的理解

1.y’是预测值,y是真实值,如果想让loss足够小,那么y’和y越接近越好
2. y如果是1,则loss = -ylogy’,y‘是0-1之间,则logy’在负无穷到0之间,y‘如果等于1则损失函数是0,如果和y的值越来越不接近,loss的值就会越来越大,y等于0同理
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐


所有评论(0)