逻辑回归是一种有监督的学习分类算法,用于预测目标变量的概率。目标或因变量的性质是二分法的,这意味着将只有两个可能的类。主要解决二分类问题。

主要步骤有三个:

  1. 求线性回归曲线。
  2. 通过 sigmoid 函数将线性回归曲线转为 0-1 范围函数。 σ(x)=11+e−x\sigma(x)=\frac{1}{1+e^{-x}}σ(x)=1+ex1。其中x是步骤 1 中的线性回归曲线。
  3. 然后转为 0、1 分类,大于 0.5 的是一类,小于 0.5 的划分为另一种类。

以下是一个简单的应用示例:

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import confusion_matrix, accuracy_score

# 假设 df 是包含上述数据的 DataFrame
df = pd.read_csv('bank_data.csv')

# 数据预处理:将分类标签转化为数值
df['Subscribed'] = df['Subscribed'].map({'No': 0, 'Yes': 1})

# 特征与目标变量
X = df[['Age', 'Income', 'Savings']]
y = df['Subscribed']

# 数据标准化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.3, random_state=42)

# 创建逻辑回归模型,注意设置max_iter以避免迭代次数不够的警告
logreg = LogisticRegression(max_iter=1000)

# 训练模型
logreg.fit(X_train, y_train)

# 预测
predictions = logreg.predict(X_test)

# 评估模型
print(y_test)
print(predictions)

print("Confusion Matrix:")
print(confusion_matrix(y_test, predictions))
print("Accuracy Score:", accuracy_score(y_test, predictions))

上述代码演示了如何使用sklearn进行逻辑回归模型训练以及预测。与其他训练模型的基本思路一致,主要包括以下步骤:

  1. 获取数据集。
  2. 标准化数据集。
  3. 将数据集划分成训练集和测试集。
  4. 训练。
  5. 对测试集合进行预测。
  6. 评估准确率。
Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐