线性回归简介
线性回归简介
线性回归是机器学习中最基础、最简单的回归算法之一。它假设输入变量(特征)与输出变量(目标值)之间存在线性关系。
一、模型表示
线性回归模型的数学表示如下:
y ^ = w 1 x 1 + w 2 x 2 + . . . + w d x d + b \hat{y} = w_1x_1 + w_2x_2 + ... + w_dx_d + b y^=w1x1+w2x2+...+wdxd+b
其中, y ^ \hat{y} y^ 是预测的目标值, x 1 , x 2 , . . . , x d x_1, x_2, ..., x_d x1,x2,...,xd 是输入的特征, w 1 , w 2 , . . . , w d w_1, w_2, ..., w_d w1,w2,...,wd 是对应的权重, b b b 是偏置项。
二、损失函数
为了评估模型预测值与真实值之间的误差,我们需要定义一个损失函数。常用的损失函数是均方误差(Mean Squared Error,MSE):
L = 1 m ∑ i = 1 m ( y i − y ^ i ) 2 L = \frac{1}{m} \sum_{i=1}^{m} (y_i - \hat{y}_i)^2 L=m1i=1∑m(yi−y^i)2
其中, m m m 是样本数量, y i y_i yi 是第 i i i 个样本的真实值, y ^ i \hat{y}_i y^i 是对应的预测值。
三、优化方法
为了最小化损失函数,我们需要找到合适的权重和偏置。常用的优化方法有:
- 最小二乘法:通过求解正规方程来直接计算权重和偏置。
- 梯度下降法:通过迭代更新权重和偏置,逐步减小损失函数的值。
四、正则化
为了防止过拟合,我们可以在损失函数中添加正则化项。常用的正则化方法有:
- L1正则化:在损失函数中添加权重绝对值的和。
- L2正则化:在损失函数中添加权重的平方和。
五、代码示例
以下是一个使用Python和Scikit-learn库实现线性回归的简单示例:
from sklearn.linear_model import LinearRegression
import numpy as np
# 创建特征和目标值
X = np.array([[1, 2], [2, 4], [3, 6]])
y = np.array([3, 6, 9])
# 创建线性回归模型
model = LinearRegression()
# 训练模型
model.fit(X, y)
# 预测
print("预测值:", model.predict([[4, 8]]))
原文地址:https://blog.csdn.net/weixin_63019977/article/details/143993035
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!