自学内容网 自学内容网

【机器学习入门】(1) 线性回归算法

学习目标:

线性回归是一种基本的统计学习方法,主要用于分析一个或多个自变量与因变量之间的线性关系。以下是关于线性回归的一些关键点:线性回归的四要素:
(1)假设(hypothesis);(2)模型参数(params);(3)代价函数(loss);(4)目标(Goal);


1.概念含义:

线性回归模型假设因变量和自变量之间存在线性关系,即可以通过一条直线(一维)或一个平面(多维)来近似表示这种关系。
直线
在这里插入图片描述


2.数学表达式-假设(hypothesis):

在这里插入图片描述


3.参数(params):

其中,X可能是线性相关的特性(多元一次函数),公式中的参数W就是我们得到的算法模型,(主要就是为了训练得到model的parameter)。
有了的参数,这样就会然后我们的训练数据更好的去拟合模型。
这样对于一个新的X(n维,多个指标),可能更好的得出准确的y_predict


4.代价函数(loss):

代价函数也叫均方误差函数,是我们预测模型(Θ-n维,多个指标)计算出的y_pre与y_true的比较。
在这里插入图片描述


5.目标(goal):

目标就是用4中等式右面的均方误差函数求出最优的参数模型
那么如何求出最优参数模型呢?如何得到的参数去更好的拟合新数据呢?
后面就需要引入梯度下降来的到模型最优的参数模型(loss越小越好)。


6.梯度下降(GD):


7.思考:

  1. 代价函数的定义可知是为了得到y_pre与y_true的误差更小,为什么不直接研究如何得到min(|y_pre-y_true|)?
  2. 代价函数为什么要平方而不是三次方?四次方?
    不能一次方,三次,四次都不可以。因为要后续梯度下降求导,找代价函数的最小值。
  3. 如果实际应用中某特征,它表示通过X平方表示,可以使用线性回归吗?
    可以的,但是需要特殊操作。需要将X平方的整体代表一个特征(特征处理)。
  4. 为什么要乘二分之一?
    方便后续梯度下降求导,方便计算

原文地址:https://blog.csdn.net/qq_45973897/article/details/143690730

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!