Linear Regression
是一种通过属性的线性组合来进行预测的线性模型。其目的是找到一条直线或者一个平面或者更高维的超平面,使得预测值与真实值之间的误差最小化。
代表训练集中样本的数量 代表特征的数量
代表特征/输入变量 代表目标变量/输出变量
代表训练集中的样本 代表第 个观察样本
代表预测的值 代表学习算法的解决方案或函数也称为假设(hypothesis)
为损失函数,采用平方和损失,残差平方和
一、最小二乘法 LSM
不需要选择学习率,需要计算 ,只适用于线性模型 ,不适合逻辑回归模型等其他模型
算法流程:知 ,寻找一组 使得残差平方和 最小
二、梯度下降
需要选择学习率 ,需要多次迭代,当特征数量𝑛大时也能较好适用,适用于各种类型的模型
- 批量梯度下降(Batch Gradient Descent,BGD):梯度下降的每一步中,都用到了所有的训练样本
- 随机梯度下降(Stochastic Gradient Descent,SGD):梯度下降的每一步中,用到一个样本,在每一次计算之后便更新参数,而不需要首先将所有的训练集求和
- 小批量梯度下降(Mini-Batch Gradient Descent,MBGD):梯度下降的每一步中,用到了一定批量的训练样本
三、回归的评价指标
均方误差 MSE(Mean Square Error):
均方根误差 RMSE (Root Mean Square Error):
平均绝对误差MAE(Mean Absolute Error):
RSquare , 越接近于 1, 说明模型拟合得越好