最小二乘法求解线性回归模型及求解

心已赠人 2022-10-29 09:07 343阅读 0赞

机器学习线性回归模型

线性回归(linear regression)是一种线性模型,它假设输入变量 x 和单个输出变量 y 之间存在线性关系

具体来说,利用线性回归模型,可以从一组输入变量 x 的线性组合中,计算输出变量 y

在这里插入图片描述
在这里插入图片描述

给定有d个属性(特征)描述的示例 x =(x1; x2; …; xd),其中xi是x在第i个属性(特征)上的取值,线性模型(linear model)试图学得一个通过属性(特征)的线性组合来进行预测的函数,即:
在这里插入图片描述
一般用向量形式写成:在这里插入图片描述

其中 在这里插入图片描述

  • 假设特征和结果都满足线性,即不大于一次方。
  • w和b学得之后,模型就得以确定。

许多功能更为强大的非线性模型可在线性模型的基础上通过引入层级结构或高维映射而得。

最小二乘法求解

基于均方误差最小化来进行模型求解的方法称为“最小二乘法”(least square method)

它的主要思想就是选择未知参数,使得理论值与观测值之差的平方和达到最小。

在这里插入图片描述

我们假设输入属性(特征)的数目只有一个:
在这里插入图片描述
在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离之和最小。
在这里插入图片描述

求解线性回归

求解w和b,使得 在这里插入图片描述最小化的过程,称为线性回归模型的“最小二乘参数估计”

在这里插入图片描述分别对w和b求导,可以得到
在这里插入图片描述
在这里插入图片描述
令偏导数都为0,可以得到
在这里插入图片描述
在这里插入图片描述
—— 其中
在这里插入图片描述

代码实现

  1. ### 0.引入依赖
  2. import numpy as np
  3. import matplotlib.pyplot as plt
  4. ### 1.导入数据
  5. points = np.genfromtxt('data.csv',delimiter=',')
  6. points[0,0]
  7. # 提取points中的两列数据,分别作为x,y
  8. x = points[:, 0]
  9. y = points[:, 1]
  10. # 用plt画出散点图
  11. plt.scatter(x, y)
  12. plt.show()

在这里插入图片描述

  1. ### 2.定义损失函数
  2. # 损失函数是系数的函数,另外还要传入数据的x,y
  3. def compute_cost(w, b, points):
  4. total_cost = 0
  5. M = len(points)
  6. #逐点计算平方损失,然后计算平均值
  7. for i in range(M):
  8. x = points[i, 0]
  9. y = points[i, 1]
  10. total_cost += (y - w*x -b) ** 2
  11. return total_cost/M
  12. ### 3.定义算法拟合函数
  13. # 先定义一个求均值的函数
  14. def average(data):
  15. sum = 0
  16. num = len(data)
  17. for i in range(num):
  18. sum += data[i]
  19. return sum/num
  20. # 定义核心拟合函数
  21. def fit(points):
  22. M = len(points)
  23. x_bar = average(points[:,0])
  24. sum_yx = 0
  25. sum_x2 = 0
  26. sum_delta = 0
  27. for i in range(M):
  28. x = points[i, 0]
  29. y = points[i, 1]
  30. sum_yx += y * (x - x_bar)
  31. sum_x2 += x ** 2
  32. # 根据公式计算w
  33. w = sum_yx / (sum_x2 - M * (x_bar ** 2))
  34. for i in range(M):
  35. x = points[i, 0]
  36. y = points[i, 1]
  37. sum_delta += (y - w * x)
  38. b = sum_delta / M
  39. return w, b
  40. ### 4. 测试
  41. w ,b = fit(points)
  42. print("w is: ", w)
  43. print("b is: ", b)
  44. cost = compute_cost(w, b, points)
  45. print("cost is : ",cost)
  46. ### 5.画出拟合曲线
  47. plt.scatter(x,y)
  48. #针对每一个x,计算得出预测的y值
  49. pred_y = w * x + b
  50. plt.plot(x, pred_y, c='r')
  51. plt.show()

在这里插入图片描述

发表评论

表情:
评论列表 (有 0 条评论,343人围观)

还没有评论,来说两句吧...

相关阅读

    相关 线性回归乘法

    目录 简单线性回归  最小二乘法  拟合为曲线的方程 -------------------- 实质:就是构造误差方程,求导取0 得到误差最小值,进而得到线形参数