李航《统计学习方法》学习笔记及python实现:第二章 感知机

川长思鸟来 2023-06-11 09:30 124阅读 0赞

感知机(perceptron)是二类分类的线性分类模型,其输入为实例的特征向量,输出 为实例的类别,取+1和–1二值。感知机对应于输入空间(特征空间)中将实例划分为正 负两类的分离超平面,属于判别模型。感知机学习旨在求出将训练数据进行线性划分的分 离超平面,为此,导入基于误分类的损失函数,利用梯度下降法对损失函数进行极小化, 求得感知机模型。

模型

假设输入空间(特征空间)是x⊆Rn,输出空间是 Y={+1,-1}。 输入x∊x表示实例的特征向量,对应于输入空间(特征空间)的点;输出y∊ Y表示实例的类别。由输入空间到输出空间的如下函数

在这里插入图片描述
称为感知机。
其中,w和b为感知机模型参数,w∊Rn叫作权值(weight)或权值向量 (weight vector),b∊R叫作偏置(bias),w·x表示w和x的内积。sign是符号函数,即

在这里插入图片描述
在这里插入图片描述

目标

感知机学习的目标是求得一个能够将训练集正实例点 和负实例点完全正确分开的分离超平面。

策略

定义(经验)损失函数并将损失函数极小化。

损失函数的另一个选择是误分类点到超平面S的总距离,这是感知机所采用的。

感知机sign(w·x+b)学习的损失函数定义为
在这里插入图片描述其中M为误分类点的集合。这个损失函数就是感知机学习的经验风险函数。

感知机学习的策略是在假设空间中选取使损失函数式 L(w,b) 最小的模型参数w,b,即感知机模型。

算法

感知机学习问题转化为求解损失函数式 L(w,b) 的最优化问题,最优化的方法是随机梯度下降法。
在这里插入图片描述
书中例题2.1

在这里插入图片描述在这里插入图片描述

python实现

  1. import numpy as np
  2. import matplotlib.pyplot as plt
  3. x = np.array([[3,3], [4,3], [1,1]])
  4. y = np.array([1,1,-1])
  5. plt.figure()
  6. for i in range(len(x)):
  7. if y[i] == 1:
  8. plt.plot(x[i][0], x[i][1], 'ro')
  9. else:
  10. plt.plot(x[i][0], x[i][1], 'bo')
  11. w = np.array([1,0])
  12. b = 0
  13. delta = 1
  14. for i in range(100):
  15. choice = -1
  16. for j in range(len(x)):
  17. if y[j] != np.sign(np.dot(w,x[0]) + b):
  18. choice = j
  19. break
  20. if choice == -1:
  21. break
  22. w = w + delta * y[choice] * x[choice]
  23. b = b + delta * y[choice]
  24. line_x = [0,10]
  25. line_y = [0,0]
  26. for i in range(len(line_x)):
  27. line_y[i] = (-w[0] * line_x[i] - b) / w[1]
  28. plt.plot(line_x, line_y)
  29. plt.savefig("picture.png")

在这里插入图片描述

Mnist数据集训练

此部分出处:

作者:chenxiangzhen
出处:https://www.cnblogs.com/chenxiangzhen/p/10515156.html

  1. '''
  2. 数据集:Mnist
  3. 训练集数量:60000
  4. 测试集数量:10000
  5. ------------------------------
  6. 运行结果:
  7. 正确率:81.72%(二分类)
  8. '''
  9. import numpy as np
  10. import time
  11. def loadData(fileName):
  12. '''
  13. 加载Mnist数据集
  14. :param fileName:要加载的数据集路径
  15. :return: list形式的数据集及标记
  16. '''
  17. print('start to read data')
  18. # 存放数据及标记的list
  19. dataArr = []
  20. labelArr = []
  21. # 打开文件
  22. fr = open(fileName, 'r')
  23. # 将文件按行读取
  24. for line in fr.readlines():
  25. # 对每一行数据按切割福','进行切割,返回字段列表
  26. curLine = line.strip().split(',')
  27. # Mnsit有0-9是个标记,由于是二分类任务,所以将>=5的作为1,<5为-1
  28. if int(curLine[0]) >= 5:
  29. labelArr.append(1)
  30. else:
  31. labelArr.append(-1)
  32. # 存放标记
  33. # [int(num) for num in curLine[1:]] -> 遍历每一行中除了以第一哥元素(标记)外将所有元素转换成int类型
  34. # [int(num)/255 for num in curLine[1:]] -> 将所有数据除255归一化(非必须步骤,可以不归一化)
  35. dataArr.append([int(num) / 255 for num in curLine[1:]])
  36. # 返回data和label
  37. return dataArr, labelArr
  38. def perceptron(dataArr, labelArr, iter=50):
  39. '''
  40. 感知器训练过程
  41. :param dataArr:训练集的数据 (list)
  42. :param labelArr: 训练集的标签(list)
  43. :param iter: 迭代次数,默认50
  44. :return: 训练好的w和b
  45. '''
  46. print('start to trans')
  47. # 将数据转换成矩阵形式(在机器学习中因为通常都是向量的运算,转换称矩阵形式方便运算)
  48. # 转换后的数据中每一个样本的向量都是横向的
  49. dataMat = np.mat(dataArr)
  50. # 将标签转换成矩阵,之后转置(.T为转置)。
  51. # 转置是因为在运算中需要单独取label中的某一个元素,如果是1xN的矩阵的话,无法用label[i]的方式读取
  52. # 对于只有1xN的label可以不转换成矩阵,直接label[i]即可,这里转换是为了格式上的统一
  53. labelMat = np.mat(labelArr).T
  54. # 获取数据矩阵的大小,为m*n
  55. m, n = np.shape(dataMat)
  56. # 创建初始权重w,初始值全为0。
  57. # np.shape(dataMat)的返回值为m,n -> np.shape(dataMat)[1])的值即为n,与
  58. # 样本长度保持一致
  59. w = np.zeros((1, np.shape(dataMat)[1]))
  60. # 初始化偏置b为0
  61. b = 0
  62. # 初始化步长,也就是梯度下降过程中的n,控制梯度下降速率
  63. h = 0.0001
  64. # 进行iter次迭代计算
  65. for k in range(iter):
  66. # 对于每一个样本进行梯度下降
  67. # 李航书中在2.3.1开头部分使用的梯度下降,是全部样本都算一遍以后,统一
  68. # 进行一次梯度下降
  69. # 在2.3.1的后半部分可以看到(例如公式2.6 2.7),求和符号没有了,此时用
  70. # 的是随机梯度下降,即计算一个样本就针对该样本进行一次梯度下降。
  71. # 两者的差异各有千秋,但较为常用的是随机梯度下降。
  72. for i in range(m):
  73. # 获取当前样本的向量
  74. xi = dataMat[i]
  75. # 获取当前样本所对应的标签
  76. yi = labelMat[i]
  77. # 判断是否是误分类样本
  78. # 误分类样本特诊为: -yi(w*xi+b)>=0,详细可参考书中2.2.2小节
  79. # 在书的公式中写的是>0,实际上如果=0,说明改点在超平面上,也是不正确的
  80. if -1 * yi * (w * xi.T + b) >= 0:
  81. # 对于误分类样本,进行梯度下降,更新w和b
  82. w = w + h * yi * xi
  83. b = b + h * yi
  84. # 打印训练进度
  85. print('Round %d:%d training' % (k, iter))
  86. # 返回训练完的w、b
  87. return w, b
  88. def accuracy(dataArr, labelArr, w, b):
  89. '''
  90. 测试准确率
  91. :param dataArr:测试集
  92. :param labelArr: 测试集标签
  93. :param w: 训练获得的权重w
  94. :param b: 训练获得的偏置b
  95. :return: 正确率
  96. '''
  97. print('start to test')
  98. # 将数据集转换为矩阵形式方便运算
  99. dataMat = np.mat(dataArr)
  100. # 将label转换为矩阵并转置,详细信息参考上文perceptron中
  101. # 对于这部分的解说
  102. labelMat = np.mat(labelArr).T
  103. # 获取测试数据集矩阵的大小
  104. m, n = np.shape(dataMat)
  105. # 错误样本数计数
  106. errorCnt = 0
  107. # 遍历所有测试样本
  108. for i in range(m):
  109. # 获得单个样本向量
  110. xi = dataMat[i]
  111. # 获得该样本标记
  112. yi = labelMat[i]
  113. # 获得运算结果
  114. result = -1 * yi * (w * xi.T + b)
  115. # 如果-yi(w*xi+b)>=0,说明该样本被误分类,错误样本数加一
  116. if result >= 0:
  117. errorCnt += 1
  118. # 正确率 = 1 - (样本分类错误数 / 样本总数)
  119. accruRate = 1 - (errorCnt / m)
  120. # 返回正确率
  121. return accruRate
  122. if __name__ == '__main__':
  123. # 获取当前时间
  124. # 在文末同样获取当前时间,两时间差即为程序运行时间
  125. start = time.time()
  126. # 获取训练集及标签
  127. trainData, trainLabel = loadData('../Mnist/mnist_train.csv')
  128. # 获取测试集及标签
  129. testData, testLabel = loadData('../Mnist/mnist_test.csv')
  130. # 训练获得权重
  131. w, b = perceptron(trainData, trainLabel, iter=30)
  132. # 进行测试,获得正确率
  133. accruRate = accuracy(testData, testLabel, w, b)
  134. # 获取当前时间,作为结束时间
  135. end = time.time()
  136. # 显示正确率
  137. print('accuracy rate is:', accruRate)
  138. # 显示用时时长
  139. print('time span:', end - start)

运行结果

  1. start to read data
  2. start to read data
  3. start to trans
  4. Round 0:30 training
  5. Round 1:30 training
  6. Round 2:30 training
  7. Round 3:30 training
  8. Round 4:30 training
  9. Round 5:30 training
  10. Round 6:30 training
  11. Round 7:30 training
  12. Round 8:30 training
  13. Round 9:30 training
  14. Round 10:30 training
  15. Round 11:30 training
  16. Round 12:30 training
  17. Round 13:30 training
  18. Round 14:30 training
  19. Round 15:30 training
  20. Round 16:30 training
  21. Round 17:30 training
  22. Round 18:30 training
  23. Round 19:30 training
  24. Round 20:30 training
  25. Round 21:30 training
  26. Round 22:30 training
  27. Round 23:30 training
  28. Round 24:30 training
  29. Round 25:30 training
  30. Round 26:30 training
  31. Round 27:30 training
  32. Round 28:30 training
  33. Round 29:30 training
  34. start to test
  35. accuracy rate is: 0.8172
  36. time span: 2366.2143952846527

发表评论

表情:
评论列表 (有 0 条评论,124人围观)

还没有评论,来说两句吧...

相关阅读