K-Means、层次聚类算法讲解及对iris数据集聚类实战(附源码)

桃扇骨 2023-09-30 18:52 31阅读 0赞

需要源码请点赞关注收藏后评论区留言私信~~~

聚类(Clustering) 一个重要的非监督学习方法

聚类-即是将相似的对象组成多个类簇,以此来发现数据之间的关系

聚类(簇):数据对象的集合 在同一个聚类(簇)中的对象彼此相似 不同簇中的对象则相异

聚类是一种无指导的学习:没有预定义的类编号

聚类分析的数据挖掘功能 作为一个独立的工具来获得数据分布的情况

作为其他算法(如:特征和分类)的预处理步骤

聚类的“好坏”没有绝对标准

一、K-Means聚类

  1. 算法原理

给定一个n个对象或元组的数据库,一个划分方法构建数据的k个划分,每个划分表示一个簇, k<=n,而且满足

1)每个组至少包含一个对象; 2)每个对象属于且仅属于一个组

划分时要求同一个聚类中的对象尽可能的接近或相关,不同聚类中的对象尽可能的原理或不同

9a3d3cce4f2b47649015c5d3425b1335.png

一般,簇的表示有两种方法:

1)k-平均算法,由簇的平均值来代表整个簇;

2)k中心点算法,由处于簇的中心区域的某个值代表整个簇

  1. K-means算法

9daf99a2264f47ce8256f3e98f5a97f5.png

用于划分的K-Means算法,其中每个簇的中心都用簇中所有对象的均值来表示

add4d0e6f8824a15b8d4a108dadeb2e8.png

sklearn实现iris数据K-Means聚类

f2ef7bc1d37e4835979c1e515f5a5575.png

代码如下

  1. from sklearn.datasets import load_iris
  2. from sklearn.cluster import KMeans
  3. iris = load_iris()
  4. #加载数据集
  5. X = iris.data
  6. estimator = KMeans(n_clusters = 3)
  7. #构造K-Means聚类模型
  8. estimator.fit(X)
  9. #数据导入模型进行训练
  10. label_pred = estimator.labels_
  11. #获取聚类标签
  12. print(label_pred)
  13. #显示各个样本所属的类别标签

kmeans算法优点如下

可扩展性较好,算法复杂度为O(nkt),其中n为对象总数,k是簇的个数,t是迭代次数

经常终止于局部最优解

缺点如下

只有当簇均值有定义的情况下,k均值方法才能使用。(某些分类属性的均值可能没有定义)

用户必须首先给定簇数目

不适合发现非凸形状的簇,或者大小差别很大的簇

对噪声和离群点数据敏感

二、层次聚类

算法原理

层次聚类 (Hierarchical Clustering)就是按照某种方法进行层次分类,直到满足某种条件为止。层次聚类主要分成两类

凝聚:从下到上。首先将每个对象作为一个簇,然后合并这些原子簇为越来越大的簇,直到所有的对象都在一个簇中,或者满足某个终结条件

分裂:从上到下。首先将所有对象置于同一个簇中,然后逐渐细分为越来越小的簇,直到每个对象自成一簇,或者达到了某个终止条件

  1. 层次聚类算法

2c3ed5cf0b6440e2be2e5483ea77d8ee.png

  1. 层次聚类Python实现

Python中层次聚类的函数是A gglomerativeClustering(),最重要的参数有3个:n_clusters为聚类数目,affinity为样本距离定义,linkage是类间距离的定义,有3种取值

ward:组间距离等于两类对象之间的最小距离

average:组间距离等于两组对象之间的平均距离

complete:组间距离等于两组对象之间的最大距离

Python层次聚类实现

fe48944f29684d5a8c62634c4d8ce427.png

部分代码如下

  1. from sklearn.datasets.samples_generator import make_blobs
  2. from sklearn.cluster import AgglomerativeClustering
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. from itertools import cycle #python自带的迭代器模块
  6. #产生随机数据的中心
  7. centers = [[1, 1], [-1, -1], [1, -1]]
  8. #产生的数据个数
  9. n_samples = 3000
  10. #生产数据
  11. X, lables_true = make_blobs(n_samples = n_samples, centers= centers, cluster_std = 0.6,random_state = 0)
  12. #设置分层聚类函数
  13. linkages = ['ward', 'average', 'complete']
  14. n_clusters_ = 3
  15. ac = AgglomerativeClustering(linkage = linkages[2],n_clusters = n_clusters_)
  16. #训练数据
  17. ac.fit(X)
  18. #每个数据
  19. colors = cycle('bgrcmykbgrcmykbgrcmykbgrcmyk')
  20. for k, col in zip(range(n_clusters_), colors):
  21. #根据lables中的值是否等于k,重新组成一个True、False的数组
  22. my_members = lables == k
  23. #X[my_members, 0]取出my_members对应位置为True的值的横坐标
  24. plt.plot(X[my_members, 0], X[my_members, 1], col + '.')
  25. plt.title('Estimated number of clusters: %d' % n_clusters_)
  26. plt.show()

创作不易 觉得有帮助请点赞关注收藏~~~

发表评论

表情:
评论列表 (有 0 条评论,31人围观)

还没有评论,来说两句吧...

相关阅读

    相关 层次算法

    首先介绍聚类中的层次聚类算法。层次法又分为凝聚的层次聚类和分裂的层次聚类。 凝聚的方法:也称自底向上的方法,首先将每个对象作为单独的一个聚类,然后根据性质和规则相继地合并相近