opencv进阶08-K 均值聚类cv2.kmeans()介绍及示例

K均值聚类是一种常用的无监督学习算法,用于将一组数据点分成不同的簇(clusters),以便数据点在同一簇内更相似,而不同簇之间差异较大。K均值聚类的目标是通过最小化数据点与所属簇中心之间的距离来形成簇。

当我们要预测的是一个离散值时,做的工作就是“分类”。例如,要预测一个孩子能否成为优秀的运动员,其实就是要将他分到“好苗子”(能成为优秀的运动员)或“普通孩子”(不能成为优秀运动员)的类别。当我们要预测的是一个连续值时,做的工作就是“回归”。

例如,预测一个孩子将来成为运动员的指数,计算得到的是 0.99 或者 0.36 之类的数值。机器学习模型还可以将训练集中的数据划分为若干个组,每个组被称为一个“簇(cluster)”。

这些自动形成的簇,可能对应着不同的潜在概念,例如“篮球苗子”、“长跑苗子”。这种学习方式被称为“聚类(clusting)”,它的重要特点是在学习过程中不需要用标签对训练样本进行标注。也就是说,学习过程能够根据现有训练集自动完成分类(聚类)。

根据训练数据是否有标签,我们可以将学习划分为监督学习和无监督学习。

前面介绍的 K近邻、支持向量机都是监督学习,提供有标签的数据给算法学习,然后对数据分类。而聚类是无监督学习,事先并不知道分类标签是什么,直接对数据分类。

举一个简单的例子,有 100 粒豆子,如果已知其中 40 粒为绿豆,40 粒为大豆,根据上述标签,将剩下的 20 粒豆子划分为绿豆和大豆则是监督学习。

针对上述问题可以使用 K 近邻算法,计算当前待分类豆子的大小,并找出距离其最近的 5 粒豆子的大小,判断这 5 粒豆子中哪种豆子最多,将当前豆子判定为数量最多的那一类豆子类别。

同样,有 100 粒豆子,我们仅仅知道这些豆子里有两个不同的品种,但并不知道到底是什么品种。此时,可以根据豆子的大小、颜色属性,或者根据大小和颜色的组合属性,将其划分为两个类型。在此过程中,我们没有使用已知标签,也同样完成了分类,此时的分类是一种无监督学习。

聚类是一种无监督学习,它能够将具有相似属性的对象划分到同一个集合(簇)中。聚类方法能够应用于所有对象,簇内的对象越相似,聚类算法的效果越好。

理论基础

本节首先用一个实例来介绍 K 均值聚类的基本原理,在此基础上介绍 K 均值聚类的基本步骤,最后介绍一个二维空间下的 K 均值聚类示例。

分豆子

假设有 6 粒豆子混在一起,我们可以在不知道这些豆子类别的情况下,将它们按照直径大小划分为两类。

经过测量,以 mm(毫米)为单位,这些豆子的直径大小分别为 1、2、3、10、20、30。下面将它们标记为 A、B、C、D、E、F,并进行分类操作。

第 1 步:随机选取两粒参考豆子。例如,随机将直径为 1mm 的豆子 A 和直径为 2 mm 的豆子 B 作为分类参考豆子。

第 2 步:计算每粒豆子的直径距离豆子 A 和豆子 B 的距离。距离哪个豆子更近,就将新豆子划分在哪个豆子所在的组。使用直径作为距离计算依据时,计算结果如表 22-1 所示。

在这里插入图片描述
在本步骤结束时,6 粒豆子被划分为以下两组。

  • 第 1 组:只有豆子 A。
  • 第 2 组:豆子 B、C、D、E、F,共 5 粒豆子。

第 3 步:分别计算第 1 组豆子和第 2 组豆子的直径平均值。然后,将各个豆子按照与直径
平均值的距离大小分组。

  • 计算第 1 组豆子的平均值 AV1 = 1mm。
  • 计算第 2 组豆子的平均值 AV2 = (2+3+10+20+30)/5 = 13mm。

得到上述平均值以后,对所有的豆子再次分组:

  • 将平均值 AV1 所在的组,标记为 AV1 组。
  • 将平均值 AV2 所在的组,标记为 AV2 组。

计算各粒豆子距离平均值 AV1 和 AV2 的距离,并确定分组,如表 22-2 所示。

在这里插入图片描述
距离平均值 AV1 更近的豆子,就被划分为 AV1 组;距离平均值 AV2 更近的豆子,就被划分为 AV2 组。现在,6 粒豆子的分组情况为:

  • AV1 组:豆子 A、豆子 B、豆子 C。
  • AV2 组:豆子 D、豆子 E、豆子 F。

第4 步:重复第 3 步,直到分组稳定不再发生变化,即可认为分组完成。
在本例中,重新计算 AV1 组的平均值 AV41、AV2 组的平均值 AV42,依次计算每个豆子与平均值 AV41 和 AV42 的距离,并根据该距离重新划分分组。按照与第 3 步相同的方法,重新计算平均值并分组后,6 粒豆子的分组情况为:

  • AV41 组:豆子 A、豆子 B、豆子 C。
  • AV42 组:豆子 D、豆子 E、豆子 F。

与上一次的分组相比,并未发生变化,我们就认为分组完成了
我们将直径较小的那一组称为“小豆子”,直径较大的那一组称为“大豆子”。

当然,本例是比较极端的例子,数据很快就实现了收敛,在实际处理中可能需要进行多轮的迭代才能实现数据的收敛,分类不再发生变化。

K 均值聚类函数

OpenCV 提供了函数 cv2.kmeans()来实现 K 均值聚类。该函数的语法格式为:

retval, bestLabels, centers=cv2.kmeans(data, K, bestLabels, criteria,
attempts, flags)

式中各个参数的含义为:

  • data:输入的待处理数据集合,应该是 np.float32 类型,每个特征放在单独的一列中。

  • K:要分出的簇的个数,即分类的数目,最常见的是 K=2,表示二分类。

  • bestLabels:表示计算之后各个数据点的最终分类标签(索引)。实际调用时,参数bestLabels 的值设置为 None。

  • criteria:算法迭代的终止条件。当达到最大循环数目或者指定的精度阈值时,算法停止继续分类迭代计算。该参数由 3 个子参数构成,分别为 type、max_iter 和 eps。
    type 表示终止的类型,可以是三种情况,分别为:

    • cv2.TERM_CRITERIA_EPS:精度满足 eps 时,停止迭代。
    • cv2.TERM_CRITERIA_MAX_ITER:迭代次数超过阈值 max_iter 时,停止迭代。
    • cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER:上述两个条件中的
      任意一个满足时,停止迭代。
  • max_iter:最大迭代次数。

  • eps:精确度的阈值。

  • attempts:在具体实现时,为了获得最佳分类效果,可能需要使用不同的初始分类值进
    行多次尝试。指定 attempts 的值,可以让算法使用不同的初始值进行多次(attempts 次)
    尝试。

  • flags:表示选择初始中心点的方法,主要有以下 3 种。

    • cv2.KMEANS_RANDOM_CENTERS:随机选取中心点。
    • cv2.KMEANS_PP_CENTERS:基于中心化算法选取中心点。
    • cv2.KMEANS_USE_INITIAL_LABELS:使用用户输入的数据作为第一次分类中心点;
      如果算法需要尝试多次(attempts 值大于 1 时),后续尝试都是使用随机值或者半随
      机值作为第一次分类中心点。
      返回值的含义为:
  • retval:距离值(也称密度值或紧密度),返回每个点到相应中心点距离的平方和。

  • bestLabels:各个数据点的最终分类标签(索引)。

  • centers:每个分类的中心点数据。

示例:有一堆米粒,按照长度和宽度对它们分类。

为了方便理解,假设米粒有两种,其中一种是 XM,另外一种是 DM。它们的直径不一样,XM 的长和宽都在[0, 20]内,DM 的长和宽都在[40, 60]内。使用随机数模拟两种米粒的长度和宽度,并使用函数 cv2.kmeans()对它们分类。
根据题目要求,主要步骤如下:

(1)随机生成两组米粒的数据,并将它们转换为函数 cv2.kmeans()可以处理的形式。
(2)设置函数 cv2.kmeans()的参数形式。
(3)调用函数 cv2.kmeans()。
(4)根据函数 cv2.kmeans()的返回值,确定分类结果。
(5)绘制经过分类的数据及中心点,观察分类结果。

代码如下:

import numpy as np
import cv2
from matplotlib import pyplot as plt
# 随机生成两组数值
# xiaomi ,长和宽都在[0,20]
xiaomi = np.random.randint(0,20,(30,2))
#dami ,长和宽的大小都在[40,60]dami = np.random.randint(40,60,(30,2))
# 组合数据
MI = np.vstack((xiaomi,dami))
# 转换为 float32 类型
MI = np.float32(MI)
# 调用 kmeans 模块
# 设置参数 criteria 值
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)
# 调用 kmeans 函数
ret,label,center=cv2.kmeans(MI,2,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS)
'''
#打印返回值
print(ret)
print(label)
print(center)
'''
# 根据 kmeans 的处理结果,将数据分类,分为 XM 和 DM 两大类
XM = MI[label.ravel()==0]
DM = MI[label.ravel()==1]
# 绘制分类结果数据及中心点
plt.scatter(XM[:,0],XM[:,1],c = 'g', marker = 's')
plt.scatter(DM[:,0],DM[:,1],c = 'r', marker = 'o')
plt.scatter(center[0,0],center[0,1],s = 200,c = 'b', marker = 'o')
plt.scatter(center[1,0],center[1,1],s = 200,c = 'b', marker = 's')
plt.xlabel('Height'),plt.ylabel('Width')
plt.show()

在这里插入图片描述
右上方的小方块是标签为“0”的数据点,左下方的圆点是标签为“1”的
数据点。右上方稍大的圆点是标签“0”的数据组的中心点;左下方稍大的方块是标签为“1”的数据组的中心点。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/70979.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

深入学习SpringCloud Alibaba微服务架构,揭秘Nacos、Sentinel、Seata等核心技术,助力构建高效系统!

课程链接: 链接: https://pan.baidu.com/s/1hRN0R8VFcwjyCTWCEsz-8Q?pwdj6ej 提取码: j6ej 复制这段内容后打开百度网盘手机App,操作更方便哦 --来自百度网盘超级会员v4的分享 课程介绍: 📚【第01阶段】课程简介:全…

空洞卷积学习笔记

文章目录 1. 扩张卷积的提出2. 理解的难点 本片博客的主题思路来自于这篇文章——如何理解Dilated Convolutions(空洞卷积),但是作者似乎是很久之前写的,文字的排版很混乱,自己来写一个新的。 1. 扩张卷积的提出 Multi-Scale Context Aggre…

win10在vmware16.2.3上安装macos13.1系统

第一步、安装vmware版本信息如下 第二步、下载unlocker426放到安装文件夹 第三步、管理员身份运行unlock.exe 第四步、运行vmware新建虚拟机 第五步、启动新创建的虚拟机macOS13.1并选择语言 第六步、选择磁盘工具抹掉格式化安装磁盘 第七步、格式化完成后退出磁盘工具 第八步、…

奥威BI数据可视化工具:报表就是平台,随时自助分析

别的数据可视化工具,报表就只是报表,而奥威BI数据可视化工具,一张报表就约等于一个平台,可随时展开多维动态自助分析,按需分析,立得数据信息。 奥威BI是一款多维立体分析数据的数据可视化工具。它可以帮助…

区间预测 | MATLAB实现QRBiLSTM双向长短期记忆神经网络分位数回归时间序列区间预测

区间预测 | MATLAB实现QRBiLSTM双向长短期记忆神经网络分位数回归时间序列区间预测 目录 区间预测 | MATLAB实现QRBiLSTM双向长短期记忆神经网络分位数回归时间序列区间预测效果一览基本介绍模型描述程序设计参考资料 效果一览 基本介绍 区间预测 | MATLAB实现QRBiLSTM双向长短…

使用腾讯云轻量服务器Matomo应用模板建网站流量统计系统

腾讯云百科分享使用腾讯云轻量应用服务器Matomo应用模板搭建网站流量统计系统,Matomo 是一款开源的网站数据统计软件,可以用于跟踪、分析您的网站的流量,同时充分保障数据安全性、隐私性。该镜像基于 CentOS 7.6 64位操作系统,已预…

【boost网络库从青铜到王者】第五篇:asio网络编程中的同步读写的客户端和服务器示例

文章目录 1、简介2、客户端设计3、服务器设计3.1、session函数3.2、StartListen函数3、总体设计 4、效果测试5、遇到的问题5.1、服务器遇到的问题5.1.1、不用显示调用bind绑定和listen监听函数5.1.2、出现 Error occured!Error code : 10009 .Message: 提供的文件句柄无效。 [s…

Linux驱动之利用ioctl函数和字符设备驱动对象分布注册点亮小灯

实验结果 头文件代码 #ifndef __HEAD_H__ #define __HEAD_H__ typedef struct{unsigned int MODER;unsigned int OTYPER;unsigned int OSPEEDR;unsigned int PUPDR;unsigned int IDR;unsigned int ODR; }gpio_t; #define PHY_LED1_ADDR 0X50006000 #define PHY_LED2_ADDR 0X5…

Postman

Postman 简介下载安装 简介 Postman 是一款用于测试和开发 API(应用程序编程接口)的工具,它提供了用户友好的界面和丰富的功能,帮助开发者轻松地创建、测试、调试和文档化各种类型的 API。无论是在构建 Web 应用、移动应用还是其…

go 中自定义包以及import

目录结构如下 注意ellis这个文件夹是在工作区的src目录下 testpackage.go package testpackageimport ("fmt" )func Test() {fmt.Println("test") }main.go package mainimport ("ellis/testpackage""fmt" )type Name struct {Fir…

【Nginx17】Nginx学习:目录索引、字符集与浏览器判断模块

Nginx学习:目录索引、字符集与浏览器判断模块 今天要学习的内容有几个还是大家比较常见的,所以学习起来也不会特别费劲。对于目录的默认页设置大家都不会陌生,字符集的设置也比较常见,而浏览器的判断这一块,可能有同学…

QT:UI控件(按设计师界面导航界面排序)

基础部分 创建新项目:QWidget,QMainWindow,QDialog QMainWindow继承自QWidget,多了菜单栏; QDialog继承自QWidget,多了对话框 QMainWindow 菜单栏和工具栏: Bar: 菜单栏:QMenuBar&#xff0…