MATLAB环境下基于随机游走拉普拉斯算子的快速谱聚类方法

古人有云,物以类聚,在面临信息爆炸问题的今天,对信息类别划分的价值日益显现,并逐步成为学者们的研究热点。分类和聚类是数据挖掘的重要工具,是实现事物类别划分的左右手,聚类又是分类一种特殊的方式。所谓聚类,浅显的讲就是将指定数据集中的个体(或对象)按照某种约定规则划分成若干个类别(也称簇、组),使得划分在同一类中的个体间具有强的共性特征,而分在不同类中的个体间差异最大化。聚类作为一种无监督的机器学习过程,它是基于观察的学习而不是基于实例的学习,所以事先无需确定分类的准则和先验知识,所以和有监督的机器学习方法相比,聚类分析方法更具灵活性。通过聚类分析技术,可以在不受人的先验知识的束缚和干扰的情况下完成对无标识的数据对象类别划分,从而获取数据集合中潜在信息。

随着聚类算法研究的深入,聚类在自然科学和社会科学的各个领域都得到了广泛的应用,例如,搜索引擎门户网站使用聚类来实现信息的快速定位,提高搜索效率;金融机构通过聚类来挖掘客户的资料信息,实现风险的最小化;生物学家通过对含有遗传信息的基因聚类来发现种群间的异同等。

聚类经过近几十年的发展,已经有上千种聚类算法被提出,在最近的十几年的时间里,提出的具有代表性的聚类算法有谱聚类算法、粒子群算法和近邻传播算法等。在现有的众多聚类方法中,K-means算法是使用最普遍最经典的聚类算法之一,算法实现简单,执行效率高。然而,K-means算法是建立在凸球形的样本空间上基于中心的聚类算法,其准则函数是基于梯度的,仅在紧凑的具有超球空间结构的样本集上才能得到较好的聚类结果,当样本集空间结构非凸时,算法就会陷入局部最优划分的困境中。

谱聚类算法对数据的结构分布不做强的假设,在非凸结构的数据集上任然能够得到较好的聚类结果,克服了以经典K-means算法为代表的的基于中心聚类算法的缺点。此外,谱聚类对误差数据和噪声的敏感性不强,具有较好的鲁棒性。在许多实际应用问题中,谱聚类都能取得较好的聚类效果。在最近的十年里,谱聚类方法日益受到学者们的关注并取得了迅猛的发展,和现有的主要聚类方法相比,谱聚类方法的优点明显:

(1)算法实现起来直观、简单、方便,算法的核心问题为权矩阵的特征值分解,是一个经典的代数运算;(2)聚类结果稳定,算法不存在局部最优解;(3)对数据集的空间结构形状不做强的要求,可以产生高质量的聚类结果;(4)理论基础坚实,可以从谱图理论、矩阵扰动理论、图上随机游走理论等多个角度给出合理解释。

基于此,提出一种基于随机游走拉普拉斯算子的快速谱聚类方法,算法运行环境为MAYLAB R2018A,部分代码如下:

% Fast Spectral Clustering based on RandomWalk Laplacian 
% Input:
%       - Z: the initial cross similarity matrix between data points and anchors
%       - c: the number of clusters
% Output:
%       - clustering: the cluster assignment for each point
% Requre:
% 		mySVD.m
% 		litekmeans.m
% Usage:
%       % X: d*n
%       [laKMM, laMM, AnchorGraph, Anchors, ~, ~, ~]= KMM(X', c, m,k) ;Dv=diag(1./sum(Z,1));
U = mySVD(Z+Z*Dv,c+1);
U(:,1) = [];
U=U./repmat(sqrt(sum(U.^2,2)),1,c);
clustering=litekmeans(U,c,'MaxIter',100,'Replicates',10);

出图如下:

工学博士,担任《Mechanical System and Signal Processing》审稿专家,担任
《中国电机工程学报》优秀审稿专家,《控制与决策》,《系统工程与电子技术》,《电力系统保护与控制》,《宇航学报》等EI期刊审稿专家。

擅长领域:现代信号处理,机器学习,深度学习,数字孪生,时间序列分析,设备缺陷检测、设备异常检测、设备智能故障诊断与健康管理PHM等。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/494095.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

详解顺序结构滑动窗口处理算法

🎀个人主页: https://zhangxiaoshu.blog.csdn.net 📢欢迎大家:关注🔍点赞👍评论📝收藏⭐️,如有错误敬请指正! 💕未来很长,值得我们全力奔赴更美好的生活&…

酷开科技,让酷开系统成为现代生活的变革者

电视,从问世就一直受到人们的追捧。还记得小时候一家人围坐在电视机前的场景,小小的黑白屏幕,牢牢的吸引着大家的目光。随着科技的不断进步,我们的生活也发生了翻天覆地的变化。而电视,也从笨重的黑白电视变成了轻薄的…

YOLOv9中的“RepNCSPELAN4”结构!

RepNCSPELAN4结构出炉啦,收藏起来写论文用! 1.代码: 代码路径:yolov9-main->models->common.py,代码如下: class RepNCSPELAN4(nn.Module):# csp-elandef __init__(self, c1, c2, c3, c4, c51): # …

片上网络NoC

本文大部分内容来源于王志英老师主编的《片上网络原理与设计》以及网络,部分内容是本人理解所得,若有不当之处请指教 一、概述 片上网络将报文交换的思想引入芯片内部通信机制中,尽管片上网络和片外网络具有一定相似性,但二者在…

选择一款能让墙面生动起来的壁纸!

1、方小童在线工具集 网址: 方小童 该网站是一款在线工具集合的网站,目前包含PDF文件在线转换、随机生成美女图片、精美壁纸、电子书搜索等功能,喜欢的可以赶紧去试试!

Sora专辑|AI界一夜变天

没有丝毫预热和剧透,Open AI深夜直接丢下核弹炸了街,从业者深感要变天。 2月16日凌晨,Open AI发布了首个“文生视频”模型Sora。官方介绍,Sora能根据文字指令创造出包含丰富细节的逼真场景、角色,且能用多角度镜头,生成一镜到底的60秒长视频。 目前官网上已经更新了48个…

k8s节点负载使用情况分析命令kubectl describe node [node-name]

1.到任意安装了kubectl节点命令的节点上执行kubectl describe node [node-name] 上面的Requests最小分配 Limits最大分配是所有pod之和,最小分配之和不能超过服务器实际参数,否则新的pod会因为资源不够起不来,最大分配是预设之和&#xff0…

ConvNext学习

参考: [1] LIU Z, MAO H, WU C Y, et al. A ConvNet for the 2020s[C/OL]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), New Orleans, LA, USA. 2022. http://dx.doi.org/10.1109/cvpr52688.2022.01167. DOI:10.1109/cvpr52688.2…

计算机设计大赛 深度学习大数据物流平台 python

文章目录 0 前言1 课题背景2 物流大数据平台的架构与设计3 智能车货匹配推荐算法的实现**1\. 问题陈述****2\. 算法模型**3\. 模型构建总览 **4 司机标签体系的搭建及算法****1\. 冷启动**2\. LSTM多标签模型算法 5 货运价格预测6 总结7 部分核心代码8 最后 0 前言 &#x1f5…

python Matplotlib Tkinter--pack 框架案例

环境 python:python-3.12.0-amd64 包: matplotlib 3.8.2 pillow 10.1.0 版本一 import matplotlib.pyplot as plt from matplotlib.backends.backend_tkagg import FigureCanvasTkAgg, NavigationToolbar2Tk import tkinter as tk import tkinter.messagebox as messagebox…

Java设计模式 | 七大原则之依赖倒转原则

依赖倒转原则(Dependence Inversion Principle) 基本介绍 高层模块不应该依赖低层模块,二者都应该依赖其抽象(接口/抽象类)抽象不应该依赖细节,细节应该依赖抽象依赖倒转(倒置)的…

2023 re:Invent 用 Amazon Q 打造你的知识库

前言 随着 ChatGPT 的问世,我们迎来了许多创新和变革的机会。一年一度的亚马逊云科技大会 re:Invent 也带来了许多前言的技术,其中 Amazon CEO Adam Selipsky 在 2023 re:Invent 大会中介绍 Amazon Q 让我印象深刻,这预示着生成式 AI 的又一…