嘿,来聚个类

2021年4月24日12:26:00 15 7,252 °C
摘要

简单易懂,图解聚类算法

嘿,来聚个类

本文 GitHub https://github.com/Jack-Cherish/PythonPark 已收录,有技术干货文章,整理的学习资料,一线大厂面试经验分享等,欢迎 Star 和 完善。

所谓人以类聚,物以群分。人们都喜欢跟自己性格相合,爱好相同的人在一起。

俗称:处得来!靓仔, 我很中意你啊~

嘿,来聚个类

A 某和 B 某青梅竹马,A 某通过 B 某认识了 C 某,发现兴趣爱好出奇一致,这三人就搞到了一起,成为了一个形影不离的小团体。这个小团体的形成,是自下而上的迭代过程。

200 个人当中,可能有 10 个小团体,这些小团体的形成可能要好几个月。

嘿,来聚个类

这种「找朋友」的过程,就是今天我们要讲的主题:聚类算法

聚类

聚类算法:就是把距离作为特征,通过自下而上的迭代方式(距离对比),快速地把一群样本分成几个类别的过程。

更严谨,专业一些的说法是:

将相似的对象归到同一个簇中,使得同一个簇内的数据对象的相似性尽可能大,同时不在同一个簇中的数据对象的差异性也尽可能地大。即聚类后同一类的数据尽可能聚集到一起,不同数据尽量分离。

嘿,来聚个类

很显然,聚类是一种无监督学习

为了防止新手看不懂,这里简单解释一下:

  • 对于有标签的数据,我们进行有监督学习,常见的分类任务就是监督学习
  • 而对于无标签的数据,我们希望发现无标签的数据中的潜在信息,这就是无监督学习

聚类是一种非常常用,且好用的算法。

举个例子:

给你 1 万张抠脚大汉的图片和 1 万张可爱萌妹的图片,这 2 万张图片是混在一起的

嘿,来聚个类

好了,我现在想把所有可爱萌妹的图片全部扔掉,因为我只爱抠脚大汉!

这种时候,就可以用到聚类算法

这是一个比较好理解的例子,专业一点的需求场景,比如人脸识别。

人脸识别需要大量的人脸数据,在数据准备阶段,就可以利用聚类算法,辅助标注 + 清洗数据。

嘿,来聚个类

这是一种常规的数据挖掘手段。

我对一些常见的聚类算法,进行了整理:

嘿,来聚个类

前面讲到,聚类算法是根据样本之间的相似度,将数据进行归类的。

而相似度的度量方法,可以大致分为:

  • 距离相似性度量
  • 密度相似性度量
  • 连通相似性度量

不同类型的聚类算法,采用的样本间的相似度度量方法是不同的。

聚类算法很多,一篇文章无法讲述详尽,今天带大家从最基础的 Kmeans 学起。

K-Means

K-Means 是一个非常经典的聚类算法,别看它古老,但很实用。

这么说吧,我现在做项目,一些小功能,偶尔还会用到 K-Means。

K-Means 即K-均值,定义如下:

对于给定的样本集,按照样本之间的距离大小,将样本集划分为K个簇。让簇内的点尽量紧密的连在一起,而让簇间的距离尽量的大

K-Means 聚类的步骤如下:

  1. 随机的选取K个中心点,代表K个类别;
  2. 计算N个样本点和K个中心点之间的欧氏距离;
  3. 将每个样本点划分到最近的(欧氏距离最小的)中心点类别中——迭代1;
  4. 计算每个类别中样本点的均值,得到K个均值,将K个均值作为新的中心点——迭代2;
  5. 重复步骤2、3、4;
  6. 满足收敛条件后,得到收敛后的K个中心点(中心点不再变化)。

K-Means 聚类可以用欧式距离,欧式距离很简单,二维平面就是两个点的距离公式,在多维空间里,假设两个样本为a(x1,x2,x3,x4...xn),b(y1,y2,y3,y4...yn),那么他们之间的欧式距离的计算公式是:

嘿,来聚个类

可以用下面的图很好地说明:

嘿,来聚个类

有 ABCDE 5个样本,一开始选定右边的 2 个初始中心点,K=2,大家颜色都不一样,谁都不服谁;

嘿,来聚个类

5 个样本分别对比跟 2 个初始中心点的距离,选距离近的傍依,这时 5 个样本分成红黑 2 群;

嘿,来聚个类

然后开始换老大啦,2 个初始中心点消失,重新在 2 个类分别中心的位置出现 2 个新的中心点,这 2 个新的中心点离类别里样本的距离之和必须是最小的;

嘿,来聚个类

新的老大出现,类别的划分也不一样啦,C 开始叛变,傍依了新老大,因为他离新老大更近一点;

新的老大消失,新新老大出现,发现划分的类别没有变化,帮派稳定,于是收敛。

用代码简单实现一下:

生成一些随机点。

嘿,来聚个类

然后使用 K-Means 进行聚类。

聚类运行结果:

嘿,来聚个类

总结

K-Means 聚类是最简单、经典的聚类算法,因为聚类中心个数,即 K 是需要提前设置好的,所以能使用的场景也比较局限。

比如可以使用 K-Means 聚类算法,对一张简单的表情包图片,进行前后背景的分割,对一张文本图片,进行文字的前景提取等。

K-Means 聚类能使用的距离度量方法不仅仅是欧式距离,也可以使用曼哈顿距离、马氏距离,思想都是一样,只是使用的度量公式不同而已。

聚类算法有很多,且看我慢慢道来。

想看我讲解其它好玩实用的聚类算法,例如 CDP 等,不妨来个三连,给我来点动力。

我是 Jack,我们下期见。

文章转自我的公众号:

https://mp.weixin.qq.com/s/oxB5icj8KOfFja8XTHf7jg

weinxin
微信公众号
分享技术,乐享生活:微信公众号搜索「JackCui-AI」关注一个在互联网摸爬滚打的潜行者。
Jack Cui

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

目前评论:15   其中:访客  10   博主  5

    • avatar elgs 来自天朝的朋友 谷歌浏览器 Mac OS X Lion 10_15_7 陕西省西安市 电信 0

      虽然比较麻烦,但是不是可以用平均直径和折半查找来搜索k值

        • avatar Jack Cui Admin 来自天朝的朋友 谷歌浏览器 Mac OS X 10_14_4 中国 移动

          @elgs 嗯,怎么搜索,看用什么方法。

            • avatar Jerry 来自天朝的朋友 火狐浏览器 Windows 10 广西桂林市 联通 1

              @Jack Cui 大佬,你可真是一个高产的人,机器学习的文章是我看过的全网最详细的,代码注释也很到位哈

          • avatar MAT_ 来自天朝的朋友 谷歌浏览器 Windows 10 北京市 电信 2

            来捧场,大佬出品,必属精品

              • avatar Jack Cui Admin 来自天朝的朋友 谷歌浏览器 Mac OS X 10_14_4 中国 移动

                @MAT_ 哈哈,欢迎~

              • avatar 李十二 来自天朝的朋友 搜狗浏览器 Windows 10 上海市 联通 0

                失踪人口回归系列

                • avatar 一个小菜鸡 来自天朝的朋友 谷歌浏览器 Windows 10 四川省 联通 1

                  哇,机器学习系列居然更新了。摩多摩多 :wink:

                  • avatar Kone 这家伙可能用了岛国的代理 谷歌浏览器 Mac OS X 10_15_3 日本 京都高度技术研究所 0

                    第二次把机器学习都所有文章看了一遍。还会很不错。

                      • avatar Jack Cui Admin 来自天朝的朋友 谷歌浏览器 Windows 10 北京市 电信

                        @Kone 给力哦~感谢!

                      • avatar cscny 来自天朝的朋友 谷歌浏览器 Windows 10 江苏省徐州市 联通 0

                        大佬,为什么一维向量也可以聚类呢?它内部是怎么运行的呢?

                        • avatar KXJ 来自天朝的朋友 谷歌浏览器 Windows 10 浙江省湖州市 联通 0

                          大佬,什么时候更新下对于高维数据聚类的方法啊

                          • avatar 飞鸟 来自天朝的朋友 谷歌浏览器 Windows 10 湖南省长沙市 联通 0

                            直接收藏,宝藏网站

                            • avatar mackj 来自天朝的朋友 谷歌浏览器 Windows 10 中国 移动 1

                              大佬,2022年对于人工智能,机器学习这一块的发展,有没有什么总结啊