只需十四步:从零开始掌握Python机器学习(附资源)
2017-03-15 08:55:54   来源:   评论:0 点击:

选自kdnuggets作者:Matthew Mayo机器之心编译参与:黄小天、吴攀、晏奇、蒋思源Python 可以说是现在最流行的机器学习语言,而且你也能在网上找到大量的资源。你现在也在考虑从 Python 入门机器学习吗?本教

第3步:更多聚类

 

我们现在接着讲聚类,一种无监督学习形式。上篇中,我们讨论了 k-means 算法; 我们在此介绍 DBSCAN 和期望最大化(EM)。

首先,阅读这些介绍性文章; 第一个是 k 均值和 EM 聚类技术的快速比较,是对新聚类形式的一个很好的继续,第二个是对 Scikit-learn 中可用的聚类技术的概述:

 

  • 聚类技术比较:简明技术概述,作者 Matthew Mayo。地址:http://suo.im/4ctIvI

  • 在玩具数据集中比较不同的聚类算法,Scikit-learn 文档。地址:http://suo.im/4uvbbM

 

期望最大化(EM)是概率聚类算法,并因此涉及确定实例属于特定聚类的概率。EM 接近统计模型中参数的最大似然性或最大后验估计(Han、Kamber 和 Pei)。EM 过程从一组参数开始迭代直到相对于 k 聚类的聚类最大化。

 

首先阅读关于 EM 算法的教程。接下来,看看相关的 Scikit-learn 文档。最后,按照教程使用 Python 自己实现 EM 聚类。

 

  • 期望最大化(EM)算法教程,作者 Elena Sharova。地址:http://suo.im/33ukYd

  • 高斯混合模型,Scikit-learn 文档。地址:http://suo.im/20C2tZ。

  • 使用 Python 构建高斯混合模型的快速介绍,作者 Tiago Ramalho。地址:http://suo.im/4oxFsj

 

如果高斯混合模型初看起来令人困惑,那么来自 Scikit-learn 文档的这一相关部分应该可以减轻任何多余的担心:

 

高斯混合对象实现期望最大化(EM)算法以拟合高斯模型混合。

 

基于密度且具有噪声的空间聚类应用(DBSCAN)通过将密集数据点分组在一起,并将低密度数据点指定为异常值来进行操作。

首先从 Scikit-learn 的文档中阅读并遵循 DBSCAN 的示例实现,然后按照简明的教程学习:

 

  • DBSCAN 聚类算法演示,Scikit-learn 文档。地址:http://suo.im/1l9tvX

  • 基于密度的聚类算法(DBSCAN)和实现。地址:http://suo.im/1LEoXC

相关热词搜索:只需 机器 资源

上一篇:微课:Flash引导动画的制作
下一篇:作业批改及时化、智能化的实现

分享到: 收藏