徽标
联盟百科
通讯
下载应用,请到 Google Play
新! 在您的Android™设备上下载联盟百科!
自由
比浏览器更快的访问!
 

K-平均算法和最大期望算法

快捷方式: 差异相似杰卡德相似系数参考

K-平均算法和最大期望算法之间的区别

K-平均算法 vs. 最大期望算法

k-平均算法(英文:k-means clustering)源于信号处理中的一种向量量化方法,现在则更多地作为一种聚类分析方法流行于数据挖掘领域。k-平均聚类的目的是:把n个点(可以是样本的一次观察或一个实例)划分到k个聚类中,使得每个点都属于离他最近的均值(此即聚类中心)对应的聚类,以之作为聚类的标准。这个问题将归结为一个把数据空间划分为Voronoi cells的问题。 这个问题在计算上是困难的(NP困难),不过存在高效的启发式算法。一般情况下,都使用效率比较高的启发式算法,它们能够快速收敛于一个局部最优解。这些算法通常类似于通过迭代优化方法处理高斯混合分布的最大期望算法(EM算法)。而且,它们都使用聚类中心来为数据建模;然而k-平均聚类倾向于在可比较的空间范围内寻找聚类,期望-最大化技术却允许聚类有不同的形状。 k-平均聚类与''k''-近邻之间没有任何关系(后者是另一流行的机器学习技术)。. 最大期望演算法(Expectation-maximization algorithm,又譯期望最大化算法)在统计中被用于寻找,依赖于不可观察的隐性变量的概率模型中,参数的最大似然估计。 在统计计算中,最大期望(EM)算法是在概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的。最大期望算法经常用在机器学习和计算机视觉的数据聚类(Data Clustering)领域。最大期望算法经过两个步骤交替进行计算,第一步是计算期望(E),利用对隐藏变量的现有估计值,计算其最大似然估计值;第二步是最大化(M),最大化在E步上求得的最大似然值来计算参数的值。M步上找到的参数估计值被用于下一个E步计算中,这个过程不断交替进行。.

之间K-平均算法和最大期望算法相似

K-平均算法和最大期望算法有(在联盟百科)0共同点。

上面的列表回答下列问题

K-平均算法和最大期望算法之间的比较

K-平均算法有7个关系,而最大期望算法有12个。由于它们的共同之处0,杰卡德指数为0.00% = 0 / (7 + 12)。

参考

本文介绍K-平均算法和最大期望算法之间的关系。要访问该信息提取每篇文章,请访问:

嘿!我们在Facebook上吧! »