The Expectation Maximization Algorithm and Finite Mixture Models

July 24, 2015

期望最大化算法和有限混合模型

概念主要来自于一次跟师弟的讨论。师弟提到 Expectation Maximization Algorithm (EM 算法) 方面的专家 Prof. Geoffrey John McLachlan 的一篇早期的论文就完全涵盖了多个最新顶级期刊论文的思想。就跟着追到该教授的主页,找到这两本书:Finite Mixture Models (有限混合模型)The EM Algorithm and Extensions (期望最大化算法及其拓展)

Prof. Geoffrey John McLachlan 近期相关论文

高斯混合模型

在应用领域,更多提及的是高斯混合模型 (GMM, Gaussian Mixture Model)。最简单的是单高斯模型。在单高斯模型中,假设多维变量符合高斯分布。高斯分布从空间上观察,在二维情况,近似于椭圆;在三维情况,近似于椭球。当单高斯分布不足以表达高维随机变量的分布时,用多个高斯分布的合成来近似该高维随机变量的分布。可以类比小波分解,使用足够多的高斯分布,可以拟合任意高维数据分布。特别考虑到,独立同分布 (i.i.d., independent identically distributed) 随机变量,当数据足够多时,近似服从高斯分布。

这里 GMM 跟 K-means 算法在很多方面近似。K-means 算法是从一组样本中选择其中一个最近邻样本作为聚类中心。GMM 中是根据一组数据按照高斯分布计算中心与方差,然后为每一个数据计算属于该高斯分布的概率。GMM 可以看成是一种柔性、概率的 K-means。K-means 可以看成是鉴别/分类方法 (identification/classification);对应的 GMM 可以看成是验证方法 (veriication)。K-means 把每一个样本分配到 K 个聚类中心中最近的一个;GMM 为每一个样本计算其属于 K 个不同的高斯分布的概率。

给定样本及类别信息,可以通过极大似然估计 (ML, Maximum Likelihood) 算法求解 GMM 参数。当样本类别未知时,使用各样本符合分布的概率,期望最大化算法 (EM)。当微小概率连乘时,可以通过取对数的方式,提高数值计算的稳定性。

The Expectation Maximization Algorithm and Finite Mixture Models - July 24, 2015 - QU Xiaofeng