坊间有流传过这么一段《胡适留学日记》:
7月4日: 新开这本日记,也为了督促自己下个学期多下些苦功。先要读完手边的莎士比亚的《亨利八世》。
7月13日: 打牌。
7月14日: 打牌。
7月15日: 打牌。
7月16日: 胡适之啊胡适之!你怎么能如此堕落!先前订下的学习计划你都忘了吗?子曰:“吾日三省吾身。”不能再这样下去了!
7月17日: 打牌。
7月18日: 打牌。
且不论真假,突然觉得倒是很合适用来作为 Hidden Markov Model (HMM) 的例子来讲的,因为和书上课上讲的例子,天气呀遛狗啊还是马克杯啊什么的,果然还是这个比较好玩一点啊。
假设小明有很严重的拖延症,在每一天他会处于没有拖延症的正常状态 Normal、以及不同程度的拖延症 Light、Heavy 和 Critical 状态中的一种。每天的状态会随着前一天所处的状态不同而发生改变,转移方式如图 (fig: 1) 所示。
简单来说:小明一开始会处于正常状态,不过由于他拖延症非常严重,第二天毫无悬念地会进入轻度拖延症状态。在轻度拖延症状态中有很大的概率 (0.7) 会进入重度拖延症状态或者以 0.3 的概率维持在轻度拖延症状态中。一旦进入到重度拖延症状态,他会以 0.8 的概率一直保留在那个状态,或者有比较小的几率 (0.2) 进入“致命拖延”状态。在“致命拖延”状态中度过一天之后小明会幡然醒悟,下定决心重新做人,并在第二天成功回复正常状态。然后……周而复始、世袭罔替……
不过,小明的拖延症状态是“隐藏”在他大脑里的(这也是 HMM 中 Hidden 的由来),他自己也搞不清楚。但是我们知道他在不同的状态下会做什么样的事情。
| 状态 | 打牌的概率 | 不打牌的概率 |
|---|---|---|
| Normal | 0 | 1 |
| Light | 0.3 | 0.7 |
| Heavy | 0.8 | 0.2 |
| Critical | 1 | 0 |
虽然我们没法把小明的脑袋打开看看里面的寄存器是什么状态,但是我们可以偷看小明的日记观察小明的日常生活。通过这些历史数据,我们可以做这样一些事情:
- 给定小明某一段时间的日记(打牌、不打牌),计算该日记是否是伪造的概率。更确切地说,计算该日记所记录的日常生活是来自于小明的拖延症模型的概率。
- 给定小明某一段时间的日记,推断出每一天小明最有可能处在什么状态。
另外,如果我们并不事先知道小明的拖延症模型(状态转移和不同状态下的行为),如果有足够多的历史数据(日记),我们还可以做的第三件事情就是:
- 估计小明的拖延症模型参数。
这三件事正好对应了 HMM 中的三个任务,分别是 Scoring、Matching (或者 Decoding)、Traing (或者 Learning)。对应这三个任务分别有三个算法:
- Scoring: Forward-Backward 算法,是 Graphical Model 里的 Sum-Product 算法的特例。
- Matching: Viterbi 算法,是 Graphical Model 里的 Max-Product 算法的特例。
- Training: Baum-Welch 算法,是 EM 算法的特例。
熟悉 Graphical Model 的同学肯定一下子能看出来,前两个问题属于 Inference 问题,分别就是算 Marginal 和 MAP 推断;而最后一个问题则是 Learning 问题,之所以 EM 算法也是因为状态是没有观察到的隐变量。由于三个问题都定义得非常清楚,而且也有非常高效的算法进行计算,加之 HMM 模型的适用范围非常广,所以在诸如语音识别、自然语言处理、机器翻译、基因序列对齐、机器人定位等等各种各样的应用中得到广泛采用。虽然它提出来也已经有相当年头了,并且也有自己的局限和问题,但是,比如说,现在的 state-of-the-art 的语音识别系统仍然主要是基于 HMM 框架的。
具体来说,HMM 可以定义为一个三元组 。其中 用于描述初始状态的分布,在小明的例子里初始状态是 deterministic 地位于“Normal”状态的,General 的 HMM 并不要求这样。 则是状态转移矩阵, 表示在 时刻处于状态 的情况下, 时刻转移到状态 的概率:
注意 时刻的状态分布只依赖于 时刻的状态,而与更之前的状态无关 (independent),这类的性质通常叫做 Markov Property,这也是为什么 HMM 叫做“Markov Model”的原因。除了状态有这个性质之外,每个时刻所得到的观察值也有类似的性质: 时刻的观察值(打牌还是不打牌) 只依赖于 时刻的状态 ,并由三元组中的 来决定,具体来说
对于小明的例子,我们实际上是用状态转移图来给出了 和 ,并用表格的形式给出了 。由于 HMM 总是对应一个 sequence (的状态或者观察值),所以另一个非常常见的 HMM 的表达方式是用每个时刻 的对应的状态 和观察值 的随机变量的 Graphical Model 来表示,例如我们直接从 Wikipedia 上盗用一个图(它这里用 表示状态, 表示观察值):
从这个 Graphical Model 上能更加清楚地看出各个随机变量之间的条件独立性,也就是 Markov 性质。不过不要忘记的是在这个图模型中每个横向箭头所对应的转移概率函数全都是一样的,同样,纵向箭头所对应的观察值生成概率分布也是所有时刻公用的。
最后,假设胡适先生上面的日记日期是连续的话,我用 Viterbi
算法算了一下,最可能的状态 sequence
是:他进入了“重度拖延症”状态之后就再也没能出来过。^_^bb
嘛,也许是模型参数设得不够好呢?
注:由于现在越来越忙,长篇大论的博客能写出来的频率也越来越低,为了让
blog
不止于荒废掉,我决定尝试着写一些比较短的文章,在需要的情况下把一些长文分成系列文章分期完成。当然风险就是有可能烂尾,不过写出一部分来似乎也总比整个憋不出来要好啊?^_^bb
所以,关于 HMM
的三种算法的细节以及相关的应用的介绍之类的,就下次再说了。
Comments
曾经见到coursera上NLP的课程有介绍HMM用于对词性标志,博主的例子很有意思~
其实我觉得wiki上那个不同天气做不同事情那个已经很清晰了。。。至少比拿红白球的要好。
另外在MIT的学习和研究生活果然很忙么。。。
确实很忙啊。
这个例子很有意思呢~理解起来也很容易。
pluskid加油,我觉得肯定不会烂尾的,嘿嘿。虽然收藏了一堆blog,但是还是最想看你写的,我现在处于“pluskid”状态,明天以0.8的概率保持在此状态,以0.2的概率转移到“非pluskid”状态,表现出的行为就是查看pluskid blog更新或者查看其它blog更新,哈哈~
啊,多谢支持哈。
:)
pluskid 能写一系列的graphic model的文章不?
这个大概写不出来吧,之前写过一篇非常简单的 PGM 的单文总结,觉得省略了太多东西了。你看那些关于 PGM 的书都是上千页的,写 blog 来介绍这个东西就是填不完的大坑……
请问一下,你做这些图是用啥软件做的啊?
我猜图1是用Visio画的?
用的是 OmniGraffle
kid大神
HMM = 韩梅梅~
哈哈,HMM 新示例.
前段时间还专门用vetibi算法做了一个序列匹配的问题
Haha~ Pluskid 是用什么做出 PDF Version 的?
blog PDF?那个是 LaTeX 编译的。
大神,CRF模型和HMM模型貌似很类似,能讲讲吗
文章中好多Math Processing Error
出现这种情况一般是浏览器或者网速的问题。
博主,请问语音识别的识别阶段是评估问题还是解码问题?我感觉是评估问题应该用前向算法解决,可有人又说我错了- -;
语音识别一般是解码。
例子很生动了