专栏文章

隐马尔可夫模型【学习笔记】

算法·理论参与者 2已保存评论 2

文章操作

快速查看文章及其快照的属性,并进行相关操作。

当前评论
2 条
当前快照
1 份
快照标识符
@mip8l9jl
此快照首次捕获于
2025/12/03 07:56
3 个月前
此快照最后确认于
2025/12/03 07:56
3 个月前
查看原文
upd on 5.25 - 修改了三处笔误

隐马尔可夫模型

一. 隐马尔可夫模型的性质

  • 具有马尔可夫性的状态序列 XX,但这个序列是不可被直接观测的,故称之为隐状态序列,我们假设隐状态共有 NN 种取值。
  • 还具有一个证据状态序列 EE。对于所有时刻 tt,可观测到与隐状态 XtX_t 有关的输出 EtE_t​。
  • 独立性假设 11 :对于所有时刻 tt,给定前一个时刻的隐状态 Xt1X_{t-1},则当前时刻的隐状态 XtX_{t} 独立于过去所有隐状态和证据状态,即 XtX_t 只依赖于 Xt1X_{t - 1}Xt1X_{t - 1} 给定的条件下)。
  • 独立性假设 22 :对于所有时刻 tt,给定当前时刻的隐状态 XtX_t,则当前时刻的证据状态 EtE_t 独立于过去所有隐状态和证据状态,即 EtE_t 只依赖于 XtX_tXtX_{t} 给定的条件下)。

二. 隐马尔可夫模型的概率推理

0. 一些符号说明

  • 隐状态序列 XX:将 tt 时刻的隐藏状态记为 XtX_{t}
  • 证据状态序列 EE:将 tt 时刻的证据状态记为 EtE_t
  • 初始概率 π\pi:隐状态 XX 的先验概率分布,πi=P(X1=i)\pi_{i} = P(X_1 = i)
  • 转移概率 AA:描述前一状态转移到后一状态的概率,Ai,j=P(Xt+1=jXt=i)A_{i, j} = P(X_{t + 1} = j \mid X_{t} = i)
  • 发射概率 BB:描述从隐状态到证据状态的概率,Bi(ej)=P(Et=ejXt=i)B_{i}(e_j) = P(E_{t} = e_{j}\mid X_{t} = i)

1. 滤波任务

  • 目标:根据截至当前时刻 tt 的所有观测信息构成的证据状态 e1:t=(e1,e2,,et)e_{1:t} = (e_1, e_2, \cdots, e_t),推断当前时刻 tt 的隐藏状态 XtX_t 的概率分布 γt(i)=P(Xt=ie1:t)\gamma_{t}(i) = P(X_t = i\mid e_{1:t})。这个分布也被称为状态置信分布或滤波概率。
至于这个任务为什么叫“滤波”,我个人的理解是——这个任务要根据当前已经观测到的状态实时反馈当前的隐藏状态的概率分布,相当于边听边翻译,这跟滤波很像,所以我们这么叫也很合理,接下来我们开始推导。
根据条件概率的公式可以比较容易地得到
P(Xt=je1:t1)=i=1NP(Xt=jXt1=i)P(Xt1=ie1:t1)            (1)P(X_{t} = j \mid e_{1:t-1}) = \sum\limits_{i = 1}^{N} P(X_{t} = j \mid X_{t - 1} = i) P(X_{t - 1} = i\mid e_{1:t-1}) \ \ \ \ \ \ \ \ \ \ \ \ (1)
由贝叶斯公式可知
P(ABC)=P(ABC)P(BC)=P(BAC)P(AC)P(C)P(BC)=P(BAC)P(AC)P(BC)P(A\mid BC) = \frac{P(ABC)}{P(BC)} = \frac{P(B\mid AC)P(A\mid C)P(C)}{P(BC)} = \frac{P(B\mid AC)P(A\mid C)}{P(B \mid C)}
所以有
P(Xt=je1:t)=P(Xt=j(et,e1:t1))=P(et(Xt=j,e1:t1))P(Xt=je1:t1)P(ete1:t1)            (2)\begin{aligned} P(X_{t} = j \mid e_{1:t}) &= P(X_{t} = j \mid (e_{t}, e_{1:t-1})) = \frac{P(e_{t} \mid (X_{t} = j, e_{1:t-1}))P(X_{t} = j \mid e_{1:t-1})}{P(e_{t}\mid e_{1:t-1})} \ \ \ \ \ \ \ \ \ \ \ \ (2) \end{aligned}
由独立性假设 22
P(et(Xt=j,e1:t1))=P(etXt=j)            (3)P(e_{t} \mid (X_{t} = j, e_{1:t-1})) = P(e_{t} \mid X_{t} = j)\ \ \ \ \ \ \ \ \ \ \ \ (3)
(1),(3)(1),(3) 两式带入 (2)(2) 式即可得到
P(Xt=je1:t)=P(etXt=j)i=1NP(Xt=jXt1=i)P(Xt1=ie1:t1)P(ete1:t1)P(X_{t} = j \mid e_{1:t}) = \frac{P(e_{t} \mid X_{t} = j)\sum\limits_{i = 1}^{N} P(X_{t} = j \mid X_{t - 1} = i) P(X_{t - 1} = i\mid e_{1:t-1})}{P(e_{t}\mid e_{1:t-1})}
令常数 α=1P(ete1:t1)\displaystyle\alpha = \frac{1}{P(e_t \mid e_{1:t-1})},则
P(Xt=je1:t)=αP(etXt=j)i=1NP(Xt=jXt1=i)P(Xt1=ie1:t1)P(X_{t} = j \mid e_{1:t}) = \alpha P(e_{t} \mid X_{t} = j)\sum\limits_{i = 1}^{N} P(X_{t} = j \mid X_{t - 1} = i) P(X_{t - 1} = i\mid e_{1:t-1})
γt(j)=αBj(et)i=1NAi,jγt1(i)\gamma_{t}(j) = \alpha B_{j}(e_t)\sum\limits_{i=1}^{N}A_{i,j}\gamma_{t-1}(i)
如果我们定义两个 NN 维向量到一个 NN 维向量的运算 (ab)i=aibi(\mathbf a\circ \mathbf b)_i = a_i b_i,将 γt=[γt(1),,γt(N)]\gamma_{t} = [\gamma_{t}(1), \cdots, \gamma_{t}(N)]^{\top}B(et)=[B1(et),,BN(et)]\mathbf B(e_{t}) = [B_{1}(e_{t}), \cdots, B_{N}(e_{t})]^{\top} 看作 NN 维列向量,转移写成矩阵形式就是
γt=αB(et)(γt1A)\gamma_{t}^{\top} = \alpha \mathbf B(e_{t}) \circ (\gamma_{t-1}^{\top}\mathbf A)
由于常数 α\alpha 不好计算,我们可以忽略这个常数,直接计算得到 γt\gamma_{t} 然后概率归一化即可。

2. 预测任务

  • 目标:根据截至当前时刻 tt 的所有观测信息构成的证据状态 e1:t=(e1,e2,,et)e_{1:t} = (e_1, e_2, \cdots, e_t),预测未来时刻 t+k(k>0)t+k(k > 0) 的隐藏状态 Xt+kX_{t + k} 的概率分布 γt+kt(i)=P(Xt+k=ie1:t)\gamma_{t+k\mid t}(i) = P(X_{t + k} = i \mid e_{1:t})
这个任务的目标非常明确,那就让我们直接推式子吧。
首先,我们先使用滤波任务中的方法推出 γt(i)=P(Xt=ie1:t)\gamma_{t}(i) = P(X_t = i\mid e_{1:t})
先考虑单步预测,即如何得到 P(Xt+1=je1:t)P(X_{t + 1} = j \mid e_{1:t})​ 的预测值。通过条件概率的公式,我们也可以比较容易地得到
γt+1t=P(Xt+1e1:t)=i=1Nγt(i)Ai,j\gamma_{t+1\mid t} = P(X_{t + 1} \mid e_{1:t}) = \sum\limits_{i = 1}^{N} \gamma_{t}(i)A_{i,j}
写成矩阵形式就是
γt+1t=γtA\gamma_{t+1\mid t}^{\top} = \gamma_{t}^{\top} \mathbf A
于是可以得到
γt+kt=γtAk\gamma_{t+k\mid t}^{\top} = \gamma_{t}^{\top}\mathbf{A}^{k}

3. 平滑任务

假如你正在听英语听力,判断说话的人在每个时间点的情绪(隐状态),那么以下是使用滤波概率推理和平滑概率推理的区别。
  • 滤波:在听完前 kk 秒的录音时,立即对第 kk 秒的情绪做出判断。
  • 平滑:在听完完整录音后,重新利用所有信息,评估第 kk​ 秒的情绪。

我们先定义前向信息
αt(i)=P(Xk=i,e1:k)\alpha_{t}(i) = P(X_{k} = i , e_{1:k})
注意区别 α\alpha 与滤波任务里的 γ\gamma,这里的 α\alpha 是联合概率,之前的 γ\gamma 是条件概率。
首先,我们先确定递推的初值
α1(i)=P(X1=i,e1)=P(X1=i)P(e1X1=i)=πiBi(e1)\alpha_{1}(i) = P(X_{1} = i, e_{1}) = P(X_{1} = i)P(e_{1} \mid X_{1} = i) = \pi_{i}B_{i}(e_1)
考虑递推
αt(j)=P(Xt=j,e1:t1,et)=P(et(Xt=j,e1:t1))P(Xt=j,e1:t1)\begin{aligned} \alpha_{t}(j) = P(X_{t} = j, e_{1:t-1}, e_{t}) = P(e_{t} \mid (X_t = j, e_{1:t-1}))P(X_t=j, e_{1:t-1}) \end{aligned}
由独立性假设 22
P(et(Xt=j,e1:t1))=P(etXt=j)P(e_{t} \mid (X_t = j, e_{1:t-1})) = P(e_{t} \mid X_{t} = j)
所以
αt(j)=P(etXt=j)i=1NP(Xt1=i,e1:t1)P(Xt=j,Xt1=i)=Bj(et)i=1Nαt1(i)Ai,j\begin{aligned} \alpha_{t}(j) &= P(e_{t} \mid X_{t} = j)\sum\limits_{i=1}^{N}P(X_{t-1} = i, e_{1:t-1})P(X_t = j, X_{t-1}=i) \\ &= B_{j}(e_t)\sum\limits_{i=1}^{N}\alpha_{t-1}(i)A_{i,j} \end{aligned}
我们定义后向信息
βk(i)=P(ek+1:TXk=i)\beta_{k}(i) = P(e_{k+1:T} \mid X_{k} = i)
这表示在时刻 kk 处于状态 ii 的条件下,观测到从时刻 k+1k+1TT 的后续观测序列 ek+1:Te_{k+1:T} 的概率。
首先,由于 TT 时刻之后没有观测序列,所以我们定义
βT(i)=1\beta_{T}(i) = 1
考虑递推
βt(j)=P(et+1:TXt=j)=i=1NP((et+1:T,Xt+1=i)Xt=j)=i=1NP((et+1,et+2:T,Xt+1=i)Xt=j)\begin{aligned} \beta_{t}(j) = P(e_{t+1:T} \mid X_{t} = j) = \sum\limits_{i=1}^{N} P((e_{t+1:T},X_{t+1}=i)\mid X_{t}=j) = \sum\limits_{i=1}^{N} P((e_{t+1}, e_{t+2:T},X_{t+1}=i)\mid X_{t}=j) \end{aligned}
由贝叶斯公式可知
P(ABCD)=P(ABCD)P(D)=P(ABCD)P(BCD)P(BCD)P(CD)P(CD)P(D)=P(ABCD)P(BCD)P(CD)P(ABC | D) = \frac{P(ABCD)}{P(D)} = \frac{P(ABCD)}{P(BCD)}\cdot \frac{P(BCD)}{P(CD)} \cdot \frac{P(CD)}{P(D)} = P(A\mid BCD)P(B\mid CD)P(C\mid D)
所以
βt(j)=i=1NP(et+1(et+2:T,Xt+1=i,Xt=j))P(et+2:T(Xt+1=i,Xt=j))P(Xt+1=iXt=j)\beta_{t}(j) = \sum\limits_{i=1}^{N}P(e_{t+1} \mid (e_{t + 2:T}, X_{t + 1} = i, X_{t} = j))P(e_{t + 2:T}\mid (X_{t + 1} = i, X_{t} = j))P(X_{t + 1}=i \mid X_{t}=j)
由独立性假设 1122,可直接推出
βt(j)=i=1NP(et+1Xt+1=i)P(et+2:TXt+1=i)P(Xt+1=i,Xt=j)=i=1NBi(et+1)Aj,iβt+1(i)\begin{aligned} \beta_{t}(j) &= \sum\limits_{i = 1}^{N} P(e_{t + 1} \mid X_{t+1}=i)P(e_{t+2:T}\mid X_{t + 1}=i)P(X_{t+1}=i, X_{t}=j) \\ &= \sum\limits_{i=1}^{N} B_{i}(e_{t+1})A_{j,i}\beta_{t+1}(i) \end{aligned}
现在我们要求平滑概率
P(Xk=ie1:T)=P(Xk=i,e1:T)P(e1:T)P(X_{k} = i \mid e_{1:T}) = \frac{P(X_{k} = i, e_{1:T})}{P(e_{1:T})}
对于分子有
P(Xk=i,e1:T)=P(Xk=i,e1:k,ek+1:T)=P(Xk=i,e1:k)P(ek+1:T(Xk=i,e1:k))\begin{aligned} P(X_{k}=i, e_{1:T}) = P(X_{k} = i, e_{1:k}, e_{k + 1:T}) = P(X_{k} = i, e_{1:k})P(e_{k+1:T} \mid (X_{k} = i, e_{1:k})) \end{aligned}
由独立性假设 1122​,可知
P(ek+1:T(Xk=i,e1:k))=P(ek+1:TXk=i)=βk(i)P(e_{k+1:T} \mid (X_{k} = i, e_{1:k})) = P(e_{k+1:T} \mid X_{k} = i) = \beta_{k}(i)
所以
P(Xk=i,e1:T)=αk(i)βk(i)P(X_{k}=i, e_{1:T}) = \alpha_{k}(i)\beta_{k}(i)
对于分母有
P(e1:T)=j=1NP(Xk=j,e1:T)=j=1Nαk(j)βk(j)P(e_{1:T}) = \sum\limits_{j=1}^{N} P(X_{k} = j, e_{1:T}) = \sum\limits_{j=1}^{N}\alpha_{k}(j)\beta_{k}(j)
所以平滑概率
P(Xk=ie1:T)=αk(i)βk(i)j=1Nαk(j)βk(j)P(X_{k} = i \mid e_{1:T}) = \frac{\alpha_{k}(i)\beta_{k}(i)}{\sum\limits_{j = 1}^{N}\alpha_{k}(j)\beta_{k}(j)}

4. 解释任务

假如你正在听一段录音(观测到的证据序列),我们想知道的是最有可能的整个句子是什么,而不是每个时间点最有可能的单词的简单拼接。
  • 目标:这个任务不是计算某个时刻的状态概率分布,而是找到最有可能产生整个观测序列 e1:Te_{1:T} 的那个,即求 argmaxX1:TP(X1:Te1:T)\operatorname{argmax}\limits_{X_{1:T}} P(X_{1:T}\mid e_{1:T}),由于 P(e1:T)P(e_{1:T}) 对于所有路径来说都是常数,所以等价于求 X1:T=argmaxX1:TP(X1:T,e1:T)X^{*}_{1:T} = \operatorname{argmax}_{X_{1:T}} P(X_{1:T}, e_{1:T})
考虑使用动态规划的思想,设 mt(i)m_t(i) 为已经观测到 e1:te_{1:t},且到达当前隐状态 Xt=iX_t = i​ 的所有可能路径中概率最大的路径的概率,即 mt(i)=maxX1,,Xt1P(X1,,Xt1,Xt=i,e1:t)m_t(i) = \max\limits_{X_1, \cdots, X_{t - 1}}P(X_1, \cdots, X_{t-1}, X_t=i, e_{1:t})
考虑初始状态 m1(i)=P(X1=i,e1)=πiBi(e1)m_{1}(i) = P(X_{1} = i, e_{1}) = \pi_{i}B_i(e_1)
考虑枚举时刻 t1t-1 的状态,根据前面三种推导的方法,可以比较显然地得到状态转移式
mt(j)=[maxi=1Nmt1(i)Ai,j]Bj(et)m_{t}(j) = \left[\max\limits_{i=1}^{N} m_{t-1}(i)A_{i,j}\right]B_j(e_t)
为了记录最优路径,我们还需要开一个数组 aa 来储存转移信息
at(j)=argmaxi=1N(mt1(i)Ai,j)a_t(j) = \operatorname{argmax}_{i=1}^{N}(m_{t-1}(i)A_{i,j})
整个观测序列的最可能路径的概率 P=maxi=1NmT(i)P^{*} = \max_{i=1}^{N}m_{T}(i),最优路径的最后一个状态 XT=argmaxi=1NmT(i)X_{T}^{*} = \operatorname{argmax}_{i=1}^{N}m_{T}(i),之后可以通过 aa 数组反向回溯出整个最优路径 Xt=at(Xt+1)X_{t}^{*} = a_t(X_{t+1}^{*})

评论

2 条评论,欢迎与作者交流。

正在加载评论...