机器学习
HMM
CRF
绪论
从文本翻译到文字、语音识别,再到命名实体识别,词性标注,序列标注问题已然渗透到社会生活中的方方面面。不少自然语言处理的问题都可以想方设法转化为序列标注问题:对邮件等”大块“的信息做命名实体识别,识别出信息中的表单项用于自动填写表单,可以有效地提高工作效率,节约时间;对音频文件进行标注分析,可以用来进行语音识别;抽取出来的电子病历文本中的疾病、治疗、检查等类型的实体,可以用以对电子病历进行分类归档…想要处理好一般性的自然语言处理问题到序列标记问题的转化,关键在于处理好如何定义标记的问题。
作为自然语言处理中常见的问题之一,序列标注问题已经由来已久,并在经历了一系列的发展变革后逐渐壮大健全。最早的有传统的隐马尔可夫模型、最大熵模型和条件随机场模型,最大熵模型抛弃了隐马尔科夫模型的独立输出假设,而条件随机场模型又在最大熵模型的基础上进一步将标签的转移扩大为全局特征,使得上下文之间的联系更加紧密。无论是在理论还是实践结果上来看,条件随机场的整体效果都要优于前两种方法。步入深度学习发展的时代后,新的诸如RNN和LSTM模型也相继用于序列标注问题,有效地改善了传统方法在处理更长的上下文依赖、过拟合、依赖启发式知识等方面的不足之处。本文主要研究和探讨了传统的序列标注模型——隐马尔可夫模型和条件随机场模型——的理论基础和应用实践。
正文
定义
序列标注是指将输入的一串观测序列 x1x2x3...xn 转化为一串标记序列 y1y2y3...yn 的过程,要解决序列标记问题,实际上就是要找到一个观测序列到标记序列的映射 f(xi)→yi (i=1,2,...,n)。
HMM模型
马尔可夫链
马尔可夫链(Markov chain)1,又称离散时间马尔可夫链,为状态空间中经过从一个状态到另一个状态的转换的随机过程。该过程要求具备“无记忆”的性质:下一状态的概率分布只能由当前状态决定,在时间序列中它前面的事件均与之无关。
从数学形式上来看,对于随机变量序列X1X2X3...Xn,满足
P(Xn=xn∣X1=x1,X2=x2,X3=x3...,Xn−1=xn−1)=P(Xn=xn∣Xn−1=xn−1)
,则称该序列为一个一阶马尔可夫链。
从宏观意义上来看,Markov链说明了在状态转移过程中,“未来”与“过去”无关而只与“现在”有关。
Markov链常常被认为是时齐的,即转移概率与n无关。
类似的可以定义m阶Markov链,满足
=P(Xn=xn∣X1=x1,X2=x2,X3=x3...,Xn−1=xn−1)P(Xn=xn∣Xn−m=xn−m,Xn−m+1=xn−m+1...,Xn−1=xn−1)
隐马尔可夫模型
隐马尔可夫模型(Hidden Markov Model 缩写:HMM)基于Markov链,不同与一般的Markov链,HMM 又加入了隐变量这一概念,即该模型包含了观测序列X1X2X3...Xn和与它一一对应的标记序列Y1Y2Y3...Yn。该模型用到了两个基本假设:
- 时齐的Markov性假设,如2.2.1所述
- 独立输出假设,输出状态的概率仅与输入状态相关,而与输入序列的前后文无关
以图形表示的隐马尔可夫模型如下所示:
HMM 模型解决了被用来解决序列标注问题中的三个基本问题:预测、平滑和解码。本文主要讨论的解码问题,即求解给定观测序列,给出最有可能的标记序列的问题。本文使用λ(W,T,π,β,A,B)来表征一个序列标注问题的HMM模型,其中W表示观测序列,T表示输出的标记序列,π表示标记之间的概率转移转移矩阵,β表示标记到观测值的发射概率,A表示输入对象的集合,B表示标记的集合。
概率模型
问题归结于求解下式
argTmax P(T=t1t2...tn∣W=w1w2...wn,λ)(ti∈B,wi∈A)(1)
由贝叶斯概率公式
P(T∣W)=P(W)P(W∣T)P(T)∝P(W∣T)P(T)(2)
因为 P(W)=const 故而可以省略不予以考虑
由独立输出假设可知
P(W∣T)=P(w1∣t1)P(w2∣t2)...P(wn∣tn)(3)
由一阶时齐的Markov性假设可知
P(T)=P(t1)P(t2∣t1)P(t3∣t2)...P(tn∣tn−1)(4)
联立方程 (2)(3)(4)⇒
P(T∣W)∼[P(t1)P(w1∣t1)][P(t2∣t1)P(w2∣t2)]...[P(tn∣tn−1)P(wn∣tn)](5)
其中转移概率由条件概率公式可知
P(ti∣ti−1)=P(ti−1)P(ti,ti−1)(6)
等式(6)中标记值的概率和等式(5)中的独立输出概率可由统计方法或规则方法得出,下面介绍两种方法的异同:
项目 |
统计方法 |
规则方法 |
介绍 |
通过统计得出频率估计概率的方法 |
通过既定的规则来估计概率的方法 |
优点 |
覆盖面广,稳定性高 |
精确,对于特殊现象的支持度好 |
缺点 |
对于特殊现象的支持度差 |
规则库庞大,编写和维护复杂,覆盖面不及统计方法 |
能够计算出特定T∗的概率值P(T∗∣W)还不够,还要要找到最大的概率对应的T。这个问题可以转化成一个求解最短加权路径的图论问题。
可构建像 graph 1 所示的图模型(其余路径未画出)。显然,如果标记的取值有m种可能,序列的长度为n,那么枚举所有路径然后取加权值最大的路径的算法复杂度为 O(nm) ,随着序列长度增长而呈指数级增长。为了降低复杂度这里一般采用维特比算法 (Viterbi algorithm) 。
The Viterbi algorithm2 is a dynamic programming algorithm for finding the most likely sequence of hidden states—called the Viterbi path—that results in a sequence of observed events, especially in the context of Markov information sources and hidden Markov models (HMM).
维特比算法是一种动态规划算法,用于找出隐藏的最大可能路径(维特比路径)。维特比算法的核心思想在于全局最优包含局部最优。考虑从起点到某个中间点的最大加权路径,那么该路径所经过的该中间点的前一个点在同时间上所有点中也一定是加权最大的点。下面给出了Viterbi算法的伪代码。其中T1,T2分别为保存当前节点最大累计权值的矩阵和保存该节点最大累计权值路径上的上一个节点的矩阵。以下给出了维特比算法的算法伪代码:
下溢问题:(5) 式中的连乘积中因子有可能过小而下溢为零从而造成整个式子变为0,为了避免这种情况可以考虑取对数化乘积为加法的技巧。
应用
绝大多数自然语言处理问题(Natural Language Processing Problem,简称NLP问题),都可以转化为一个序列标注问题。想要处理好NLP问题到序列标记问题的转化关键在于处理好如何定义标记的问题。例如对于中文分词问题,可以定义标签集合 T={B,M,E,S} ,其中 B(begin),M(middle),E(end),S(single) 分别表示词的开头,中间,结尾和单个字成词;对于词性标注问题,可以在分词处理的基础上让一个词对应一个词性标签。对于命名实体识别问题,可以定义标签集合 T={BL,ML,EL,BP,MP,EP,BO,MO,EO,N} 其中 B,M,E 后面跟着的 L(location),P(person),O(organization) 分别表示地名,人民,机构名,而 N 表示不属于实体的部分。定义好标记之后输入训练好的模型后问题即可求解。
CRF 模型
随机场、马尔可夫随机场、条件随机场
考虑一个空间内各个区域按照某种分布被赋予了某个随机值,这样的场称之为“随机场”。而马尔可夫随机场则是一类特殊的随机场,场中每个点的赋值不仅与自身位置有关,还和相邻位置的赋值相关。如果考虑马尔科夫性的同时将点的赋值概率看做是条件概率,则称该马尔科夫场为条件随机场(Conditional random fields 简称:CRF)。如维基百科3中所述:
Whereas a classifier predicts a label for a single sample without considering “neighboring” samples, a CRF can take context into account.
CRF模型和那些仅仅只考虑自身来进行分类的模型不同之处就在于CRF模型将样本点的“邻居”也考虑在内,这个特点使得CRF模型有能力处理上下文有关联的序列标注的问题。
线性链条件随机场
线性链的条件随机场(Linear conditional random fields)是对条件随机场的简化模型:X=(X1,X2,...Xn),Y=(Y1,Y2,...Yn) 均为线性链表示的随机变量序列,在给定随机变量序列X的情况下,随机变量Y的条件概率分布 P(Y∣X) 构成条件随机场,即满足马尔科夫性:
P(Yi∣X,Y1,Y2,...Yn)=P(Yi∣X,Yi−1,Yi+1)(7)
则称 P(Y∣X) 为线性链条件随机场。
概率模型
为了建立可供学习的CRF模型,可以定义两类特征函数(这些特征函数用来评价一个序列在某些特征方面是否“靠谱”,只有 1,0 两种取值,即判断是否满足条件):一类只与当前节点有关,表示为sl(yi,x,i) (l=1,2...,m);另一类还与前一个节点有关,表示为tk(yi−1,yi,x,i) (k=1,2...,n)。引入需要学习的权重参数(所谓“权重”即用来衡量一个判断依据的重要程度的参数)λl,μk,则条件概率表示为
P(y∣x)=Z(x)1exp(i,k∑λktk(yi−1,yi,x,i)+i,l∑μlsl(yi,x,i))∝exp(i,k∑λktk(yi−1,yi,x,i)+i,l∑μlsl(yi,x,i))(8)
Z(x)为规范化因子,是所有可能的标注序列的概率和,使得等式右边规范为一个概率。
Z(x)=y∑exp(i,k∑λktk(yi−1,yi,x,i)+i,l∑μlsl(yi,x,i))(9)
为了使得表示更加方便,将参数 λ,μ 均表示为 w ,特征函数 t,s 均表示为 f ,即有
wk={λkμk−m(0<k⩽m)(m<k⩽m+n)(10)
fk(y,x)=⎩⎪⎪⎪⎨⎪⎪⎪⎧i∑sk(yi,x,i)i∑tk−m(yi−1,yi,x,i)(0<k⩽m)(m<k⩽m+n)(11)
由 (11)(12) 式可将 (8) 式简化为
P(y∣x)=∑yexp(∑kwkfk(y,x))exp(∑kwkfk(y,x))∝exp(k∑wkfk(y,x))(12)
参数学习
以下采用梯度下降法来训练参数。
定义损失函数
L=−M=−logx,y∏P(y∣x)P(x,y)=−x,y∑P(x,y)logP(y∣x)=x∑P(x)logZ(x)−x,y∑P(x,y)k∑wkfk(y,x)=x∑P(x)logy∑exp(k∑wkfk(y,x))−x,y∑P(x,y)k∑wkfk(y,x)(13)
其中P为先验概率,可以通过统计方法得出。
对损失函数求导可得:
∂wk∂L=x,y∑P(x)P(y∣x)fk(y,x)−x,y∑P(x,y)fk(y,x)(14)
有了损失函数的导数之后就可以进行迭代优化参数,直到达到收敛条件:
wk:=wk−η⋅∂wk∂L(15)
梯度下降法的算法流程为:定义损失函数 L(w)、学习率 η→计算梯度 ∂wk∂L→更新 w→计算梯度 ∂wk∂L→更新 w→...→达到收敛条件,得到训练后参数 w
同样的,将训练好的CRF模型用于解码问题也可以采用维特比算法,此处将不再赘述。