主观Bayes方法

主观 Bayes 方法

概率论基础

全概率公式P(B)=i=1nP(Ai)×P(BAi)P(B)=\sum_{i=1}^n{P(A_i)\times P(B|A_i)}

Bayes定理

P(AiB)=P(Ai)×P(BAi)i=1nP(Ai)×P(BAi)P(A_i|B)=\frac{P(A_i)\times P(B|A_i)}{\sum_{i=1}^n{P(A_i)\times P(B|A_i)}}

知识不确定性的表示

在主观 Bayes 方法中,知识是用产生式表示,其形式为:

IF E THEN (LS,LN) H

其中,LS表示充分性度量,LN表示必要性度量。其数学形式分别为: $$LS=\frac{P(E|H)}{P(E|\neg{H})}$$

LN=1P(EH)1P(E¬H)LN=\frac{1 - P(E|H)}{1-P(E|\neg{H})}

由 LS 和 LN 的形式,引入 几率函数

O(X)=P(X)1P(X)O(X)=\frac{P(X)}{1-P(X)}

则可以证明:

O(HE)=LSO(H)O(H|E)=LS\cdot O(H)

O(H¬E)=LNO(H)O(H|\neg{E})=LN\cdot O(H)

LS 的性质

  • 当 LS > 1 时,O(HE)>O(H)O(H|E)\gt O(H),说明 E 支持 H, LS 越大,E 对 H 的支持越充分。当 LS\to \infty时,O(HE)O(H|E)\to \infty,此时P(HE)1P(H|E)\to 1,表示由于 E 的存在将导致 H 为真。
  • 当 LS = 1 时,O(HE)=O(H)O(H|E)=O(H),说明 E 对 H 没有影响。
  • 当 LS < 1 时,O(HE)<O(H)O(H|E) \lt O(H),说明 E 不支持 H。当 LS = 0 时,O(HE)=0O(H|E) = 0,说明 E 的存在使得 H 为假。

LN 的性质

  • 当 LN > 1 时,O(HE)>O(H)O(H|﹁E)>O(H),说明﹁E 支持 H,即由于 E 的不出现,增大了 H 为真的概率。并且,LN 越大,﹁E 对 H 为真的支持就越强。当 LN→∝时,O(HE)O(H|﹁E)→∝,即P(HE)1P(H|﹁E)→1,表示由于﹁E 的存在将导致 H 为真。
  • 当 LN = 1 时,O(HE)=O(H)O(H|﹁E)=O(H),说明﹁E 对 H 没有影响。
  • 当 LN < 1 时,O(HE)<O(H)O(H|﹁E)<O(H),说明﹁E 不支持 H,即由于﹁E 的存在,使 H 为真的可能性下降,或者说由于 E 不存在,将反对 H 为真。当 LN0→0O(HE)0O(H|﹁E) →0,即 LN 越小,E 的不出现就越反对 H 为真,这说明 H 越需要 E 的出现。当 LN = 0 时,O(HE)=0O(H|﹁E)=0,说明﹁E 的存在(即 E 不存在)将导致 H 为假。

LS 和 LN 的关系
由于EE¬E\neg{E}不会同时支持或同时排斥HH,因此只有下面三种情况存在:

  • LS>1LN<1LS \gt 1 \land LN \lt 1
  • LS<1LN>1LS \lt 1\land LN \gt 1
  • LS=LN=1LS=LN=1

证据不确定性的表示

在主观 Bayes 方法中,基本证据 E 的不精确性是用其概率或几率来表示的。概率与几率之间的关系为:

O(E)=P(E)1P(E)={0当 E 为假时当 E 为真时(0,)当 E 非真也非假时O(E)=\frac{P(E)}{1-P(E)}=\begin{cases}0 & \text{当 } E \text{ 为假时} \\ \infty & \text{当 } E \text{ 为真时} \\ (0, \infty) & \text{当 } E \text{ 非真也非假时}\end{cases}

在实际应用中,除了需要考虑证据 E 的先验概率与先验几率外,往往还需要考虑在当前观察下证据 E 的后验概率或后验几率。
以概率情况为例,对初始证据 E,用户可以根据当前观察 S 将其先验概率 P(E)更改为后验概率 P(E|S),即相当于给出证据 E 的动态强度。
如:机器运转异常(S)-故障原因(E)-故障(H)

组合证据不确定性的计算

证据的基本组合方式只有合取和析取两种
当组合证据是多个单一证据的合取时,如果在当前观察 S 下,每一个单一证据EiE_i有概率P(EiS)P(E_i|S)
那么:

P(ES)=min{P(E1S),...,P(EnS)}P(E|S)=\min\{P(E_1|S),...,P(E_n|S)\}

反之,若组合证据是多个单一证据的析取,那么:

P(ES)=max{P(E1S),...,P(EnS)}P(E|S)=\max\{P(E_1|S),...,P(E_n|S)\}

不确定性的更新

推理任务:根据 E 的概率 P(E)及 LS 和 LN 的值,把 H 的先验概率 P(H)或先验几率 O(H)更新为后验概率或后验几率。
分以下 3 种情况讨论:

  1. 证据肯定为真
  2. 证据肯定为假
  3. 证据既非真又非假

证据肯定为真

O(HE)=LS×O(H)O(H|E)=LS\times O(H)

P(HE)=LSP(H)(LS1)P(H)+1P(H|E)=\frac{LS\cdot P(H)}{(LS-1)\cdot P(H) + 1}

证据肯定为假

O(H¬E)=LN×O(H)O(H|\neg{E})=LN\times O(H)

P(H¬E)=LNP(H)(LN1)P(H)+1P(H|\neg{E})=\frac{LN\cdot P(H)}{(LN-1)\cdot P(H) + 1}

证据既非真又非假

P(HS)=P(HE)×P(ES)+P(H¬E)×P(¬ES)P(H|S)=P(H|E)\times P(E|S) + P(H|\neg{E})\times P(\neg{E}|S)

分情况讨论:

  1. 当 P(E|S) = 1 时,实际上就是证据肯定为真的情况;
  2. 当 P(E|S) = 0 时,实际上就是证据肯定为假的情况;
  3. 当 P(E|S) = P(S)时,说明观察 S 对证据 E 没有影响,则 P(H|S) = P(H)
  4. 当 P(E|S)为其他值时,构造插值公式:
    插值

主观 Bayes 方法的推理模型

结论不确定性的合成
假设有 n 条知识都支持同一结论 H,并且这些知识的前提条件分别是 n 个相互独立的证据 E1、E2、…、En,而每个证据所对应的观察又分别是 S1、S2、…、Sn。在这些观察下,求 H 的后验概率的方法是:首先对每条知识分别求出 H 的后验几率O(HSi)O(H|S_i),然后利用这些后验几率并按下述公式求出在所有观察下 H 的后验几率:

O(HS1,S2,...,Sn)=O(HS1)O(H)×O(HS2)O(H)×...×O(HSn)O(H)×O(H)O(H|S_1,S_2,...,S_n) = \frac{O(H|S_1)}{O(H)}\times \frac{O(H|S_2)}{O(H)}\times ...\times \frac{O(H|S_n)}{O(H)}\times O(H)


主观Bayes方法
http://youngzhang/2025/11/23/主观Bayes方法/
作者
Zhang Young
发布于
2025年11月23日
许可协议