Download presentation
Presentation is loading. Please wait.
1
欢迎使用本课件 教材简介: 名 称:人工智能原理与应用 作 者:张仰森 出版社:高等教育出版社 章 节:共十章 主讲教师: 宗春梅
2
一个人工智能系统,由于知识本身的不精确和不完全,常采用非标准逻辑意义下的不确定性推理方法和非单调推理方法。对于不确定推理来说,不精确性如何描述以及如何传播是主要问题 。
3
4.1不确定性推理概述 知识库是人工智能系统的核心,而知识库中的知识既有规律性的一般原理,又有大量的不完全的专家经验知识,这样的知识不可避免的带有模糊性、随机性、不可靠或不知道等不确定因素。一般地说,不确定性是来自知识的客观现实和知识的主观认识水平。不确定性是人们思维过程中经常出现的一种心理状态,人们在日常生活中要处理大量的不确定性问题。现实世界上几乎没有什么事情是完全确定的,处理不确定性的目的是希望得到对某一命题的精确判断。
4
4.1不确定性推理概述 4.1.2不确定性推理方法的分类 可信度方法 基于概率的方法方法 主观Bayse方法 数值方法 证据理论方法
模型方法 控制方法 数值方法 非数值方法 启发式搜索 相关性制导回溯 基于概率的方法方法 模糊推理方法 可信度方法 主观Bayse方法 证据理论方法
5
4.1不确定性推理概述 4.1.3不确定性推理中的基本问题 1、不确定性的表示 2、推理计算 3、不确定性的度量
6
以产生式作为知识表示的MYCIN中,第一次使用了不确定性推理方法,给出了以确定性因子或称可信度作为不确定性的度量。
4.2可信度方法 4.2.1可信度的概念 以产生式作为知识表示的MYCIN中,第一次使用了不确定性推理方法,给出了以确定性因子或称可信度作为不确定性的度量。
7
4.2可信度方法 (以下将综合对以上四小节进行讨论) 4.2.2知识不确定性的表示 4.2.3证据不确定性的表示
4.2.4不确定性的推理计算 4.2.5可信度方法应用举例 (以下将综合对以上四小节进行讨论)
8
1.规则的不确定性度量 规则以A→B表示,其中前提A可以是一些命题的合取或析取。MYCIN系统引入可信度CF作为规则不确定性度量。CF表示了增量 P(B│A)-P(B) 相对于P(B)或P(~B)的比值。其中P表概率。规定 规定
9
CF(B,A)表示了证据A为真时,相对于P(~B)=1-P(B)来说A对B为真的支持程度(当CF(B,A)≥ 0)。或相对于P(B)来说A对B为真的不支持程度(当CF(B,A)<0)。这种定义形式保证了-1≤CF(B,A)≤ 1。当P(B│A)-P(B)相同时,P(B)小的CF小,P(B)大的CF大。 容易看出CF(B,A)的几个特殊值: (1) 前提A真,结论B必真的情形。由P(B│A)=1来体现,这时CF(B,A)=1。 (2) 前提A与结论B无关的情形。由P(B│A)=P(B)来体现,这时CF(B,A)=0。 (3) 前提A与结论B无关的情形,由P(B│A)=0来体现,这时CF(B,A)=-1。
10
显然CF(B,A)≥ 0表示前提A真支持B真。CF(B,A)<0表示前提A真不支持B真。 不难看出,CF(B,A)的定义借用了概率,但它本身并不是概率。因为CF(B,A)可取负值,CF(B,A)+CF(B,~A)不必为1甚至可能为0。 实际应用中,A→B的CF(B,A)值是由专家主观确定的,并不是由P(B│A),P(B)来计算的。需注意的是CF(B,A)表示的是增量P(B|A)-P(B)对1-P(B)或P(B)的比值,而不是绝对量的比值。
11
2.证据的不确定性度量 证据A的不确定性也可以CF(A)表示,同样规定-1≤CF(A)≤ 1。 几个特殊值规定为 (1) A肯定为真时CF(A)=1。 (2) A肯定为假时,CF(A)=-1。 (3) 对A一无所知时,CF(A)=0。 CF(A)>0 表示A以CF(A)程度为真。 CF(A)<0 表示A以CF(A)程度为假。 实际使用时,初始证据的CF值由专家提供,其它证据的CF值是需使用规则经推理求得。
12
3.推理计算 (1)已知 CF(A),A→B CF(B,A)求CF(B) 规定 CF(B)=CF(B,A)·max{0,CF(A)} (2)规定 CF(~A)=-CF(A) CF(A1∧ A2)=min{CF(A1),CF(A2)} CF(A1∧ A2)=max{CF(A1),CF(A2)} (3)由规定 →B求得CF(B),又使用规则 →B时,如何更新CF(B)。或说 已知 CF(A1),CF(A2)以及CF(B, A1),CF(B, A2 )来寻求合成的CF(B)。 依(1)先计算出 CF1(B)=CF(B,A1)·max{0,CF(A1 )} CF2(B)=CF(B, A2)·max{0,CF(A2 )}
13
进而规定 CF(B)的更新计算,也可这样来理解。已知CF(A),A→B CF(B,A)而B原来的可信度为CF(B),来求B的可信度更新值CF(B|A)。
14
当CF(A)=1时,有 当CF(A)<1(证据A也是不确定的),这时CF(B|A)必然比CF(A)=1时的CF(B|A)来得小。若CF(A)>0,可以CF(A)·CF(B,A)作为对规则A→B的可信度,而CF(B|A)的计算仍可使用CF(A)=1时的公式。但CF(A)<0时,规则A→B可不使用,像MYCIN系统规定CF(A)≤0.2就认为是不可使用的前提。
15
关于CF(B|A)的计算,对除CF(A),CF(B,A)均非负,以及CF(B),CF(B,A)均为负之外的其它情形,EMYCIN系统使用的是 应指出,若通过引入信任增长度MB和不信任增长度MD来定义CF=MB-MD,并用MB、MD来计算合成的CF值,半群代数结构方可得到保证。而在MYCIN中上述计算CF(B|A)的方法过于简单了,并不能保证CF合成计算的结合律了。
16
4.3主观Bayes方法 以语义网络表示的 PROSPECTOR 系统,采用了主观 Bayes 方法来度量不确定性。引入两个数值(LS,LN)来作度量,LS 表现规则成立的充分性,LN 表现规则成立的必要性,这种表示既考虑了 A 的出现对 B 的支持,又考虑了 A 的不出现对 B 的影响。 4.3.1基本Bayes公式
17
4.3主观Bayes方法 4.3.2主观Bayes方法及其推理网络
18
4.3主观Bayes方法 4.3.3知识不确定性的表示 1. 对规则的不确定性度量 直接使用Bayes 公式来做度量时,在计算P(B|A)时需要已知P(A|B),为避开这个困难,提出了主观Bayes 方法。 对规则A→B的不确定性f(B,A)以(LS,LN)来描述。其中 下面分析一下LS,LN 的意义。 先建立几率函数
19
4.3主观Bayes方法 4.3.3知识不确定性的表示 表示的是证据X的出现概率与不出现概率之比,显然随P(X)的加大O(X)也加大,而且 P(X)=0 时 O(X)=0 P(X)=1 时 O(X)=∞ 这样,取值[0,1]的P(X)放大为取值[0,∞]便得O(X)。 不难验证 O(B|A)=LS·O(B) O(B|~A)=LN·O(B) 由于
20
4.3主观Bayes方法 4.3.3知识不确定性的表示 两者相比得 这就是 O(B|A)=LS·O(B)
相仿地也可得 O(B|~A)=LN·O(B) 由这两个公式可看出,LS表示A真时,对B为真的影响程度,表示规则A→B成立充分性。LN表示A假时,对B为真的影响程度,表示规则A→B成立的必要性。
21
4.3主观Bayes方法 4.3.3知识不确定性的表示 几个特殊值
由LS,LN 的定义知,LS,LN均≥ 0,而且LS,LN不是独立取值的,只能出现LS>1,LN<1或LS<1,LN>1 或LS=LN=1。但不能出现两者同时>1或同时<1。 在实际系统中,LS,LN的值是由专家凭经验给出的,而不是依LS,LN的定义来计算的。
22
4.3主观Bayes方法 4.3.3知识不确定性的表示 由LS,LN 的定义知,LS,LN均≥ 0,而且LS,LN不是独立取值的,只能出现LS>1,LN<1或LS<1,LN>1 或LS=LN=1。但不能出现两者同时>1或同时<1。 在实际系统中,LS,LN的值是由专家凭经验给出的,而不是依LS,LN的定义来计算的。
23
4.3主观Bayes方法 4.3.4证据不确定性的表示 就以O(A)或P(A)表示证据A的不确定性,转换公式是
24
4.3主观Bayes方法 4.3.5不确定性的推理计算 (1)当A确定必出现时,可直接使用 O(B|A)=LS·O(B) O(B|~A)=LN·O(B) 以求得使用规则A→B后,O(B)的更新值O(B/A),O(B/~A)。若需要以概率表示,再由 计算出P(B|A),P(B|~A)。
25
4.3主观Bayes方法 4.3.5不确定性的推理计算 (2)当A是不确定的,即P(A)≠1时,需作如下考虑。 设A‘代表与A有关的所有观察,对规则A→B来说 Duda 1976年给出公式 P(B|A’)=P(B|A)·P(A|A)‘+P(B|~A)·P(~A|A’) 问题是当P(B|A‘),A→B (LS,LN)以及P(B)已知时,如何更新P(B)或说寻求P(B|A’) 。 当P(A|A‘)=1时,证据A必然出现有 不难验证这公式是成立的。
26
4.3主观Bayes方法 4.3.5不确定性的推理计算 (3) P( ∧ |A')=min{P( |A'),P( |A')}
P( ∧ |A')=max{P( |A'),P( |A')} (4) 若 →B, →B而 , 相互独立,对 , 的有关观察分别为 ', '便有
27
4.3主观Bayes方法 4.3.6结论不确定性的合成与更新算法 结论不确定性的合成如下:
28
4.3主观Bayes方法 4.3.6结论不确定性的合成与更新算法 结论不确定性的更新算法如下:
29
4.4证据理论 Dempster 和 Shafer 提出的证据理论,可用来处理不知道所引起的不确定性。采用信任函数而不是概率作为不确定性度量,通过对一些事件的概率加以约束来建立信任函数而不必说明精确的难于获得的概率,当这种约束限制为严格的概率时,证据理论就退化为概率论了。
30
4.4证据理论 1.证据的不确定性度量 若用U表示所有可能的假设集合,而U的元素间是互斥的。对任一A U,命题A表示了某些假设的集合(这样的命题间不再有互斥性)。针对医疗诊断问题, U就是所有可能疾病(假设)的集合,诊断的结果必是U中确定的元素构成的。A表示某一种(单元素)或某些种疾病。医生为了诊断所进行的各种检查就称作证据,有的证据所支持的常不只是一种疾病而是多种疾病,即U的一子集A。
31
4.4证据理论 2、基本概率分配函数 m:2U→[0,1] 满足 m(φ)=0 m(A)=1 m(A)表示了证据对U的子集成立的一种信任的度量,取值于[0,1],而且2U中各元素信任的总和为1,不同于Bayes 方法,因为Bayes 方法仅对U中单个元素赋予一种信任――概率。
32
4.4证据理论 3、信任函数 Bel:2U→[0,1] Bel(A)= m(B) 即命题A的信任函数的值,是A的所有子集的基本概率分配函数会值的和,用来表示对A的总信任。知Bel(φ)=0,Bel(U)=1 ,单元素集上m与Bel是相等的。
33
4.4证据理论 4、似然函数 PI:2U→[0,1] Pl(A)=1-Bel(~A)= m(B) 表示不否定A的信任度,是所有与A相交的子集的基本概率分配函数值的和。 显然有,0 ≤ Bel(A)≤ Pl(A)≤ 1 而Pl(A)-Bel(A)表示了既不信任A也不信任~A的一种度量,可表示对不知道的度量,用区间(Bel (A),Pl(A))来描述A的不确定性。Bel(A)表度量的下限,Pl(A)表度量的上限。实际上m,Bel,Pl只要知其一,必可求得另两个,但三个函数有不同含义。 返回目录
Similar presentations