第05讲 反馈网络.

Slides:



Advertisements
Similar presentations
一、 一阶线性微分方程及其解法 二、 一阶线性微分方程的简单应用 三、 小结及作业 §6.2 一阶线性微分方程.
Advertisements

第五节 函数的微分 一、微分的定义 二、微分的几何意义 三、基本初等函数的微分公式与微分运算 法则 四、微分形式不变性 五、微分在近似计算中的应用 六、小结.
2.8 函数的微分 1 微分的定义 2 微分的几何意义 3 微分公式与微分运算法则 4 微分在近似计算中的应用.
第八章 第四节 机动 目录 上页 下页 返回 结束 一个方程所确定的隐函数 及其导数 隐函数的微分法.
一、会求多元复合函数一阶偏导数 多元复合函数的求导公式 学习要求: 二、了解全微分形式的不变性.
2.5 函数的微分 一、问题的提出 二、微分的定义 三、可微的条件 四、微分的几何意义 五、微分的求法 六、小结.
全微分 教学目的:全微分的有关概念和意义 教学重点:全微分的计算和应用 教学难点:全微分应用于近似计算.
§3.4 空间直线的方程.
3.4 空间直线的方程.
圆的一般方程 (x-a)2 +(y-b)2=r2 x2+y2+Dx+Ey+F=0 Ax2+Bxy+Cy2+Dx+Ey+ F=0.
第五章 二次型. 第五章 二次型 知识点1---二次型及其矩阵表示 二次型的基本概念 1. 线性变换与合同矩阵 2.
一、二阶行列式的引入 用消元法解二元线性方程组. 一、二阶行列式的引入 用消元法解二元线性方程组.
第三章 函数逼近 — 最佳平方逼近.
《高等数学》(理学) 常数项级数的概念 袁安锋
恰当方程(全微分方程) 一、概念 二、全微分方程的解法.
第五节 微积分基本公式 、变速直线运动中位置函数与速度 函数的联系 二、积分上限函数及其导数 三、牛顿—莱布尼茨公式.
一、原函数与不定积分 二、不定积分的几何意义 三、基本积分公式及积分法则 四、牛顿—莱布尼兹公式 五、小结
第二节 微积分基本公式 1、问题的提出 2、积分上限函数及其导数 3、牛顿—莱布尼茨公式 4、小结.
数 学 分 析 第九章 定积分 第二节 微积分学基本公式 主讲:师建国.
第四章 函数的积分学 第六节 微积分的基本公式 一、变上限定积分 二、微积分的基本公式.
§5.3 定积分的换元法 和分部积分法 一、 定积分的换元法 二、 定积分的分部积分法 三、 小结、作业.
第5章 定积分及其应用 基本要求 5.1 定积分的概念与性质 5.2 微积分基本公式 5.3 定积分的换元积分法与分部积分法
第三节 格林公式及其应用(2) 一、曲线积分与路径无关的定义 二、曲线积分与路径无关的条件 三、二元函数的全微分的求积 四、小结.
§5 微分及其应用 一、微分的概念 实例:正方形金属薄片受热后面积的改变量..
1.5 场函数的高阶微分运算 1、场函数的三种基本微分运算 标量场的梯度f ,矢量场的散度F 和F 旋度简称 “三度” 运算。
2-7、函数的微分 教学要求 教学要点.
§5 微分及其应用 一、微分的概念 实例:正方形金属薄片受热后面积的改变量..
初中数学 九年级(下册) 5.3 用待定系数法确定二次函数表达式.
第2章 Z变换 Z变换的定义与收敛域 Z反变换 系统的稳定性和H(z) 系统函数.
全国高校数学微课程教学设计竞赛 知识点名称: 导数的定义.
元素替换法 ——行列式按行(列)展开(推论)
计算机数学基础 主讲老师: 邓辉文.
§2 求导法则 2.1 求导数的四则运算法则 下面分三部分加以证明, 并同时给出相应的推论和例题 .
Artificial Neural Networks
第8章 静电场 图为1930年E.O.劳伦斯制成的世界上第一台回旋加速器.
第八模块 复变函数 第二节 复变函数的极限与连续性 一、复变函数的概念 二、复变函数的极限 二、复变函数的连续性.
第4章 非线性规划 4.5 约束最优化方法 2019/4/6 山东大学 软件学院.
第一章 函数与极限.
数列.
Partial Differential Equations §2 Separation of variables
第二十二章 曲面积分 §1 第一型曲面积分 §2 第二型曲面积分 §3 高斯公式与斯托克斯公式.
线段的有关计算.
概 率 统 计 主讲教师 叶宏 山东大学数学院.
Three stability circuits analysis with TINA-TI
线 性 代 数 厦门大学线性代数教学组 2019年4月24日6时8分 / 45.
WPT MRC. WPT MRC 由题目引出的几个问题 1.做MRC-WPT的多了,与其他文章的区别是什么? 2.Charging Control的手段是什么? 3.Power Reigon是什么东西?
复习.
成绩是怎么算出来的? 16级第一学期半期考试成绩 班级 姓名 语文 数学 英语 政治 历史 地理 物理 化学 生物 总分 1 张三1 115
复习: 若A(x1,y1,z1) , B(x2,y2,z2), 则 AB = OB - OA=(x2-x1 , y2-y1 , z2-z1)
正切函数的图象和性质 周期函数定义: 一般地,对于函数 (x),如果存在一个非零常数T,使得当x取定义域内的每一个值时,都有
第16讲 相似矩阵与方阵的对角化 主要内容: 1.相似矩阵 2. 方阵的对角化.
iSIGHT 基本培训 使用 Excel的栅栏问题
§6.7 子空间的直和 一、直和的定义 二、直和的判定 三、多个子空间的直和.
3.1 变化率与导数   3.1.1 变化率问题 3.1.2 导数的概念.
Hopfield神经网络模型与学习算法.
学习任务三 偏导数 结合一元函数的导数学习二元函数的偏导数是非常有用的. 要求了解二元函数的偏导数的定义, 掌握二元函数偏导数的计算.
第一部分:概率 产生随机样本:对分布采样 均匀分布 其他分布 伪随机数 很多统计软件包中都有此工具 如在Matlab中:rand
1.非线性规划模型 2.非线性规划的Matlab形式
第七、八次实验要求.
第15讲 特征值与特征向量的性质 主要内容:特征值与特征向量的性质.
线 性 代 数 厦门大学线性代数教学组 2019年5月12日4时19分 / 45.
第二节 函数的极限 一、函数极限的定义 二、函数极限的性质 三、小结 思考题.
§2 方阵的特征值与特征向量.
基于列存储的RDF数据管理 朱敏
第三章 从概率分布函数的抽样 (Sampling from Probability Distribution Functions)
第三节 数量积 向量积 混合积 一、向量的数量积 二、向量的向量积 三、向量的混合积 四、小结 思考题.
《偏微分方程》第一章 绪论 第一章 绪论 1.1.
§4.5 最大公因式的矩阵求法( Ⅱ ).
§2 自由代数 定义19.7:设X是集合,G是一个T-代数,为X到G的函数,若对每个T-代数A和X到A的函数,都存在唯一的G到A的同态映射,使得=,则称G(更严格的说是(G,))是生成集X上的自由T-代数。X中的元素称为生成元。 A变, 变 变, 也变 对给定的 和A,是唯一的.
第三章 图形的平移与旋转.
Presentation transcript:

第05讲 反馈网络

反馈网络(Recurrent Network),又称自联想记忆网络,其目的是为了设计一个网络,储存一组平衡点,使得当给网络一组初始值时,网络通过自行运行而最终收敛到这个设计的平衡点上。 1982年,美国加州工学院物理学家霍普菲尔德(J.Hopfield)发表了一篇对人工神经网络研究颇有影响的论文。 反馈网络能够表现出非线性动力学系统的动态特性。它所具有的主要特性为以下两点: 第一、网络系统具有若干个稳定状态。当网络从某一初始状态开始运动,网络系统总可以收敛到某一个稳定的平衡状态; 第二,系统稳定的平衡状态可以通过设计网络的权值而被存储到网络中。

在本章中,我们将集中讨论反馈网络,通过网络神经元状态的变迁而最终稳定于平衡状态,得到联想存储或优化计算的结果。 在这里,着重关心的是网络的稳定性问题,研究的重点是怎样得到和利用稳定的反馈网络。 霍普菲尔德网络是单层对称全反馈网络,根据其激活函数的选取不同,可分为离散型的霍普菲尔德网络(Discrete Hopfield Neural Network,简称DHNN)和连续型的霍普菲尔德网络(Continuous Hopfield Neural Network,简称CHNN)。 DHNN的激活函数为二值型的,其输入、输出为{0,1}的反馈网络,主要用于联想记忆。 CHNN的激活函数的输入与输出之间的关系为连续可微的单调上升函数,主要用于优化计算。

7.1 霍普菲尔德网络模型 图7.1 反馈网络结构图

如果其激活函数f(·)是一个二值型的硬函数,如图7.2所示,即ai=sgn(ni),i=l, 2, … r,则称此网络为离散型反馈网络; 在反馈网络中 如果其激活函数f(·)是一个二值型的硬函数,如图7.2所示,即ai=sgn(ni),i=l, 2, … r,则称此网络为离散型反馈网络; 如果ai=f(ni)中的f(·)为一个连续单调上升的有界函数,这类网络被称为连续型反馈网络。图7.3中所示为一个具有饱和线性激活函数,它满足连续单调上升的有界函数的条件,常作为连续型的激活函数。 图7.2 DHNN中的激活函数 图7.3 CHNN中的激活函数

7.2 状态轨迹 设状态矢量N=[n1, n2, …,nr],网络的输出矢量为A=[a1,a2…,as]T , 从初始值N(t0)出发,N(t0+Δt)→N(t0+2Δt)→…→N(t0+mΔt),这些在空间上的点组成的确定轨迹,是演化过程中所有可能状态的集合,我们称这个状态空间为相空间。

图7.4 三维空间中的状态轨迹 对于DHNN,因为N(t)中每个值只可能为±1,或{0,1},对于确定的权值wij,其轨迹是跳跃的阶梯式,如图中A所示。 对于CHNN,因为f(·)是连续的,因而,其轨迹也是连续的。如图中B、C所示。

对于不同的连接权值wij和输入Pj(i, j=1, 2, … r),反馈网络状态轨迹可能出现以下几种情况。 7.2.1 状态轨迹为稳定点 状态轨迹从系统在t0时状态的初值N(t0)开始,经过一定的时间t(t>0)后,到达N(t0+t)。如果N(t0+t+Δt)=N(t0+t),Δt>0,则状态N(t0+t)称为网络的稳定点,或平衡点。 即反馈网络从任一初始态P(0)开始运动,若存在某一有限时刻t,从t以后的网络状态不再发生变化:P(t+Δt)= P(t),Δt>0,则称该网络是稳定的。 处于稳定时的网络状态叫做稳定状态,又称为定吸引子。

在一个反馈网络中,存在很多稳定点,根据不同情况,这些稳定点可以分为: 1)渐近稳定点:如果在稳定点Ne周围的N(σ)区域内,从任一个初始状态N(t0)出发的每个运动,当t→∞时都收敛于Ne,则称Ne为渐近稳定点。 2)不稳定平衡点Nen:在某些特定的轨迹演化过程中,网络能够到达稳定点Nen,但对于其它方向上的任意一个小的区域N(σ),不管N(σ)取多么小,其轨迹在时间t以后总是偏离Nen; 3)网络的解:如果网络最后稳定到设计人员期望的稳定点,且该稳定点又是渐近稳定点,那么这个点称为网络的解; 4)网络的伪稳定点:网络最终稳定到一个渐近稳定点上,但这个稳定点不是网络设计所要求的解,这个稳定点为伪稳定点。

7.2.2 状态轨迹为极限环 如果在某些参数的情况下,状态N(t)的轨迹是一个圆,或一个环,状态N(t)沿着环重复旋转,永不停止,此时的输出A(t)也出现周期变化,即出现振荡,如图7.4中C的轨迹即是极限环出现的情形。 对于DHNN,轨迹变化可能在两种状态下来回跳动,其极限环为2。如果在r种状态下循环变化,称其极限环为r。

7.2.3 混沌现象 如果状态N(t)的轨迹在某个确定的范围内运动,但既不重复,又不能停下来,状态变化为无穷多个,而轨迹也不能发散到无穷远,这种现象称为混沌(chaos)。 在出现混沌的情况下,系统输出变化为无穷多个,并且随时间推移不能趋向稳定,但又不发散。

7.2.4 状态轨迹发散 如果状态N(t)的轨迹随时间一直延伸到无穷远,此时状态发散,系统的输出也发散。 在人工神经网络中,由于输入、输出激活函数上一个有界函数,虽然状态N(t)是发散的,但其输出A(t)还是稳定的,而A(t)的稳定反过来又限制了状态的发散。 一般非线性人工神经网络中发散现象是不会发生的,除非神经元的输入输出激活函数是线性的。

目前的人工神经网络是利用第一种情况即稳定的专门轨迹来解决某些问题的。 如果把系统的稳定点视做一个记忆的话,那么从初始状态朝这个稳定点移动的过程就是寻找该记忆的过程。 状态的初始值可以认为是给定的有关该记忆的部分信息,状态N(t)移动的过程,是从部分信息去寻找全部信息,这就是联想记忆的过程。 如果把系统的稳定点考虑为一个能量函数的极小点,在状态空间中,从初始状态N(t0)=N(t0+t),最后到达N*。若N*为稳定点,则可以看作是N*把N(t0)吸引了过去,在N(t0)时能量比较大,而吸引到N*时能量已为极小了。

根据这个道理,可以把这个能量的极小点作为一个优化目标函数的极小点,把状态变化的过程看成是优化某一个目标函数的过程。 因此反馈网络的状态移动的过程实际上是一种计算联想记忆或优化的过程。它的解并不需要真的去计算,只需要去形成一类反馈神经网络,适当地讨论其权重值wij,使其初始输入A(t0)向稳定吸引子状态的移动就可以达到这个目的。 霍普菲尔德网络是利用稳定吸引子来对信息进行储存的,利用从初始状态到稳定吸引子的运行过程来实现对信息的联想存取的。

通过对神经元之间的权和阈值的设计,要求单层的反馈网络达到下列目标: (1)网络系统能够达到稳定收敛 (2)网络的稳定点 (3)吸引域的设计

7.3 离散型霍普菲尔德网络(DHNN) 7.3.1 DHNN模型结构 其输出类似于MP神经元,可表示为: 在上式中,取b=0,权矩阵中有wij=wji,且取wii=0。即DHNN采用对称联接。 因此,其网络结构可以用一个加权元向量图表示。

由图7.5(a),考虑到DHNN的权值特性wij=wji,网络各节点加权输入和分别为: 图7.5 霍普菲尔德网络图 由图7.5(a),考虑到DHNN的权值特性wij=wji,网络各节点加权输入和分别为:

对于以符号函数为激活函数的网络,网络的方程可写为: 7.3.2 联想记忆 联想记忆功能是DHNN的一个重要应用范围。要想实现联想记忆,反馈网络必须具有两个基本条件: ①网络能收敛到稳定的平衡状态,并以其作为样本的记忆信息; ②具有回忆能力,能够从某一残缺的信息回忆起所属的完整的记忆信息。

DHNN实现联想记忆的过程分为两个阶段:学习记忆阶段和联想回忆阶段。 在学习记忆阶段中,设计者通过某一设计方法确定一组合适的权值,使网络记忆期望的稳定平衡点。 联想回忆阶段则是网络的工作过程。 反馈网络有两种基本的工作方式:串行异步和并行同步方式。 1)串行异步方式: 2)并行同步方式:

在状态更新过程中,包括三种情况:由-1变为1;由1变为-1及状态保持不变。 在任一时刻,网络中只有一个神经元被选择进行状态更新或保持,所以异步状态更新的网络从某一初态开始需经过多次更新状态后才可以达到某种稳态。 这种更新方式的特点是: 实现上容易,每个神经元有自己的状态更新时刻,不需要同步机制; 功能上的串行状态更新可以限制网络的输出状态,避免不同稳态等概率的出现; 异步状态更新更接近实际的生物神经系统的表现。

7.3.3 DHNN的海布(Hebb)学习规则 在DHNN的网络训练过程中,运用的是海布调节规则: 当神经元输入与输出节点的状态相同(即同时兴奋或抑制)时,从第j个到第i个神经元之间的连接强度则增强,否则则减弱。 海布法则是一种无指导的死记式学习算法。

离散型霍普菲尔德网络的学习目的: 对具有q个不同的输入样本组Pr×q=[P1, P2 …Pq],希望通过调节计算有限的权值矩阵W,使得当每一组输入样本Pk,k=1,2,…,q,作为系统的初始值,经过网络的工作运行后,系统能够收敛到各自输入样本矢量本身。 当k=1时,对于第i个神经元,由海布学习规则可得网络权值对输入矢量的学习关系式为: 其中,α>0,i=1,2…,r;j=1,2…,r。在实际学习规则的运用中,一般取α=1或1/r。

那么由(7.2)式求出的权值wij是否能够保证ai=pi? 取α=l,我们来验证一下,对于第i个输出节点,有: 根据海布规则的权值设计方法,当k由1增加到2,直至q时,则是在原有己设计出的权值的基础上,增加一个新量pjkpik,k=2…, q,所以对网络所有输入样本记忆权值的设计公式为: (7.3) 式中矢量T为记忆样本,T=P。上式称为推广的学习调节规则。当系数α=1时,称(7.3)式为T的外积和公式。

DHNN的设计目的是使任意输入矢量经过网络循环最终收敛到网络所记忆的某个样本上。 因为霍普菲尔德网络有wij=wji,所以完整的霍普菲尔德网络权值设计公式应当为: (7.4) 用向量形式表示为: (7.5) 当α=1时有: (7.6) 其中,I为单位对角矩阵。

在神经网络工具箱中有关采用海布公式求解网络权矩阵变化的函数为learnh.m和learnhd.m,后者为带有衰减学习速率的函数: dW=1earnh(P,A,lr); 或 dW=learnhd(W,P,A,lr,dr); 对于简单的情况,lr可以选择1;对于复杂的应用,可取lr=0.1~0.5,dr=lr/3。

7.3.4 影响记忆容量的因素 设计DHNN网络的目的,是希望通过所设计的权值矩阵W储存多个期望模式。 从海布学习公式的推导过程中可以看出:当网络只记忆一个稳定模式时,该模式肯定被网络准确无误地记忆住,即所设计的W值一定能够满足正比于输入和输出矢量的乘积关系。 但当需要记忆的模式增多时,情况则发生了变化,主要表现在下面两点上:

(1)权值移动 当k=1时,有: 此时,网络准确的记住了样本T1,当k=2时,为了记忆样本T2,需要在记忆了样本Tl的权值上加上对样本T2的记忆项T2T2T-I,将权值在原来值的基础上产生了移动。 另一方面,由于在学习样本T2时,权矩阵W是在已学习了T1的基础上进行修正的。此时,因W起始值不再为零,所以由此调整得出的新的W值,对记忆样本T2来说,也未必对所有的s个输出同时满足符号函数的条件,即难以保证网络对T2的精确的记忆。 随着学习样本数k的增加,权值移动现象将进一步发生,当学习了第q个样本Tq后,权值又在前q—1个样本修正的基础上产生了移动,这也是网络在精确的学习了第一个样本后的第q-1次移动。 对已记忆的样本发生遗忘,这种现象成为“疲劳”。

(2)交叉干扰 设输入矢量P维数为r×q,取α=1/r,因为对于DHNN有Pk∈{-1,1},k=1,2,…,q,所以有pik*pjk=pjk*pjk=1。当网络某个矢量Pl,l∈[1,q],作为网络的输入矢量时,可得网络的加权输入和nil为: 上式右边中第一项为期望记忆的样本,而第二项则是当网络学习多个样本时,在回忆阶段即验证该记忆样本时,所产生的相互干扰,称为交叉干扰项。

7.3.5 网络的记忆容量确定 只要满足r>q,则有sgn(Nl)=Pl,保证Pl为网络的稳定解。 DHNN用于联想记忆有两个突出的特点:即记忆是分布式的,而联想是动态的。 DHNN局限性,主要表现在以下几点:①记忆容量的有限性;②伪稳定点的联想与记忆;③当记忆样本较接近时,网络不能始终回忆出正确的记忆等。 另外网络的平衡稳定点并不可以任意设置的,也没有一个通用的方式来事先知道平衡稳定点。 所以真正想利用好霍普菲尔德网络并不是一件容易的事情。

7.3.6DHNN权值设计的其他方法 δ学习规则: (2)伪逆法 W=N×P* (7. 9) 其中P*为P的伪逆,有P*=(PTP)-1PT,如果样本之间是线性无关的,则PTP满秩,其逆存在,则可求出(7.9)式求权矩阵W来。 由于存在求逆等运算,伪逆法较为繁琐,而海布法则要容易求得多。

(3)正交化的权值设计 这一方法的基本思想和出发点是为了满足下面四个要求: 1)保证系统在异步工作时的稳定性; 2)保证所有要求记忆的稳定平衡点都能收敛到自己; 3)使伪稳定点的数目尽可能的少; 4)使稳定点的吸引域尽可能的大。 虽然正交化设计方法的数学设计较为复杂,但与外积和法相比较,所设计出的平衡稳定点能够保证收敛到自己并且有较大的稳定域。更主要的是在MATLAB工具箱中已将此设计方法写进了函数solvehop.m中: [W,b]=solvehop(T);

[例7.1]考虑一个具有两个神经元的霍普菲尔德网络,每个神经元具有两个权值和一个偏差。 网络所要存储的目标平衡点为一个列矢量T: T=[1 -1; -1 1]; [W,b]=solvehop(T); 设计Hopfield网络。 用来进行测试的函数为simuhop.m;

7.4 连续型霍普菲尔德网络 霍普菲尔德网络可以推广到输入和输出都取连续数值的情形。这时网络的基本结构不变,状态输出方程形式上也相同。若定义网络中第i个神经元的输入总和为ni,输出状态为ai,则网络的状态转移方程可写为: 其中神经元的激活函数f为S型的函数(或线性饱和函数): 或

图7.8 连续霍普菲尔德网络激活函数

[例7.2]TSP问题。 所谓TSP(Traveling Salesman Problem)问题,即“旅行商问题”是一个十分有名的难以求解的优化问题,其要求很简单:在n个城市的集合中,找出一条经过每个城市各一次,最终回到起点的最短路径。 如果已知城市A,B,C,D,…,之间的距离为dAB,dBC,dCD…;那么总的距离d=dAB+dBC+dCD+…,对于这种动态规化问题,要去求其min(d)的解。 因为对于n个城市的全排列共有n!种,而TSP并没有限定路径的方向,即为全组合,所以对于固定的城市数n的条件下,其路径总数Sn为Sn=n!/2n (n≥4)

图7. 9 n=4时的TSP路径图 表7. 2 城市数和对应的旅行方案数

采用连续时间的霍普菲尔德网络模型来求解TSP,开辟了一条解决这一问题的新途径。其基本思想是把TSP映射到CHNN上,通过网络状态的动态演化逐步趋向稳态而自动地搜索出优化解。 TSP的解是若干城市的有序排列,任何一个城市在最终路径上的位置可用一个n维的0、1矢量表示,对于所有n个城市,则需要一个n×n维矩阵,例如以5个城市为例,一种可能的排列矩阵为: 该矩阵唯一地确定了一条有效的行程路径: C→A→D→B→E

若用dxy表示从城市x到城市y的距离,则上面路径的总长度为: dxy=dCE+dAD+dDB+dBE TSP的最优解是求长度dxy为最短的一条有效的路径。 (1)目标函数f(V) (2)约束条件g(V) 约束条件要保证关联矩阵的每一行每一列中只有一个值为1,其他值均为零,用三项表示为:

(3)总的能量函数E 选择使用高增益放大器,这样能量函数中的积分分项可以忽略不计,求解得网络的联接权值为: 式中: 外部输入偏置电流为:

求解TSP的连接神经网络模型的运动方程可表示为: 霍普菲尔德和泰克(Tank)经过实验,认为取初始值为:S=Q=P=500,T=200,RC=1,U0=0.02时,其求解10个城市的TSP得到良好的效果。 人们后来发现,用连续霍普菲尔德网络求解像TSP这样约束优化问题时,系统S、Q、P、T的取值对求解过程有很大影响。

7.5 本章小结 设计Hopfield网络的目的是用来存储一些平衡点集,当给定初始状态后,该网络最终能在设计点上平衡。该网络是递归的,其输出反馈为网络的输入。在理想状态下,网络的输出恰好是原始的设计点。 Hopfield网络可以作为误差纠正或向量归类网络。从理论上说,Hopfield网络有意义,但实际上很少使用。因为即使是最好的Hopfield网络,也会有伪平衡点,从而导致错误结果。

7.6 作业: 设计一个三元的霍普菲尔德网络,使网络存储的目标平衡点为: