非線性規劃 Nonlinear Programming

Slides:



Advertisements
Similar presentations
663 Chapter 14 Integral Transform Method Integral transform 可以表示成如下的積分式的 transform  kernel Laplace transform is one of the integral transform 本章討論的 integral.
Advertisements

1.3 二项式定理. [ 题后感悟 ] 方法二较为简单,在展开二项式之前根据二项 式的结构特征进行适当变形,可使展开多项式的过程简化.记 准、记熟二项式 (a + b) n 的展开式,是解答好与二项式定理有关 问题的前提,对较复杂的二项式,有时可先化简再展开,会更 简便.
十五條佛規 後學:張慈幸
大规模机器学习算法GBDT及应用 王志伟(冰逸)
西南科技大学网络教育系列课程 5. 优 化 设 计 5.2 优化方法的数学基础.
完形填空技巧 CET4.
Performance Evaluation
第七章 紋理描述與分類.
§2 无穷积分的性质与收敛判别.
第三章 隨機變數.
重庆大学制造工程研究所副所长 博士 重庆大学制造工程研究所副所长 杨育 博士  2002 Introduction to Operation Research 4 ADAPTING TO OTHER MODEL FORMS Thus far we have presented the details.
XI. Hilbert Huang Transform (HHT)
3-3 Modeling with Systems of DEs
Euler’s method of construction of the Exponential function
-Artificial Neural Network- Adaline & Madaline
Introduction To Mean Shift
期末考的範圍遠遠多於期中考,要了解的定理和觀念也非常多
优化模型 教学目的: 初步认识优化模型的基本形式及掌握线性规划模型的建模及求解。 通过实例建模并求解,熟练掌握一些数学软件的使用。
商用微積分 CH4 導函數的應用.
7.1 兩曲線間的面積 7.2 體積:圓盤法 7.3 體積:圓柱殼法 7.4 弧長和旋轉面
第十六章 賽局理論 Game Theory 作業研究 二版 2009 © 廖慶榮.
模式识别 Pattern Recognition
Differential Equations (DE)
广义相对论课堂5 引力红移/时间膨胀检验和推论
微積分網路教學課程 應用統計學系 周 章.
On Some Fuzzy Optimization Problems
第二十七單元 切平面.
大綱 Labview 環境介紹 數值(Numeric) 布林值(Boolean)與比較(Comparison) 結構(Structure)
期末考的範圍遠遠多於期中考,要了解的定理和觀念也非常多
Continuous Probability Distributions
Ch2 Infinite-horizon and Overlapping- generations Models (无限期与跨期模型)
第五章 剛體運動 當我們不再考慮物體為一質點,而是一有限大小的實體時,以粒子為考量中心所推論出的運動定律將不再足以描述此物體的運動狀態與變化。
電子儀器與量測技術 光譜量測 演講者:楊仲準 中原大學物理系.
Digital Terrain Modeling
第二十九單元 方向導數與梯度.
Course 9 NP Theory序論 An Introduction to the Theory of NP
偏導數 第二十六單元.
Network Planning Algorithms in CATV Networks
数学附录 1 欧氏空间:欧氏空间Rn的每一点有n个分量,它们都是实数;两点x=(x1,…xn)和y=(y1,…,yn)之间的距离为
Fundamentals of Physics 8/e 31 - Alternating Fields and Current
Interval Estimation區間估計
消費者偏好與效用概念.
ZEEV ZEITIN Delft University of Technology, Netherlands
句子成分的省略(1).
網路遊戲版 幸福農場168號.
Chp.4 The Discount Factor
非線性規劃 Nonlinear Programming
CH6 Pairs Selection in Equity Markets
Mechanics Exercise Class Ⅰ
每周三交作业,作业成绩占总成绩的15%; 平时不定期的进行小测验,占总成绩的 15%;
Chp.4 The Discount Factor
線性規劃模式 Linear Programming Models
计算机问题求解 – 论题 算法方法 2016年11月28日.
二次函數的圖形的探討 一次函數與二次函數的定義 一次函數的圖形 二次函數的圖形.
Chp.4 The Discount Factor
Q & A.
Mechanics Exercise Class Ⅱ
函數與極限 函數 函數的圖形 函數的極限 連續函數 在無窮大處的極限 無窮極限 經濟學上的函數 商用微績分 Chapter 1 函數與極限.
虚拟语气(1).
定语从句(11).
动词不定式(6).
補充 數值方法 數值方法.
句子成分的省略(3).
簡單迴歸分析與相關分析 莊文忠 副教授 世新大學行政管理學系 計量分析一(莊文忠副教授) 2019/8/3.
定语从句(4).
第二章 經濟模型.
Principle and application of optical information technology
Computer Architecture
Gaussian Process Ruohua Shi Meeting
Presentation transcript:

非線性規劃 Nonlinear Programming 第十二章 非線性規劃 Nonlinear Programming 作業研究 二版 2009 © 廖慶榮

章節大綱 前言 非線性規劃的應用 極大值與極小值 凸函數與凹函數 非線性規劃的類別 單變數無限制式最佳化 多變數無限制式最佳化 限制式最佳化的KKT條件 作業研究 二版 Ch.12 非線性規劃

12.1 前言 作業研究 二版 Ch.12 非線性規劃

12.2 非線性規劃的應用 範例12.1 銷售量與單位售價、單位成本的關係 銷售量與利潤的關係 作業研究 二版 Ch.12 非線性規劃

範例12.3 /變動人力問題 問題 NLP模式: 每輛貨車由1位司機和1~3位搬運工組成搬運小組 每小組每年賺 100+55(y-1) 萬元(y=搬運工人數) 公司每年支付每位司機70萬元、每位搬運工50萬元,公司每年有800萬的人力費用預算 該搬家公司應聘僱幾位司機以及幾位搬運工,才能獲得最大的利潤? NLP模式: 作業研究 二版 Ch.12 非線性規劃

範例12.4 /倉儲中心位置問題 問題 NLP模式: 倉儲中心應設在何處(x-y座標),才能使由倉儲中心至各分店的總來回距離最短? 作業研究 二版 Ch.12 非線性規劃

範例12.5 /投資組合問題 問題:(1)股票9.8%、(2)債券4.6%、(3)基金5.3% NLP模式: 公司希望在達到每年6.0%的預期收益情況下,盡可能降低投資組合的風險,其風險衡量如下: NLP模式: 作業研究 二版 Ch.12 非線性規劃

12.3 極大值與極小值 /單變數 作業研究 二版 Ch.12 非線性規劃

12.3 極大值與極小值 /單變數 作業研究 二版 Ch.12 非線性規劃

範例12.6 考慮以下函數: 作業研究 二版 Ch.12 非線性規劃

局部極值與全域極值 局部極小值(極大值)與全域極小值(極大值) 作業研究 二版 Ch.12 非線性規劃

多變數 作業研究 二版 Ch.12 非線性規劃

多變數 判斷關鍵點是極小值、極大值或鞍點 利用該點的赫斯矩陣(Hessian matrix): 此為對稱的(symmetric)矩陣 作業研究 二版 Ch.12 非線性規劃

赫斯矩陣定性的判斷方式 作業研究 二版 Ch.12 非線性規劃

判斷多變數的關鍵點 作業研究 二版 Ch.12 非線性規劃

範例12.7 /以赫斯矩陣判斷關鍵點 考慮以下函數: 作業研究 二版 Ch.12 非線性規劃

12.4 凸函數與凹函數 作業研究 二版 Ch.12 非線性規劃

凸函數與凹函數的圖形 嚴格凸的 嚴格凹的 作業研究 二版 Ch.12 非線性規劃

凸函數與凹函數的圖形 凸的 凹的 作業研究 二版 Ch.12 非線性規劃

凸函數與凹函數的圖形 非凸非凹的 若 f 是凸的,則 –f 是凹的 作業研究 二版 Ch.12 非線性規劃

判斷凸函數與凹函數 /單變數 作業研究 二版 Ch.12 非線性規劃

判斷凸函數與凹函數 /多變數 作業研究 二版 Ch.12 非線性規劃

範例12.8 /單變數 作業研究 二版 Ch.12 非線性規劃

範例12.9 /多變數 作業研究 二版 Ch.12 非線性規劃

12.5 非線性規劃的類別 無限制式NLP 線性限制式NLP 二次規劃(quadratic programming) 12.5 非線性規劃的類別 無限制式NLP 僅有目標函數,而無任何限制式 線性限制式NLP 所有限制式都是線性的 二次規劃(quadratic programming) 線性限制式NLP的特例,當f(x)僅能是線性或二次 凸規劃(convex programming) 對min問題,f(x)是凸的;對max問題,f(x)是凹的 對於≦限制式,g(x)是凸的;對於≧限制式,g(x)是凹的;對於=限制式,g(x)是線性的 作業研究 二版 Ch.12 非線性規劃

12.5 非線性規劃的類別 非凸規劃(nonconvex programming) 可分離規劃(separable programming) 12.5 非線性規劃的類別 非凸規劃(nonconvex programming) 不是凸規劃的所有其他NLP 可分離規劃(separable programming) 當f(x)及所有g(x)均為可分離函數 可分離函數 幾何規劃(geometric programming) 若f(x)及所有g(x)均為正多項式,且為min問題 正多項式(posynomial): 分數規劃(fractional programming) f(x)呈分數的形式 作業研究 二版 Ch.12 非線性規劃

12.6 單變數無限制式最佳化 求解方法 一維搜尋法 若f (x) 是一個簡單的函數,則可用11.3節的導數方式求得最佳解 12.6 單變數無限制式最佳化 求解方法 若f (x) 是一個簡單的函數,則可用11.3節的導數方式求得最佳解 若f (x) 較為複雜而無法用導數求解時,須使用一維搜尋法(one dimensional search method)。 一維搜尋法 二分搜尋法 黃金搜尋法 平分搜尋法 若 f (x) 是凸函數,則一維搜尋法所找到的解即為全域極小值,否則所找的解僅是局部極小值 作業研究 二版 Ch.12 非線性規劃

二分搜尋法 二分搜尋法(dichotomous search method) 步驟(對min問題) 作法:將包含最佳解的不確定區間分割為兩部分,然後捨棄較差的部分並繼續分割保留的部分,直到不確定區間達到所指定的容許範 步驟(對min問題) 作業研究 二版 Ch.12 非線性規劃

二分搜尋法的圖示 作業研究 二版 Ch.12 非線性規劃

範例12.10 /二分搜尋法的應用 考慮無限制式NLP: 選擇 、 作業研究 二版 Ch.12 非線性規劃

黃金分割法 黃金分割法(golden section method) 基本概念:如圖所示 作業研究 二版 Ch.12 非線性規劃

黃金分割法 作業研究 二版 Ch.12 非線性規劃

黃金分割法 作業研究 二版 Ch.12 非線性規劃

範例12.11 /黃金分割法的應用 考慮以下 NLP: 設定 作業研究 二版 Ch.12 非線性規劃

平分搜尋法 平分搜尋法(bisection search method) 基本概念 作法 若一個可微分的(differentiable)函數 f(x) 是凸函數或凹函數,則最佳解的必要且充分條件為: 作法 藉由判斷不確定區間中間點(midpoint)之導數的正負號,來決定捨棄左半部或右半部,直到不確定區間達到所選擇的容許範圍為止 作業研究 二版 Ch.12 非線性規劃

平分搜尋法 步驟(f(x) 是可微分的凸函數;對min問題): 作業研究 二版 Ch.12 非線性規劃

範例12.12 /平分搜尋法的應用 考慮以下無限制式的NLP: 作業研究 二版 Ch.12 非線性規劃

12.7 多變數無限制式最佳化 最陡峭遞降法(steepest descent method): 基本概念 12.7 多變數無限制式最佳化 最陡峭遞降法(steepest descent method): 屬斜率搜尋法(gradient search method) 基本概念 沿著能減少 f(x) 值最快的方向移動 因為斜率向量 是指向該函數值增加最快的方向,所以沿著斜率向量的反方向 移動 至於要移動多少,則是一個單變數無限制式最佳化的問題 作業研究 二版 Ch.12 非線性規劃

最陡峭遞降法 作業研究 二版 Ch.12 非線性規劃

範例12.13 /最陡峭遞降法的應用 考慮多變數NLP: 其斜率向量: 選擇 作業研究 二版 Ch.12 非線性規劃

12.8 限制式最佳化的KKT條件 KKT條件(KKT condition) 標準形式: 限制式NLP之最佳解的必要條件 亦為凸規劃最佳解的充分條件 標準形式: 定理12.7:對於標準形式, 為最佳解的必要條件: 存在 使得 作業研究 二版 Ch.12 非線性規劃

範例12.14 /以KKT條件求解最佳解 考慮以下NLP: 轉換為標準形式如下: 作業研究 二版 Ch.12 非線性規劃

範例12.14 此NLP的KKT條件如下: 作業研究 二版 Ch.12 非線性規劃

範例12.14 作業研究 二版 Ch.12 非線性規劃

Example 4 Find the local extreme values of Solution: Using Equation (2) yields 50 X1 - 20 = 0 and 8 X2 + 4 = 0 The corresponding stationary point is x* = (2/5, -1/2). Because f(x) is a quadratic, its Hessian matrix is constant. The determinants of the leading submatrices of H are H1 = 50 and H2 = 400, so f(x) is strictly convex, implying that x* is the global minimum.

Example 5 Find the local extreme values of the nonquadratic function Solution: ▽f(x)=(9x12 –9, 2x2 +4) T =(0, 0) T So x1 = ±1 and x2= -2. Checking x = (1, -2), we have

which is positive definite since vT H(l, -2)v =18 v12 + 2v22 > 0 when v≠0. Thus (1, -2) yields a strong local minimum. Next, consider x = (-1, -2) with Hessian matrix   Now we have vT H(-l, -2)v =-18 v12 + 2v22, which may be less than or equal to 0 when v≠0. Thus, the sufficient condition for (-1, -2) to be either a local minimum or a local maximum is not satisfied. Actually, the second necessary condition (b) in Theorem 1 for either a local minimum or a local maximum is not satisfied. Therefore, x = (1, -2) yields the only local extreme value of f.

Example 6 Find the extreme values of f(x) = -2x12+ 4x1 x2-4x22 + 4x1 + 4x2 +10. Solution: Setting the partial derivatives equal to zero leads to the linear system -4 x1 + 4 x2+ 4 = 0 and 4 x1 -8 x2+ 4 = 0 which yields x* = (3, 2). The Hessian matrix is Evaluating the leading principal determinants of H, we find H1= -4 and H2 = 16. Thus, f(x) is strictly concave and x* is a global maximum.

The gradient of this function is Nonquadratic Forms When the objective function is not quadratic (or linear), the Hessian matrix will depend on the values of the decision variables x. Suppose The gradient of this function is

For the second component of the gradient to be zero , we must have x2= For the second component of the gradient to be zero , we must have x2= . Taking this into account, the first component is zero only when x1= 1, so x* = (1,1) is the sole stationary point. It was previously shown (in Section 9.3) that the Hessian matrix H(x) at this point is positive definite, indicating that it is a local minimum. Because we have not shown that the function is everywhere convex, further arguments are necessary to characterize the point as a global minimum. Logically, f(x)≧0 because each of its two component terms is squared. The fact that f(1,1) = 0 implies that (1,1) is a global minimum.