skriptum operations research - graz university of technologycela/vorlesungen/or/skri... · 2013....

97
Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof. Dragoti-Cela im Wintersemester 2011/2012 von Judith Kloas Institut f¨ ur Optimierung und Diskrete Mathematik Techische Universit¨ at Graz

Upload: others

Post on 01-Jan-2021

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

Skriptum

Operations Research

verfasst nach der Vorlesung von

Frau Prof. Dragoti-Cela

im Wintersemester 2011/2012 von

Judith Kloas

Institut fur Optimierung und Diskrete Mathematik

Techische Universitat Graz

Page 2: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof
Page 3: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

Inhaltsverzeichnis

1 Dynamische Optimierung 31.1 Einfuhrende Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Das endlich-stufige deterministische dynamische

Optimierungsproblem-ESDDOP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3 Das endlich-stufige stochastische dynamische

Optimierungsproblem-ESSDOP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.3.1 Die Optimalitatsgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.3.2 Ein Kontrollmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.4 ESDDOP mit nicht diskretem Zustands- bzw. Aktionenraum . . . . . . . . . . . . . . 211.4.1 Losbarkeit von (D) und Eindeutigkeit der Losung . . . . . . . . . . . . . . . . 22

1.5 Das unendlich-stufige deterministische dynamische Optimierungsproblem . . . . . . . . 241.5.1 Losungsverfahren fur das Problem (U): Wertiteration vs. Politikiteration . . . 27

2 Lagerhaltungsprobleme 292.1 Das grundlegende Lagerhaltungsmodell . . . . . . . . . . . . . . . . . . . . . . . . . . 302.2 Ein deterministisches dynamisches Lagerhaltungsmodell . . . . . . . . . . . . . . . . . 352.3 Ein serielles zweistufiges Lagersystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402.4 Mehrstufige Lagersysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.5 Ein stochastisches Ein-Periodenmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . 492.6 Stochastische stationare Mehrperiodenmodelle . . . . . . . . . . . . . . . . . . . . . . . 542.7 Unendlich-periodische stochastische stationare Lagerhaltungsprobleme . . . . . . . . . 57

3 Multikriterielle Optimierung 603.1 Einleitung und Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603.2 Schwache und strikte pareto-optimale Losungen . . . . . . . . . . . . . . . . . . . . . . 673.3 Eigentliche Pareto-Optimialitat und eigentliche Effizienz . . . . . . . . . . . . . . . . . 683.4 Die Skalarisierungsmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

3.4.1 Die Skalarisierung und die schwache Effizienz . . . . . . . . . . . . . . . . . . . 743.4.2 Die Skalarisierung und die eigentliche Pareto-Optimalitat . . . . . . . . . . . . 76

3.5 Andere Methoden der Pareto-Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . 773.5.1 Die ε-Constraint-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773.5.2 Methode von Benson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 793.5.3 Methode des Compromise Programming (CP) . . . . . . . . . . . . . . . . . . . 82

3.6 Multikriterielle lineare Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 883.6.1 Parametrische lineare Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . 903.6.2 Theorie der MCLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 933.6.3 Ein multikriterieller Simplex-Algorithmus . . . . . . . . . . . . . . . . . . . . . 94

2

Page 4: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

Kapitel 1

Dynamische Optimierung

1.1 Einfuhrende Beispiele

Beispiel (Kurzeste Wegeproblem: Stufengraph). Sei vn(s) die Lange eines kurzesten Wegesvom Knoten s der Stufe n nach L.

A

B

C

D

E

F

G

H

I

J

K

L

2

4 10 20

12

8

14

6

12

10

10

10

10

2

8

410

Stufen: 0 : {A} , 1 : {B,C} , 2 : {D,E, F} , 3 : {G,H, I} , 4 : {J,K} , 5 : {L}

v4(J) = 12

v4(K) = 8

v3(G) = 20 + v4(J) = 32

v3(H) = min {4 + v4(J), 6 + v4(K)} = 14

v3(I) = 2 + v4(K) = 10

v2(D) = min {10 + v3(G), 14 + v3(H)} = 24

v2(E) = 10 + v3(I) = 20

v2(F ) = min {10 + v3(H), 14 + v3(I)} = 24

v1(B) = min {4 + v2(D), 12 + v2(E)} = 28

v1(C) = min {10 + v2(D), 10 + v2(F )} = 34

v0(A) = min {2 + v1(B), 8 + v1(C)} = 30

Kurzester Weg: A-B-D-H-K-L

3

Page 5: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 4

Es handelt sich hier um ein mehrstufiges Optimierungsproblem, bei dem jedes Teilproblemin jeder Stufe separat optimiert werden kann. Die Losung (optimaler Wert) des Gesamtpro-blems setzt sich aus den Losungen (optimalen Werten) der Probleme in den einzelnen Stufenzusammen.

Beispiel (Aufteilungsproblem). Man betrachtet einen Investor mit 30 Geldeinheiten undsucht ein Investitionsmodell, dass den Gesamtgewinn maximiert.

Stufe Projekt Budget Gewinn

0 1 12 71 2 6 42 3 21 103 4 8 5

Stufe i: Entscheidung, ob Projekt i+ 1 erworben wird (i = 0, . . . , 3).Sei vn(s) der maximale Gewinn, der mit den Projekten n + 1, . . . , 4 und Restkapital s zuerzielen ist.

Stufe 3: v3(s) =

{0 s < 8

5 s ≥ 8

Stufe 2: v2(s) =

{v3(s) s < 21

max {10 + v3(s− 21), v3(s)} s ≥ 21

Stufe 1: v1(s) =

{v2(s) s < 6

max {4 + v2(s− 6), v2(s)} s ≥ 6

Stufe 0: v0(s) =

{v1(s) s < 12

max {7 + v1(s− 12), v1(s)} s ≥ 12

s v3(s) v2(s) v1(s) v0(s)

0 ≤ s ≤ 5 0 0 0 06 ≤ s ≤ 7 0 0 4 48 ≤ s ≤ 11 5 5 5 512 ≤ s ≤ 13 5 5 5 714 ≤ s ≤ 17 5 5 9 918 ≤ s ≤ 19 5 5 9 1120 ≤ s ≤ 20 5 5 9 1221 ≤ s ≤ 25 5 10 10 1226 ≤ s ≤ 26 5 10 10 1627 ≤ s ≤ 28 5 10 14 1629 ≤ s ≤ 30 5 5 15 16

Welche Projekte werden ausgefuhrt?v0(30) = max {7 + v1(18), v1(30)} = max {16, 15} = 16v1(18) = max {4 + v2(12), v2(18)} = max {9, 5} = 9v2(12) = v3(12)v3(12) = 5⇒ Fuhre die Projekte 1, 2 und 4 aus.

Page 6: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 5

Beispiel (Stochastische dynamische Optimierung, Stopp-Problem). Ein Hausbesitzer mussein Haus binnen 10 Wochen verkaufen und er inseriert jede Woche in der Zeitung. Jede Wochewird entschieden, ob er verkaufen oder noch abwarten soll. Das Angebot in der Woche n sei xn,xn ∈ S = {300, 350, 400, 450} in Tausend Euro. Des weiteren sei q(xn) die Wahrscheinlichkeit,mit der das Angebot xn gemacht wird.

xn 300 350 400 450

q(xn) 0.2 0.3 0.4 0.1

Vorgangsweise: Akzeptiere ein Angebot xn in Woche n nur dann, wenn der zu erwartendeErlos uber die zukunftigen Wochen niedriger als das vorliegende Angebot ist (oder gleich).Dabei ist vn(s) der maximal zu erwartende Verkaufserlos, wenn in Woche n ein Angebot derHohe s gemacht wird, wobei n = 0, . . . , 10.

v10(s) = 0

v9(s) = s ∀s (auf jeden Fall annehmen)

vn(s) = max

{s,∑s∈S

q(s)vn+1(s)

}0 ≤ n ≤ 9

Daraus ergibt sich die nachstehende Tabelle, wobei Angebote, die akzeptiert werden mit einemStern versehen sind.

300 350 400 450

v9(s) 300* 350* 400* 450*v8(s) 370 370 400* 450*v7(s) 390 390 400* 450*v6(s) 400 400 400* 450*v5(s) 405 405 405 450*v4(s) 409.5 409.5 409.5 450*v3(s) 413.5 413.5 413.5 450*v2(s) 417.2 417.2 417.2 450*v1(s) 420.5 420.5 420.5 450*v0(s) 423.4 423.4 423.4 450*

1.2 Das endlich-stufige deterministische dynamischeOptimierungsproblem-ESDDOP

Definition 1.2.1. Das ESDDOP ist ein Tupel der Form (N,S,A, z, r, vN ), wobei

(i) N ∈ N . . . die Lange des Planungshorizonts (legt Anzahl der Stufen fest),

(ii) S. . . der Zustandsraum, abzahlbare Menge: die nichtleere Teilmenge Si ∈ S stellt dieZustandsmenge der Stufe i dar, S0 = {s0},

(iii) A . . . der Aktionenraum, abzahlbare Menge, sodass An(s) ∈ A, nicht leer und endlich,die Menge der Aktionen/Entscheidungen ist, die in Stufe n bei Zustand s getroffenwerden durfen Dn := {(s, a) ∈ Sn ×A : a ∈ An(s)},

Page 7: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 6

(iv) zn : Dn → Sn+1 . . . die Zustandstransformations-Funktion, ∀s ∈ Sn,∀a ∈ An(s) seiz(s, a) = s′ ∈ Sn+1,

(v) rn : Dn → R . . . die einstufige Gewinnfunktion, ist die Funktion, die den Gewinn rn(s, a)in Zustand s der n-ten Stufe bei Aktion a angibt und

(vi) vN : SN → R . . . die terminale Gewinnfunktion, beschreibt den Gewinn vN (s), der beiZustand s ∈ SN eintritt.

Definition 1.2.2. Eine Strategie (Politik) δ = (a0, . . . , aN−1) ist eine Folge zulassiger Aktio-nen a0 ∈ A0(s0), . . . , aN−1 ∈ AN−1(sN−1), wobei sn+1 = zn(sn, an) ∀n = 0, . . . , N − 1 ist. DieMenge aller Strategien ist ∆. Wir haben dabei das Ziel, diejenige Strategie zu finden, welcheden Gesamtgewinn maximiert.

Notationen. Es werden die folgenden Bezeichnungen verwendet:

• Rδ(s0) =∑N−1

n=0 rn(sn, an) + vN (sN ),

• v0(s0) = max {Rδ(s0) : δ ∈ ∆} und

• fur n = N − 1, . . . , 1 :

vn(sn) = maxan∈An(sN )

{N−1∑t=n

rt(st, at) + vN (sN )

}.

Satz 1.2.3. Optimalitatsgleichung:

(i) Fur n = 0, . . . , N − 1 und fur alle sn ∈ Sn gilt

vn(sn) = maxa∈An(sn)

{rn(sn, a) + vn+1(zn(sn, a))} . (1.1)

(ii) Sei

a∗n ∈ arg maxa∈An(sn)

{rn(sn, a) + vn+1(zn(sn, a))} ∀n = 0, . . . , N − 1,

dann ist δ = (a∗0, . . . , a∗N−1) eine optimale Strategie fur das gegebene ESDDOP.

Beweis: (i): Sei n ∈ {0, . . . N − 1} , sn ∈ Sn. Da An(sn) endlich ist (laut Problemdefinition)existieren die Maxima. Endlich viele Stufen ⇒ N endlich ⇒ es existiert eine optimale Stra-tegie. Sei a∗n, . . . a

∗N−1 eine optimale Strategie, sei s∗n, s

∗n+1, . . . s

∗N die dazugehorige optimale

Zustandsfolge, dann ergibt sich

vn(sn) =N−1∑t=n

rt(s∗t , a∗t ) + vN (s∗N )

= rn(s∗n, a∗n) +

N−1∑t=n+1

rt(s∗t , a∗t ) + vN (s∗N )︸ ︷︷ ︸

=vn+1(sn+1)

≤ rn(s∗n, a∗n) + vn+1(s∗n+1).

Page 8: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 7

Somit ist

vn(sn) ≤ maxa∈An(sn)

{rn(sn, a) + vn+1(zn(sn, a))} .

Sei nun a+n eine Aktion im Zustand s+

n = sn, die die rechte Seite von der Gleichung in 1.1maximiert. Sei a+

n+1, . . . a+N−1 eine optimale Aktionsfolge fur den Anfangszustand s+

n+1 :=zn(s+

n , a+n ). Es gilt

vn(sn) ≥N−1∑t=n

rt(s+t , a

+t ) + vN (s+

N )

= rn(s+n , a

+n ) +

N−1∑t=n+1

rt(s+t , a

+t ) + vN (s+

N )

= rn(s+n , a

+n ) + vn+1(s+

n+1)

= maxa∈An(sn)

{rn(sn, a) + vn+1(zn(sn, a))} .

Insgesamt folgt somit

vn(sn) = maxa∈An(sn)

{rn(sn, a) + vn+1(zn(sn, a))} .

(ii): Summiere die Gleichung aus 1.1 fur n = 0, . . . N − 1 auf und kurze anschließend

N−1∑n=0

vn(sn) =N−1∑n=0

rn(sn, a∗n) +

N−1∑n=0

vn+1(zn(sn, a∗n)︸ ︷︷ ︸

sn+1

)

v0(s0) =N−1∑n=0

rn(sn, a∗n) + vN (sN )

= maxδ∈∆

Rδ(s0)

⇒ a∗0, . . . a∗N−1 optimal.

2

Algorithmus. Wertiteration des ESDDOPInput: Ein ESDDOP (N,S,A, z, r, v).Begin: Setze v′(s) = vN (s) ∀s ∈ SN .

for n = N − 1 downto 0 doSetze v(s) = v′(s) ∀s ∈ Sn+1.∀s ∈ Sn berechne

v′(s) = maxa∈An(s)

{rn(s, a) + v(zn(s, a))} und

f∗n := a∗ ∈ arg maxa∈An(s)

{rn(s, a) + v(zn(s, a))} .

EndSetze v0(s0) = v′(s0).Setze δ∗ = (a∗0, . . . a

∗N−1) mit a∗0 = f∗0 (s0) und a∗n = f∗n(sn) ∀n = 1, . . . N − 1,

wobei sn = zn−1(sn−1, an−1).

Page 9: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 8

Bemerkungen. Fur den Algorithmus gilt folgendes:

• Er benotigt viel Speicher: f∗n(s) muss fur jedes n und s mitgefuhrt werden (aber nur 2Werte fur v).

• Er ist exakt, effizient (fur alle n), abhangig von Maximabildung.

• Das Verfahren funktioniert generell fur seperable Gewinnfunktionen.

Definition 1.2.4. Eine Folge von Wertfunktionen v0, . . . vN heißt seperabel, wenn es Funk-tionen F0, . . . FN−1 gibt, sodass gilt

vn(s) = maxa∈An(s)

{Fn(rn(s, a), vn+1(z(s, a)))} ,

maxx,y

Fn(x, y) = maxx

maxyFn(x, y).

Beispiel. (Subset Sum Problem)Input: N ∈ N, P1, . . . PN ∈ Z+, Y ∈ Z+

Frage: ∃I ⊆ {1, . . . N}, sodass∑

i∈I Pi = Y ?Formuliere Instanz des ESDDOP:

• Horizont der Lange N ,

• Stufen: 1, . . . N ,

• Menge der zulassigen Zustande: S = {0, . . . Y },

• alle zulassigen Zustande fur Stufe n: Sn = S ∀n = 0, . . . N ,

• A = {0, 1} , An(s) =

{{0} s < PN−n+1

{0, 1} s ≥ PN−n+1

,

• Ubergangsfunktionen: zn(s, a) = s− a · PN−n+1,

• einstufige Gewinnfunktion: rn(s, a) =

{1 s = PN−n+1, a = 1

0 sonst,

• terminale Gewinnfunktion: vn(s) = maxa∈An(s) {max {rn(s, a), vn+1(zn(s, a))}}

Behauptung: v1(Y ) =

{1 (Antwort ja fur Subset Sum)

0 (Antwort nein fur Subset Sum)Beweis:

vn(s) =

{1 falls I ⊆ {1, . . . N − n+ 1}mit

∑i∈I Pi = s

0 sonstmit ∑

i∈IPi = s ∀n = 0, . . . N,∀s ∈ S

ist zu zeigen.

vN (s) =

{1 s = P1

0 sonst

Angenommen man will wissen, ob es ein I ⊆ {1, . . . n} gibt mit∑

i∈I Pi = s, dann gibt eszwei Moglichkeiten.

Page 10: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 9

n ∈ I n /∈ I(1) I = {n} ⇒ Pn = s I ⊆ {1, . . . n− 1}

(2) I = {n} ∪ J, J ⊆ {1, . . . n− 1}∑

i∈I Pi = ss =

∑i∈I Pi = Pn +

∑i∈J Pi

⇒∑

i∈I Pi = s− Pn

Betrachte Gleichung fur vn(s):Fall 1:

s < PN−n+1 (kann PN−n+1 nicht nehmen)

An(s) = {0}

vn(s) = max

rn(s, 0)︸ ︷︷ ︸=0

, vn+1(zn(s, 0)︸ ︷︷ ︸=s

)

= vn+1(s)

Fall 2:

s > PN−n+1 (konnte PN−n+1 nehmen)

An(s) = {0, 1}

vn(s) = max

max

rn(s, 0)︸ ︷︷ ︸=0

, vn+1(zn(s, 0)︸ ︷︷ ︸=s

)

,max

rn(s, 1)︸ ︷︷ ︸=0

, vn+1( zn(s, 1)︸ ︷︷ ︸=s−PN−n+1

)

= max{vn+1(s), vn+1(s− PN−n+1)

}Fall 3:

s = PN−n+1 (konnte PN−n+1 nehmen)

An(s) = {0, 1}vn(s) = max

{vn+1(s), 1, vn+1(s− PN−n+1)

}= 1

Bemerkung. Wir haben gesehen, dass man mit dynamischer Optimierung auch Entschei-dungsprobleme losen kann.

1.3 Das endlich-stufige stochastische dynamischeOptimierungsproblem-ESSDOP

Bisher: sn ∈ Sn - Zustand Stufe nan ∈ An(sn) - Aktion in Stufe n⇒ deterministisch, sn+1 = zn(sn, an)

Realistischer: Zustand sn+1 ergibt sich als Realisierung einer Zufallsvariable In, die vonsn und an abhangt. Sei p(sn, an, sn+1) die Wahrscheinlichkeit des Eintretens von Zustandsn+1 in Stufe n+ 1 nach Zustand sn in Stufe n und Aktion an.∑

sn+1∈Sn+1p(sn, an, sn+1) = 1

Page 11: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 10

Definition 1.3.1. Ein endlich-stufiges stochastisches dynamisches Optimierungsproblem istein Tupel (N,S,A, rn, p, vN ), wobei N,S,A, rn, vn wie in ESDDOP und dieUbergangswahrscheinlichkeiten sind wie oben definiert.

Ziel: Maximierung des Gesamtgewinns (Zufallsvariable).

Definition 1.3.2. Eine Funktion fn : Sn → An mit fn(s) ∈ An(s) ∀s ∈ Sn heißt Ent-scheidungsfunktion. Eine Folge (f0, f1, . . . fN−1) von Entscheidungsfunktionen heißt Strategie(Politik). Die Menge aller Strategien sei ∆.

Bemerkung. Hat man s0 ∈ S0, eine Strategie δ = (f0, f1, . . . fN−1) ∈ ∆ und eine Realisie-rung von Zustanden s1, . . . sN in den jeweiligen Stufen gegeben, so ist der Gesamtgewinn

Rs0,δ(s1, . . . sN ) =N−1∑i=0

ri(si, ai) + vN (sN )

Rsn,δ(sn+1, . . . sN ) =N−1∑i=n

ri(si, ai) + vN (sN ). (1.2)

Der Gesamtgewinn Rs0,δ ist eine Zufallsvariable mit den RealisierungenRs0,δ(s1, . . . sN ), ∀(s1, . . . sN ) ∈ S1 × . . .× SN .Mit der Annahme, dass die I1, . . . IN−1 unabhangig sind, folgt fur die Wahrscheinlichkeit derRealisierungen Rs0,δ(s1, . . . sN )

Ps0,δ(I1 = s1, . . . IN = sN ) =: Ps0,δ(s1, . . . sN ) =

N−1∏i=0

pi(si, fi(si), si+1) bzw.

Psn,δ(In+1 = sn+1, . . . IN = sN ) =: Psn,δ(sn+1, . . . sN ) =

N−1∏i=n

pi(si, fi(si), si+1).

Definition 1.3.3. Erwartungswert:

E(Rs0,δ) =∑

s1∈S1,...sN∈SN

Rs0,δ(s1, . . . sN ) · Ps0,δ(s1, . . . sN )

Definition 1.3.4. Die Strategie δ∗ heißt optimal, falls

Rs0,δ∗ := E(Rs0,δ∗) ≥ E(Rs0,δ) ∀δ ∈ ∆.

Maximaler erwarteter Gewinn: v0(s0) := supδ∈∆

{Rs0,δ

}Notationen.

Rsn,δ =∑

sn+1∈Sn+1,...sN∈SN

Rsn,δ(sn+1, . . . sN ) · Psn,δ(sn+1, . . . sN )

=∑

sn+1∈Sn+1

. . .∑

sN∈SN

Rsn,δ(sn+1, . . . sN ) ·N−1∏k=n

p(sk, fk(sk), sk+1)

vn(s) := supδ∈∆

{Rsn,δ

}∀n = 0, . . . N − 1 (1.3)

Page 12: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 11

Es gilt fur alle n = 0, . . . N − 1,∀δ ∈ ∆, ∀sn ∈ Sn, dass

Rsn,δ =∑

sn+1∈Sn+1

. . .∑

sN∈SN

Rsn,δ(sn+1, . . . sN ) · Psn,δ(sn+1, . . . sN )

1.2=

∑sn+1∈Sn+1

. . .∑

sN∈SN

(rn(sn, fn(s)) +

N−1∑i=n+1

ri(si, fi(si)) + vN (sN )) · Psn,δ(sn+1, . . . sN )

=∑

sn+1∈Sn+1

. . .∑

sN∈SN

(rn(sn, fn(s)) +Rsn+1,δ(sn+2, . . . sN )) · Psn,δ(sn+1, . . . sN )

= rn(sn, fn(s)) ·∑

sn+1∈Sn+1

. . .∑

sN∈SN

Psn,δ(sn+1, . . . sN )

︸ ︷︷ ︸=1

+∑

sn+1∈Sn+1

. . .∑

sN∈SN

Rsn+1,δ(sn+2, . . . sN ) · Psn,δ(sn+1, . . . sN )

= rn(sn, fn(s)) +∑

sn+1∈Sn+1

. . .∑

sN∈SN

p(sn, fn(sn), sn+1)Rsn+1,δ(sn+2, . . . sN )

· Psn+1,δ(sn+2, . . . sN )

= rn(sn, fn(s)) +∑

sn+1∈Sn+1

p(sn, fn(sn), sn+1)∑

sn+2∈Sn+2

. . .∑

sN∈SN

Rsn+1,δ(sn+2, . . . sN )

· Psn+1,δ(sn+2, . . . sN )

Rsn,δ = rn(sn, fn(s)) +∑

sn+1∈Sn+1

p(sn, fn(sn), sn+1)Rsn+1,δ. (1.4)

Bemerkung. Falls S endlich ist, existieren alle obigen Erwartungswerte. Ansonsten musstenAnnahmen getroffen werden, z.B. hinreichende Bedingungen fur die Existenz aller Rsn,σ:∃b : S → (0,∞),∃0 < α ∈ R, sodass

| rn(s, fn(s)) | ≤ b(s) ∀(s, fn(s)) ∈ Dn ∀n = 0, 1, . . . , N − 1

| vN (s) | ≤ b(s) ∀s ∈ SN∑s′∈Sn+1

pn(s, fn(s), s′)b(s′) ≤ αb(s) ∀(s, fn(s)) ∈ Dn,∀n = 0, . . . N − 1.

Unter diesen Bedingungen gilt:

| Rs,δ |≤N−n∑i=0

αib(sn) <∞ ∀sn ∈ Sn, ∀n ∈ N, n < N,∀δ ∈ ∆.

Dies kann induktiv mit Hilfe von 1.4 gezeigt werden.

1.3.1 Die Optimalitatsgleichung

Satz 1.3.5. Es gilt:

(i) Fur n = 0, · · ·N − 1 und s ∈ Sn ist

vn(s) = maxa∈An(s)

rn(s, a) +∑

s′∈Sn+1

p(s, a, s′)vn+1(s′)

. (1.5)

Page 13: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 12

(ii) Jede Strategie, die sich aus dem argmax der Gleichung 1.5 ergibt, ist optimal.

Beweis: (i) Sei n = N − 1. Aus 1.3 und 1.4 ergibt sich, dass fur alle s ∈ SN−1 gilt

vN−1(s) = supδ∈∆

{RsN−1=s,δ

}1.4= max

a∈AN−1(s)

rN−1(s, a) +∑s′∈SN

p(s, a, s′)vN (s′)

.

Sei f∗N−1 ∈ arg maxa∈AN−1(s)

{rN−1(s, a) +

∑s′∈SN

p(s, a, s′)vN (s′)}

, dann gilt

vN−1(s) = rN−1(s, f∗N−1(s)) +∑s′∈SN

p(s, f∗N−1(s), s′)vN (s′)

= RsN−1=s,δ∗

fur alle Strategien δ∗ = (f0, · · · fN−2, f∗N−1).

Somit ist auch (ii) fur n = N − 1 gezeigt. Sei nun n = N − 2. Aus 1.3 und 1.4 folgt

vN−2(s) = supδ∈∆

{RsN−2=s,δ

}1.4= sup

δ∈∆

rN−2(s, fN−2(s)) +∑

s′∈SN−1

p(s, fN−2(s), s′)RsN−1=s′,δ

≤ sup

δ∈∆

rN−2(s, fN−2(s)) +∑

s′∈SN−1

p(s, fN−2(s), s′)vN−1(s′)

= max

a∈An−2(s)

rN−2(s, a) +∑

s′∈SN−1

p(s, a, s′)vN−1(s′)

,

und dies geht induktiv weiter. Somit folgt insgesamt

vn(s) ≤ maxa∈An(s)

rn(s, a) +∑

s′∈Sn+1

p(s, a, s′)vn+1(s′)

. (1.6)

Sei

f∗N−2 ∈ arg maxa∈An−2(s)

rN−2(s, a) +∑

s′∈SN−1

p(s, a, s′)vN−1(s′)

,

dann gilt

vN−2(s) ≤ rN−2(s, f∗N−2(s)) +∑

s′∈SN−1

p(s, f∗N−2(s), s′)vN−1(s′)

= RsN−2=s,δ∗ ∀δ∗ = (f0, · · · fN−3, f∗N−2, f

∗N−1). (1.7)

Page 14: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 13

Aus 1.3, 1.4 und 1.7 folgt

vN−2(s)1.3= sup

δ∈∆

{RsN−2=s,δ

}≥ RsN−2=s,δ∗

1.7=rN−2(s, f∗N−2(s)) +

∑s′∈SN−1

p(s, f∗N−2(s), s′)vN−1(s′)

= maxa∈AN−2(s)

rN−2(s, a) +∑

s′∈SN−1

p(s, a, s′)vN−1(s′)

,

also

vn(s) ≥ maxa∈An(s)

rn(s, a) +∑

s′∈Sn+1

p(s, a, s′)vn+1(s′)

. (1.8)

Aus 1.7 und 1.8 ergibt sich die gewunschte Gleichheit.(ii) Als optimal partielle Strategie gilt jedes δ ∈ ∆ mit δ = (f0, . . . f

∗N−2, f

∗N−1) (induktiv

ruckwarts bis Stufe 0).

2

Der folgende Algorithmus, der sogenannre Werteiteration-Algorithmus zur Losung des ESS-DOP beruht auf der obigen Optimalitatsgleichung.

Algorithmus. Wertiteration fur das ESSDOPInput: Ein ESSDOP (N,S,A, p, rn, fn, vN ).Begin: Setze v′(s) = vN (s) ∀s ∈ SN .

for n = N − 1 downto 0 doSetze v(s) = v′(s) ∀s ∈ Sn+1,∀s ∈ Sn berechne

v′(s) = maxa∈An(s)

rn(s, a) +∑

s′∈Sn+1

p(s, a, s′)v(s′)

und bestimme

f∗n(s) ∈ arg maxa∈An(s)

rn(s, a) +∑

s′∈Sn+1

p(s, a, s′)v(s′)

.

EndSetze v0(s0) = v′(s0), δ = (f∗0 , f

∗1 , . . . f

∗N−1).

Output: Optimaler erwarteter Gewinn v0(s0), optimale Strategie δ∗.

Falls die Zustandsmengen Sn, n = 0, 1, . . . , N , und die Mengen An(s) der im Zustand s derStufe n moglichen Entscheidungen, fur alle n = 0, 1, . . . , N − 1 und alle s ∈ Sn endlich sind,dann kann man das ESSDOP auch als lineares Optimierungsproblem formulieren.

Page 15: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 14

Losung des dynamischen Optimierungsproblems als lineares Programm

minN∑n=0

∑s∈Sn

wn,s (1.9)

s.t. wn,s −∑

s′∈Sn+1

pn(s, a, s′)wn+1,s′ ≥ rn(s, a) ∀n = 0, . . . N − 1,∀a ∈ An(s),∀s ∈ Sn

wN,s ≥ vN (s) ∀s ∈ SN

Behauptung: Der optimale Wert von 1.9 ist der durch den Algorithmus errechnete optimaleGewinn.

Beweis: Annahme: Die Behauptung gilt nicht.Sei w∗n,s die optimale Losung von 1.9 , seien vn(s) mit s ∈ Sn die vom Algorithmus berechne-ten Werte und sei k ∈ {0, 1, . . . N} der großte Index, sodass vk(s) 6= wk,s.Beobachtung: vn(s) mit n ∈ {0, . . . N − 1} und s ∈ Sn ist zulassig fur 1.9. Es gilt

vn(s) = maxa∈An(s)

rn(s, a) +∑

s′∈Sn+1

p(s, a, s′)vn+1(s′)

⇒ vn(s) ≥ rn(s, a) +

∑s′∈Sn+1

p(s, a, s′)vn+1(s′) ⇒ 1.Restiktion erfullt

und die 2. Restriktion ist auch erfullt. Weiters gilt

w∗k,s ≥ rk(s, a) +∑

s′∈Sn+1

p(s, a, s′)w∗k+1,s′

= rk(s, a) +∑

s′∈Sn+1

p(s, a, s′)vk+1(s′) ∀a ∈ Ak(s),∀s ∈ Sn.

Dies gilt auch fur a = a∗ = f∗k (s) ⇒ w∗k,s ≥ vk(s) und mit der Annahme uber k folgtw∗k,s > vk(s).∀l = 0, . . . k − 1 kann man daher induktiv zeigen, dass

w∗l,s ≥ rl(s, a) +∑

s′∈Sl+1

p(s, a, s′) w∗l+1,s︸ ︷︷ ︸≥vl+1(s)

∀a ∈ Al(s).

Dies gilt auch fur al = a∗l = f∗l (s)

⇒ w∗l,s ≥ rl(s, a∗l ) +∑

s′∈Sl+1

p(s, a∗l , s′)vl+1(s) = vl(s).

Eingesetzt in die Zielfunktion liefert vn(s), n ∈ {0, . . . N} ,∀s ∈ Sn einen besseren Wert alsdie Optimallosung w∗n,s ⇒ Widerspruch!

2

Optimale Strategie: ∀n ∈ {0, . . . N − 1} ,∀s ∈ Sn ∃a ∈ An(s), sodass die dazugehorigeRestriktion mit Gleichheit erfullt ist. Werde dieses a mit a∗n(s) =: f∗n(s) bezeichnet, so bildet(f∗0 , . . . f

∗N−1) die optimale Strategie.

Page 16: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 15

1.3.2 Ein Kontrollmodell

Oft ist eine exogene Zufallsvariable mitbestimmend fur die optimale Strategie bzw. den opti-malen Gewinn (Kosten) eines ESSDOP (z.B. die Nachfrage bei einem Lagerhaltungsproblem).Seien Y0, . . . YN−1 exogene, unabhangige Zufallsvariablen mit Verteilungsdichten

qn(x) = P (Yn = x) ∀x ∈ Xn

und sei

sn+1 = gn(sn, a, xn) ∈ Sn+1 und

gn :Dn ×Xn → Sn+1.

Input: (N,S,A,X , q, g, r, vN ) mit N,S,A, r, vN wie beim Basismodell und

• X . . . Wertebereich der exogenen Variablen Y0, . . . YN−1 (abzahlbar), Xi,⊆ X ist dernichtleere Wertebereiche von Yi, i =, 1, . . . , N − 1 ,

• qn : Xn → [0, 1]. . . die Verteilungsdichte von Yn,n = 0, 1, . . . N − 1,

• gn : Dn ×Xn → Sn+1 . . . die Ubergangsfunktion.

Durch

pn(s, a, s′) =∑

x∈Xn:g(s,a,x)=s′

qn(x) ∀s ∈ Sn,∀a ∈ An(s), ∀s′ ∈ Sn+1

ergibt sich folgende Optimalitatsgleichung:

vn(s) = maxa∈An(s)

{rn(s, a) +

∑x∈Xn

qn(x)vn+1(g(s, a, x))

}∀n = 0, . . . N − 1.

Als nachstes betrachten wir Beispiele von Kontrollmodellen, in denen die optimale Strategiegewisse Struktureigenschaften aufweist.

Beispiel. Ein Hausbesitzer verkauft sein Haus. Zu den Zeitpunkten n = 0, . . . N − 1 erhalter ein Angebot der Hohe xn, wobei xn als Realisierung einer Zufallsvariable Yn mit Wertenzwischen 0 und M aufgefasst wird. Y0, . . . YN−1 sind iid mit P (Yn = x) = q(x) ∀x = 0, . . .M ,∀n = 0, 1, . . . , N − 1. Falls ein Angebot abgelehnt wird, entstehen Kosten c.Kontrollproblem:

• N . . . Entscheidungshorizont,

• S = Sn = {0, . . .M} ∪ {∞} , n = 0, . . . N − 1 . . . Menge der Angebote, bzw. Verkaufbereits getatigt,

• A = An(s) = {0, 1} . . . Ablehnung/Annahme, fur s =∞ sind die Aktionen bedeutungs-los,

• X = Xn = {0, . . .M},

Page 17: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 16

• qn(x) = q(x) ∀x ∈ X , ∀n = 0, 1, . . . , N − 1,

• gn(s, a, x) =

{x s ≤M,a = 0 lehne ab

∞ s =∞∨ a = 1 nehme an,

• r(s, a) =

−c s ≤M ∧ a = 0 lehne ab

s s ≤M ∧ a = 1 nehme an

0 sonst hab schon Gewinn gemacht

• vN (s) = 0 ∀s ∈ S, vn(∞) = 0 ∀n ≤ N (schon verkauft)

⇒ Optimalitatsgleichung

vn(s) = max

{s,−c+

M∑x=0

q(x)vn+1(x)

}

Sei s∗n = −c+∑M

x=0 q(x)vn+1(x) ∀n = 0, . . . N , dann ist

f∗n(s) =

{1 s ≥ s∗n0 s < s∗n

die optimale Entscheidungsfunktion. Diese optimale Strategie bestatigt die Intuition: Eingutes Angebot wird angenommen, ein schlechtes nicht. s∗n prasentiert, was gut bzw. schlechtheißt.

Satz 1.3.6. Die Schwellen s∗0, s∗1, . . . s

∗N−1 lassen sich rekursiv berechnen

s∗n =

{−c n = N − 1

−c+∑M

x=0 q(x) max{x, s∗n+1

}0 ≤ n < N − 1

und es gilt s∗0 ≥ s∗1 ≥ . . . s∗N−1.

Beweis: Mit vollstandiger Induktion von N − 1 bis 0 beweisen wir

vn(s) = max {s, s∗n} ∀n = 0, . . . N − 1, ∀s = 0, . . .M.

Da vN (s) = 0 ∀s, gilt vN−1(s) = max {s,−c} = max{s, s∗N−1

}∀s = 0, . . .M .

Annahme: vn+1(s) = max{s, s∗n+1

}Aus der Optimalitatsgleichung folgt

vn(s) = max

{s,−c+

M∑x=0

q(x) max{x, s∗n+1

}}= max {s, s∗n} ,

wobei

s∗n = −c+M∑x=0

max{x, s∗n+1

}.

Page 18: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 17

Monotonie:Basis: s∗N−2 ≥ s∗N−1, da

s∗N−1 = −c ≤ −c+

M∑x=0

q(x) max {x,−c}︸ ︷︷ ︸≥0

.

Unter der Annahme, dass s∗n+1 ≥ s∗n+2 folgt

s∗n = −c+M∑x=0

q(x) max{x, s∗n+1

}≥ −c+

M∑x=0

q(x) max{x, s∗n+2

}= s∗n+1.

2

Beispiel. (Stopp-Problem) Ein Investor hat die Option zum Kauf einer Aktie um Preis c.Das Optionsrecht kann zu den Zeitpunkten n = 0, . . . N−1 ausgeubt werden. Der Borsenkursder Aktie zum Zeitpunkt n ist

In = S0 + Y0 + Y1 + . . . Yn−1,

wobei Y0, . . . Yn−1 iid-verteilt sind mit diskreter Verteilungsdichte

P (Yi = x) = q(x) ∀x ∈ Z, i = 0, . . . N − 1.

Gesucht: Ausubungsstrategie, die den erwarteten Gewinn maximiert.Kontrollmodell:

• N ∈ N (n = 0, . . . N − 1) . . . Planungshorizont,

• Zustand ≡ Borsenkurs der Aktie, S = Sn = Z∪{∞} (letzteres entspricht der Situation,dass das Optionsrecht bereits ausgeubt wurde),

• A = An(s) = {0, 1} = (Nichtausubung, Ausubung),

• X = Xn = Z ∀n = 0, . . . N − 1,

• qn(x) = q(x) ∀n = 0, . . . N − 1,

• gn(s, a, x) =

{s+ x s <∞, a = 0 Nichtausubung

0 s =∞∨ a = 1 Ausubung oder bereits ausgeubt,

• rn(s, a) =

{s− c s <∞, a = 1 Ausubung, Gewinn

0 s =∞∨ a = 0 Nichtausubung oder bereits ausgeubt,

• vN (s) = 0 ∀s ∈ S

Page 19: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 18

Optimalitatsgleichung:

vn(s) = max {s− c, Jn(s)} (maximal erwarteter Gewinn),

wobei

Jn(s) =∑x∈Z

q(x)vn+1(s+ x).

der erwartete zukunftige Gewinn bei Nichtausubung und s−c der erzielte Gewinn bei Ausubungist.

Satz 1.3.7. Fur alle n < N und alle s ∈ Z gilt

(i) 0 ≤ Jn(s+ 1)− Jn(s) ≤ 1 (Gewinne steigen langsamer als die Preise) und

(ii) 0 ≤ vn(s+ 1)− vn(s) ≤ 1 (”There is no free lunch”).

Beweis: Vollstandige Induktion von n+ 1 auf n:Basis: Da vN (s) = 0 ∀s ist, gilt JN−1(s) = 0 ∀s.

vN−1(s) = max {s− c, JN−1(s)} = s− c ∀s ∈ S

Somit erfullen JN−1 und vN−1 die gewunschten Gleichungen.Annahme: Jn+1 und vn+1 erfullen (i) bzw. (ii)Zu zeigen: Jn, vn erfullen (i) bzw. (ii)Es gilt

0 ≤ Jn(s+ 1)− Jn(s)

=∑,x∈Z

q(x)(vn+1(s+ 1− x)− vn+1(s− x))

≤ 1 ·∑x∈Z

q(x) = 1

⇒ (i)√

vn(s+ 1)− vn(s) = max {s+ 1− c, Jn(s+ 1)} −max {s− c, Jn(s)} .

Fallunterscheidung uber die Annahme des Maximums:

• Zwei triviale Falle:a) Maximum wird bei s+ 1− c und s− c angenommen: 0 ≤ s+ 1− c− (s− c) = 1 undb) Maximum wird bei Jn(s+ 1) und Jn(s) angenommen: 0 ≤ Jn(s+ 1)− Jn(s) ≤ 1.

• Nichttriviale Falle: a) Maximum wird bei s+ 1− c und Jn(s) angenommen:

vn(s+ 1)− vn(s) = s+ 1− c− Jn(s) ≤ s+ 1− c− (s− c) = 1

und b) Maximum wird bei Jn(s+ 1) und s− c angenommen:

vn(s+ 1)− vn(s) = Jn(s+ 1)− (s− c) ≤ Jn(s+ 1)− Jn(s) ≤ 1

Analog zeigen wir, dass 0 ≤ vn(s+ 1)− vn(s):

a)vn(s+ 1)− vn(s) = s+ 1− c− Jn(s) ≥ Jn(s+ 1)− Jn(s) ≥ 0

b)vn(s+ 1)− vn(s) = Jn(s+ 1)− (s− c) ≥ s+ 1− c− (s− c) = 1 ≥ 0

Page 20: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 19

⇒ (ii)√

2

Bemerkung. Aus diesem Satz folgt, dass die erwarteten (zukunftigen) Gewinne langsamerals der Preis s steigen. Sei Mn := {s ∈ Sn | s− c ≥ Jn(s)}, dann gilt

s∗n = minMn und δ∗ = (f∗0 , . . . f∗N−1)

ist die optimale Strategie, wobei f∗n(s) =

{1 s ≥ s∗n0 s < s∗n

, das heißt es wird nur ausgeubt, wenn

der Preis s den Wert s∗n erreicht oder ubersteigt.

Beispiel. Ersetzungsmodell

• Zustand der Maschine s ∈ {0, . . .M} ,M ∈ N,

• Maschine wird zum Zeitpunkt n = 0, . . . N − 1 inspiziert, dabei fallt die Entscheidung :ersetze oder nicht,

• der Preis einer neuen Maschine sei K,

• Betriebskosten c(zn), zn . . . Zustand der Maschine unmittelbar nach der Entscheidung,

• zn = sn(1− an) (sn Zustand unmittelbar vor der Entscheidung),

• q(zn, sn+1). . . Wahrscheinlichkeit, dass der Zustand der Maschine sich von zn auf sn+1

verandert (Verschleiß)

Optimalitatsgleichung:

vn(s) = max

−c(s) +M∑s′=0

q(s, s′)vn+1(s′)︸ ︷︷ ︸nicht ersetzen

,−K − c(0) +M∑s′=0

q(0, s′)vn+1(s′)︸ ︷︷ ︸ersetzen

Die minimalen erwarteten Gesamtkosten ausgehend vom Zustand n im Zeitpunkt n sindGn(s) = −vn(s).

Gn(s) = min {Yn(s),K + Yn(0)} , wobei

Yn(s) :=

M∑s′=0

q(s, s′)Gn+1(s′).

Es ist

−vn(s) = −max

{−c(s) +

M∑s′=0

q(s, s′)vn+1(s′),−K − c(0) +M∑s′=0

q(0, s′)vn+1(s′)

}

= min

{c(s)−

M∑s′=0

q(s, s′)vn+1(s′),K + c(0)−M∑s′=0

q(0, s′)vn+1(s′)

}.

Annahmen:

Page 21: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 20

(A1) c(s) ≤ c(s + 1) ∀s = 0, . . .M − 1 entspricht hoheren Betriebskosten bei einer alterenMaschine.

(A2) vN (s) ≥ vN (s + 1) entspricht dem Restwert der Maschine in Zustand s (= terminalerGewinn).

(A3)∑M

s′=i q(s, s′) ≤

∑Ms′=i q(s+ 1, s′) ∀s = 0, . . .M − 1,∀i = 0, . . .M .

Lemma 1.3.8. Sei v : {0, . . .M} → R monoton wachsend. Wenn (A3) erfullt ist, dann gilt

M∑s′=0

q(s, s′)v(s′) ≤M∑s′=0

q(s+ 1, s′)v(s′).

Beweis:

M∑s′=0

q(s, s′)v(s′) =

M∑s′=0

q(s, s′)v(0) +

M∑s′=1

q(s, s′)(v(1)− v(0))

+

M∑s′=2

q(s, s′)(v(2)− v(1)) + . . .+

M∑s′=M

q(s, s′)(v(M)− v(M − 1))

= v(0) +

M∑s′=1

(v(s′)− v(s′ − 1))

M∑s′′=s′

q(s, s′′)

A3≤v(0) +

M∑s′=1

(v(s′)− v(s′ − 1))

M∑s′′=s′

q(s+ 1, s′′)

= . . .

=

M∑s′=0

q(s+ 1, s′)v(s′)

2

Satz 1.3.9. Seien die Annahmen (A1)-(A3) erfullt,dann gilt ∀n = 0, . . . N − 1,∀s = 0, . . .M − 1

(i) Yn(s) ≤ Yn(s+ 1) und

(ii) Gn(s) ≤ Gn(s+ 1).

Beweis: Vollstandige Induktion von n+ 1→ n:

Page 22: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 21

Basis: Aus GN = −vN , aus (A1) und (A2) und dem vorhergehenden Lemma folgt

YN−1(s) := c(s) +M∑s′=0

q(s, s′)GN (s′)

= c(s)−M∑s′=0

q(s, s′)vN (s′)

≤ c(s+ 1)−M∑s′=0

q(s+ 1, s′)vN (s′) (Lemma, (A1))

= YN−1(s+ 1) ∀s,GN−1(s) = min {YN−1(s),K + YN−1(0)}

≤ min {YN−1(s+ 1),K + YN−1(0)} (wegen (i))

= GN−1(s+ 1).

Annahme: (i) und (ii) gelten fur Yn+1 und Gn+1.Zu zeigen: (i) und (ii) gelten auch fur Yn und Gn.

Yn(s) = c(s)−M∑s′=0

q(s, s′)vn+1(s′)

≤ c(s+ 1)−M∑s′=0

q(s+ 1, s′)vn+1(s′)

= Yn(s+ 1)

Gn(s) = min {Yn(s), k + Yn(0)}≤ min {Yn(s+ 1), k + Yn(0)}= Gn(s+ 1) ∀s

2

Mn := {s ∈ {0, . . .M} | Yn(s) ≥ K + Yn(0)} ∀n = 0, . . . N − 1

S∗n :=

{minMn Mn 6= ∅∞ Mn = ∅

Die optimale Strategie δ∗ = (f∗0 , . . . f∗N−1) erfullt f∗n(s) =

{1 s ≥ s∗n0 s < s∗n

.

1.4 ESDDOP mit nicht diskretem Zustands- bzw. Aktionen-raum

Situation: S ⊆ Rm Zustandsraum, Sn ⊆ Rm ∀n = 0, . . . N − 1,A ⊆ Rr, An(sn) ⊆ Rr∀n = 0, . . . N − 1,

Page 23: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 22

s =

s1

··sm

, a =

a1

··ar

Anfangszustand: s0 ∈ RmEinstufige Gewinne: rn : Dn → R : (s, a)→ rn(s, a), Dn = {(s, a) | s ∈ Sn, a ∈ An(s)}Zustandstransformationsfunktion: zn : Dn → R : (s, a)→ zn(s, a) ∈ Sn+1

Terminaler Gewinn: vN : SN → R

(D) : maxN−1∑n=0

rn(sn, an + vN (sN ))

s.t. sn+1 = zn(sn, a) (sn, a) ∈ Dn ∀n = 0, . . . N − 1

s0 ∈ S, a ∈ An(sn) ∀n = 0, . . . N − 1

1.4.1 Losbarkeit von (D) und Eindeutigkeit der Losung

Satz 1.4.1. Wenn die folgenden Bedingungen erfullt sind, dann besitzt (D) eine optimaleLosung.

(D1) Das Problem (D) besitzt mindestens eine zulassige Losung,

(D2) ∀n = 0, . . . N − 1 sind rn und zn stetig auf Dn,

(D3) Sn ist abgeschlossen fur n = 0, . . . N − 1,

(D4) An(sn) ist kompakt ∀sn ∈ Sn und

(D5) die Abbildungen An : Sn → R+ : sn 7→ An(sn) sind stetig im Sinne der Hausdorff-Metrik.

Bemerkung. Hausdorff-Metrik: A,B ∈ Rr : d(A,B) = sup {supa∈A d(a,B), supb∈B d(b, A)},mit d(a,B) = infb∈B d(a, b)

Beweis: Sei

G :=N−1∑n=0

rn(sn, an),

G : M → R,

wobei M ⊆ R(m+r)N die Menge der zulassigen Losungen von (D) ist. Da die rn alle stetigsind, folgt G ist stetig auf M . Wenn M kompakt ist, dann sind wir fertig. Wir zeigen daher,dass M abgeschlossen und beschrankt ist.Sei S+

n die Menge der erreichbaren Zustande mit

S+n = {sn ∈ Sn | ∃sn−1 ∈ Sn−1 ∧ ∃a ∈ An−1(sn−1), sn = zn−1(sn−1, a)}S+

0 = {s0}D+n =

{(s, a) | s ∈ S+

n , a ∈ An(s)}∀n = 0, . . . N − 1.

Page 24: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 23

Wir beobachten M ⊆ D+0 ×D

+1 × . . .×D

+N−1, {s0, a0, s1, a1, . . . sN−1, aN−1} ∈M .

1.) Beschranktheit von M :Wir zeigen D+

n kompakt ⇒ D+n beschrankt ⇒M beschrankt:

Wir zeigen induktiv die Kompaktheit von Sn und somit auch von Dn.Induktion uber n:n = 0 : S+

0 = {s0} kompakt ⇒ D+0 kompakt

Sei nun S+n kompakt. Zu zeigen ist, dass S+

n+1 kompakt ist.

S+n+1 =

⋃s∈S+

n

zn(s,An(s))

D+n =

{(s, a) | s ∈ S+

n , a ∈ An(s)}

D+n abgeschlossen: Sei ((sk, ak))k∈N eine Folge in D+

n mit

limk→∞

(sk, ak) = (s, a)

⇒ limk→∞

sk = s ∧ S+n kompakt

⇒ s ∈ S+n .

∀k ∈ N : ak ∈ An(sk) und fur An Hausdorff-stetig folgt

a = limk→∞

ak ∈ limk→∞

An(sk) = An(s)

und somit (s, a) ∈ D+n .

D+n beschrankt:

D+n =

⋃s∈S+

n

({s} ×An(s)) ⊆ S+n︸︷︷︸

beschrankt, weil kompakt

× An(S+n )︸ ︷︷ ︸

beschrankt, weil An Hausdorff-stetig undS+n kompakt

Kompaktheit von S+n+1:

S+n+1 =

{z(s, a) | (s, a) ∈ D+

n

}= zn(D+

n )

ist kompakt, weil D+n kompakt und zn stetig ist

⇒M beschrankt. (Daraus folgt wieder die Kompaktheit von D+n+1 usw.)

2.) Abgeschlossenheit von M:

(s(k)0 a

(k)0 , . . . s

(k)N−1a

(k)N−1) ∈M ∀k ∈ N

Dies strebt fur k →∞ gegen (s0a0, . . . sN−1aN−1).Zu zeigen ist, dass dieser Grenzwert auch in M liegt.Es ist

a(k)0 ∈ A0(s

(k)0 ), . . . a

(k)N−1 ∈ AN−1(s

(k)N−1) ∀k ∈ N.

Da An Hausdorff-stetig fur alle n = 0, . . . N − 1 und s(k)n ∈ S+

n kompakt ist, folgt

a0 ∈ A0(s0), . . . aN−1 ∈ AN−1(sN−1)

⇒ (s0a0, . . . sN−1aN−1) ∈M

⇒M ist kompakt ⇒ Maximum wird angenommen.

Page 25: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 24

2

Notationen. Es sei vn der optimale Gewinn eines Prozesses, der in Stufe n startet und

ϕ : Dn → R,ϕn(s, a) := rn(s, a) + vn+1(zn(s, a))

vn(s) = maxa∈An(s)

ϕn(s, a).

Satz 1.4.2. Unter den Voraussetzungen (D1)-(D5) sind ϕn und vn stetig auf Dn bzw.Sn ∀n = 0, . . . N − 1.

Satz 1.4.3. Sei zusatzlich zu (D1)-(D5) auch die Konvexitat von Sn und An(sn) gegeben∀n = 0, . . . N − 1 und seien weiters die rn (streng) konvex und zn linear auf Dn, dann sindϕn und vn (streng) konvex ∀n = 0, . . . N − 1.

Satz 1.4.4. Unter den Voraussetzungen vom vorhergehenden Satz mit der strengen Konve-xitat besitzt (D) genau eine optimale Losung und die Funktionen

fn(s) = arg maxa∈An(s)

ϕn(s, a)

sind eindeutig und stetig.

1.5 Das unendlich-stufige deterministische dynamische Opti-mierungsproblem

Situation: Die Perioden seien abzahlbar unendlich, die Einteilung des Planungshorizonts seiso, dass die problemdefinierenden Großen innerhalb jeder Periode konstant bleiben.Annahmen:

1) zn = z, rn = r, Sn = S,An(s) = A(s) ∀n ∈ N, ∀s ∈ S,

2) Diskontierungsfaktor α = 11+p ∈ (0, 1), p . . . Zinssatz,

3) kein terminaler Gewinn vorhanden

(U) max

∞∑n=0

αnr(sn, an)

s.t. sn+1 = z(sn, an) ∀n ∈ Nsn ∈ S, s0 ∈ S ∀n ∈ Nan ∈ A(sn) ∀n ∈ N

Es seien folgende Voraussetzungen erfullt:

(U1) S ⊆ Rm, S 6= ∅, S ist abgeschlossen, (U1) . . . kompakt,

(U2) ∀s ∈ S : A(s) 6= ∅, kompakt und A : S → ϕ(Rr) : s 7→ A(s) ist Hausdorff-stetig, wobeiϕ(Rn) die Menge der kompakten Teilmengen von Rr ist,

Page 26: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 25

(U3) z ist stetig auf D = {(s, a) | s ∈ S, a ∈ A(s)},

(U4) r ist stetig und beschrankt auf D und

(U5) ∀s ∈ S ∃a ∈ A(s) : z(s, a) ∈ S (garantiert Existenz einer zulassigen Losung von (U)).

Anmerkung: Aus (U4) folgt ∃d′ = inf(s,a)∈D r(s, a), d′′ = sup(s,a)∈D r(s, a) :

∞∑n=0

d′αn ≤∞∑n=0

r(s, a)αn ≤∞∑n=0

d′′αn

⇒ d′

1− α≤∞∑n=0

r(s, a)αn ≤ d′′

1− α.

Notationen. Betrachte das endlich-stufige Problem mit n = 0, . . . N − 1 und

rn(s, a) = αnr(s, a) ∀(s, a) ∈ D.

Seien v∗n die Losungen der Optimalitatsgleichung

vn(s) = maxa∈An(s)

{rn(s, a) + vn+1(z(s, a))} n = 0, . . . N − 1. (1.10)

Betrachte Perioden j, j + 1 . . . n als Perioden 0, . . . n− j eines n− j + 1-stufigen Problems P ,das in Periode j startet.Sei v∗j (s) der maximale Gewinn mit Anfangszustand s.

Es gilt

v∗j (s) = αj v∗j (s) ∀j ∈ N.

Setze dies in 1.10 ein und erhalte damit

αj v∗j (s) = maxa∈An(s)

{αjr(s, a) + αj+1vj+1(z)

}/ : αj

v∗j (s) = maxa∈An(s)

{r(s, a) + αvj+1(z)} ∀j ∈ N (1.11)

v∗n(s) = 0.

Setze v∗j+1(s) :=∞ ∀s ∈ Rm \ S. Aufgrund von (U4) und (U5) gilt

−∞ < v∗j (s) <∞ ∀s ∈ S.

Sei χ∗j = v∗n−j+1 ein Problem, das bei Stufe n − j + 1 startet und in Stufe n endet (j =0, . . . N − 1). χ∗0(s) = v∗n(s) und χj(s) ist der maximale Gewinn eines j-stufigen Problems mitAnfangszustand s ∀s ∈ S,∀j ∈ N. Setze χ∗j in 1.11 ein und erhalte somit

χ∗j (s) = maxa∈A(s)

{r(s, a) + αχ∗j−1(z(s, a))

}∀j = 0, . . . n,∀n ∈ N(⇔ j ∈ N). (1.12)

Sei

ϕ∗j : D+ → R : (s, a) 7→ r(s, a) + αχ∗j−1(z(s, a)) ∀j ∈ N,D+ = {(s, a) | s ∈ S, a ∈ A(s), z(a, s) ∈ S}

Page 27: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 26

mit χ∗0(s) = 0 ∀s ∈ S.Somit gilt

χ∗j (s) = maxa∈A(s)

ϕ∗j (s, a).

Annahme o.B.d.A.: r(s, a) ≤ 0, sonst r′ = r− d′′ und die Gesamtkosten des unendlichen Pro-blems mit r′ sind nun

∑∞j=0 α

jd′′ = d′′

1−α kleiner als die Gesamtkosten des ursprunglichen Pro-

blems. Da d′′

1−α konstant und unabhangig von der Politik ist, sind beide Probleme aquivalent.

Satz 1.5.1. Unter den Voraussetzungen (U1)-(U5) und mit der obigen Annahme existierenFunktionen χ∗ = limj→∞ χ

∗j und ϕ∗ = limj→∞ ϕ

∗j und sind stetig auf S bzw. D+. χ∗j und ϕ∗j

konvergieren gleichmaßig gegen χ∗ bzw. ϕ∗ auf S bzw. D+ (ohne Beweis).

Vorgehensweise: Bilde den Limes auf beiden Seiten von 1.12 und erhalte

χ∗(s) = maxa∈A(s)

{r(s, a) + αχ∗(z(s, a))} Bellman’sche Funktionalgleichung, (1.13)

wobei χ∗ der optimale Gewinn des unendlich-stufigen Problems ist.

Satz 1.5.2. Unter den Voraussetzungen (U1)-(U5) und der obigen Annahme besitzt dieBellman’sche Funktionalgleichung

w(s) = maxa∈A(s)

{r(s, a) + αw(z(s, a))} (1.14)

nur eine beschrankte Losung.

Notationen.

f∗j ∈ arg maxa∈A(s)

{ϕ∗j (s, a)

}∀s ∈ S, ∀j ∈ N

f∗(s) ∈ arg maxa∈A(s)

{r(s, a) + αχ∗(z(s, a))} ∀s ∈ S (optimale Politik)

Bemerkung. Im Allgemeinen sind f∗j und f∗ nicht eindeutig.

Satz 1.5.3. Unter den Voraussetzungen (U1)-(U5) und der obigen Annahme ist jeder Haufungspunktder Folge f∗j (s) gleich dem Funktionswert einer optimalen Politik f∗ des unendlich-stufigenProblems (U) ∀s ∈ S.

Hat beispielsweise f∗j (s0) 2 Haufungspunkte a, b, dann existieren f∗1 , f∗2 als Optimallosungen/Politik

von (U), sodass f∗1 (s0) = a, f∗2 (s0) = b.

Bemerkung. Analog wie bei endlichstufigen Problemen gilt wenn D konvex, z auf D strengkonvex und r linear ist, dann sind f∗j und f∗ eindeutig. In diesem Fall gilt limj→∞ f

∗j (s) =

f∗(s) ∀s ∈ S0.

Page 28: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 27

1.5.1 Losungsverfahren fur das Problem (U): Wertiteration vs. Politikite-ration

Wertiteration: Konstruiere Folgen χ∗j und f∗j mittels sukzessiver Auswertung der Funktio-nalgleichung 1.14. Lose beginnend mit χ∗0(s) = 0 ∀s ∈ S

χ∗1(s) = maxa∈A(s)

{r(s, a) + α · 0}

f∗1 (s) ∈ arg maxa∈A(s)

{r(s, a)}

χ∗2(s) = maxa∈A(s)

{r(s, a) + αχ1(z(s, a))}

f∗2 (s) ∈ arg maxa∈A(s)

{r(s, a) + αχ1(z(s, a))}

. . .

und die weiteren j ∈ N bis ein Stoppkriterium∣∣∣∣∣χ∗j (s)− χ∗j−1(s)

χ∗j−1(s)

∣∣∣∣∣ < ε

fur ein vorgegebenes ε > 0 erfullt ist.Setze χ∗ = χ∗j , f

∗ = f∗j fur das letzte j.

Politikiteration: Fur alle s setze f+1 (s) ∈ arg maxa∈A(s) r(s, a). Sei χ+

1 eine Losung fol-gender Funktionalgleichung

χ1(s) = r(s, f+1 (s)) + αχ1(z(s, f+

1 (s)))

und sei ϕ+j : D+ → R, sodass

ϕ+j (s, a) = r(s, a) + αχ+

j−1(z(s, a)) ∀2 ≤ j ∈ N

mit χ+0 (s) = 0 ∀s.

Sei

f+j (s) ∈ arg max

a∈A(s)ϕ+j (s, a), (1.15)

dann bestimme eine Losung χ+j der Funktionalgleichung

χj(s) = r(s, f+j (s)) + αχj(z(s, f

+j (s))) (1.16)

solange bis ein Stoppkriterium ∣∣∣∣∣χ+j (s)− χ+

j−1(s)

χ+j−1(s)

∣∣∣∣∣ < ε

fur ein vorgegebenes ε > 0 erfullt ist.

Page 29: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 1. DYNAMISCHE OPTIMIERUNG 28

Bemerkung. Wir tun so als ob f+j (s) die beste Politik ware. Es ist eine Approximation.

Satz 1.5.4. Unter den Voraussetzungen (U1)-(U5) und der obigen Annahme hat die Funktio-nalgleichung 1.16 genau eine beschrankte Losung χ∗j fur jede gemaß 1.15 festgelegte Funktion

f+j ∀j ∈ N.

Satz 1.5.5. Mit den gleichen Voraussetzungen wie im vorhergehenden Satz und erfulltenAnnahmen konvergiert die Folge der (eindeutigen) beschrankten χ+

j gleichmaßig gegen χ∗,wobei χ∗ die eindeutig beschrankte Losung von (U) ist. Weiters ist jeder Haufungpunkt derFolge f+

j (s) der Wert einer optimalen Politik f∗ an der Stelle s ∀s ∈ S.

Vergleich:

• Die Wertiteration ist leichter umsetzbar als die Politikiteration. Bei der Politikiterationmuss in jeder Iteration eine im Allgemeinen nicht triviale Funktionalgleichung gelostwerden.

• Wenn f+j = f+

j+1 fur j ∈ N, dann sind die Folgen f+i und χ+

i , i ≥ j konstant. Deroptimale Gewinn liegt vor

χ∗ = limi→∞

χ+i = χ+

j .

• Die Politikiteration ist sinnvoll, falls eine gute bekannte Politik verbessert werden soll.

• Wertiteration:

χ∗j → χ∗ =

∞∑j=0

αjr(s, f∗j (s))

Die Konvergenzgeschwindigkeit hangt von α ab.Politikiteration: Die Konvergenzgeschwindigkeit ist i.A. unabhangig von α, daher ist essinnvoll fur α ≈ 1 die Politikiteration zu wahlen (entspricht einem niedrigen Zinssatz p,denn α = 1

1+p).

Page 30: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

Kapitel 2

Lagerhaltungsprobleme

Funktion: Ein Lager dient zur Entkopplung der Bedarfserfullung (Verkauf) von dem Produktions-bzw. Bestellungsprozess.

Typen: Ein-Produkt-Lager, Mehr-Produkt-Lager, Just-in-time-Systeme (moglichst kleinesLager), Multi-echelon-systems (Lager bekommt halbfertige Produkte und muss noch Produk-tionsschritte durchfuhren), Supply-chain-management, Material-replanishment-planing

Wir betrachten Ein-Produkt-Lager und treffen die folgenden Annahmen:

• das Produkt wird nur an einem Standort gelagert und hat kein Ablaufdatum,

• die Nachfrage ist konstant uber die Zeit,

• es sind keine Fehlmengen erlaubt,

• das Lager produziert nicht selbst, es existiert nur ein vordefinierter Lieferant,

• es gibt keine Mengenrabatte,

• es existiert keine Lieferzeit,

• der Planungshorizont ist unendlich,

• alle Parameter des Modells sind konstant im Zeitablauf (stationar),

• die Bestellgroße ist konstant uber die Zeit und

• man hat folgende Kosten:

– Lagerungskosten h pro Produkt- und Zeiteinheit,

– fixe Bestellkosten K pro Bestellung, unabhangig von der bestellten Menge und

– variable Bestellkosten c pro Produkteinheit.

Frage: Wann und wie viel soll bestellt werden?

29

Page 31: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 30

2.1 Das grundlegende Lagerhaltungsmodell

Bemerkung. Es wird auch als Sagezahnmodell bezeichnet und im Englischen redet man vomEconomic Order Quality Modell (EOQ).

T 2T 3T

Lagerbestand

Zeit

Q

L = Q− rt im Intervall [0, T ] (Lagerbestand) Q . . . Bestellmenger . . . Lagerabgangsrate (konstant, dadurch ist die Nachfrage beschrieben)T = Q

r . . . Zykluslange

Aufgabe: Bestimme Q (bzw. T ), sodass die Gesamtkosten pro Zeiteinheit minimiert wer-den!

Lagerhaltungskosten:h. . . Kosten fur das Lagern einer Produkteinheit uber eine ZeiteinheitQ2 . . . mittlerer Lagerbestand im Laufe eines Zyklus

hQ2 . . . mittlere Lagerungskosten je Zeiteinheit

hQ2 T = hQ2

2r . . . Lagerungskosten pro ZyklusBestellkosten uber einen Zyklus:

Kδ(Q) + cQ

mit δ(Q) als IndikatorfunktionGesamtkosten pro Zyklus:

Kδ(Q) + cQ+hQ2

2r

Gesamtkosten pro Zeiteinheit:

C(Q) =Kδ(Q)

Qr

+cQQr

+hQ2

2rQr

=Krδ(Q)

Q+ cr +

hQ

2

Minimum bestimmen:

C(Q)′ = −KrQ2

+h

2= 0⇔ Q∗ =

√2Kr

h(2.1)

C(Q)′′ =2Kr

Q3> 0

Page 32: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 31

⇒ Minimum eindeutig, optimale LosgroßeOptimale Zykluslange:

T ∗ =Q∗

r=

√2K

hr(2.2)

Minimale Kosten je Zeiteinheit:

C(Q∗) =Kr√

2Krh

+ cr +h

2

√2Kr

h

=

√hKr

2+ cr +

√hKr

2

= 2

√hKr

2+ cr

=√

2hKr + cr

Beobachtung: Q∗ und T ∗ hangen nicht von den variablen Bestellkosten c ab.

1. Erweiterung des Modells: Fehlmengen sind erlaubt.

• p. . . Fehlmengenkosten pro Produkt- und Zeiteinheit,

• S und s (s < 0) . . . sind die Lagerbestande zu Beginn bzw. am Ende eines Zyklus,

• S. . . Lagerbestand unmittelbar nach Eintreffen einer Bestellung,

• s. . . Lagerbestand unmittelbar vor Eintreffen einer Bestellung,

• Q. . . Bestellmenge (Losgroße),

• s = S −Q (maximale Fehlmenge)

S

sT 2T 3T

Zeit

Lagerbestand

L = S − rt im Intervall [0, T ]

Aufgabe: Q,S bestimmen, sodass die Gesamtkosten je Zeiteinheit minimal sind.

Lagerungskosten in [0, T ]: fallen in [0, Sr ] an

• mittlerer Lagerbestand: S2 ,

Page 33: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 32

• mittlere Lagerungskosten je Zeiteinheit: hS2 ,

• Lagerungskosten je Zyklus: hS2Sr = hS2

2r

Fehlmengen im Zyklus [0, T ]: fallen in [Sr , T = Qr ] an (Intervalllange Q−S

r )

• mittlere Fehlmenge: s2 = S−Q

2 < 0,

• mittlere Fehlmengenkosten je Zeiteinheit: pQ−S2 ,

• Fehlmengenkosten je Zyklus: pQ−S2Q−Sr = p(Q−S)2

2r

Bestellkosten:

Kδ(Q) + cQ

Gesamtkosten je Zyklus:

Kδ(Q) + cQ+hS2

2r+p(Q− S)2

2r

Gesamtkosten je Zeiteinheit:

C(Q,S) =Kδ(Q)r

Q+ cr +

hS2

2Q+p(Q− S)2

2Q

Minimum bestimmen:

∂C

∂Q=−2rK + p(Q2 − S2)− hS2

2Q2= 0

∂C

∂S=hS − p(Q− S)

Q= 0

Die Hessematrix ist positiv definit und wir erhalten wie gewunscht ein Minimum. Es werdenfolgende optimale Großen angenommen:

S∗ =

√2rK

h·√

p

p+ hoptimaler hochster Lagerbestand

Q∗ =h+ p

pS =

√2rK

√h+ p

poptimale Losgroße

s∗ = S∗ −Q∗

=

√2rK

(√p

p+ h−

√h+ p

p

)

=

√2rK

(p− (p+ h)√p(p+ h)

)

=

√2rKh

p(p+ h)

=

√2rK

p·√

1− p

p+ hoptimale negative Fehlmenge

T ∗ =Q∗

r=

√2K

hr·

√h+ p

poptimale Zykluslange

Page 34: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 33

Minimale Kosten je Zeiteinheit:

C∗ = C(Q∗, S∗) = rc+√

2rKh ·√

p

p+ h

Beobachtung:

• S∗/rQ∗/r = S∗

Q∗ = pp+h ist unabhangig von K und c.

• Fur p→∞ erhalt man die Losung eines Basismodells ohne Fehlmengen.

• Die optimale Losung ist eine sogenannte (s, S)-Politik mit Bestellpunkt s (Hohe desLagerbestands, zu der eine Bestellung abgegeben wird) und Bestellgrenze S (bis zuwelcher Grenze wird Lager gefullt).

2. Erweiterung des Modells: Lieferzeiten vorhandenHier gibt es eine Lieferzeitkonstante λ.Fallunterscheidung:

1.) λ < T ∗: Wahle den Bestellzeitpunkt so, dass die Bestellung zum Bestellpunkt eintrifft.Bestellzeitpunkte: T ∗ − λ, 2T ∗ − λ, . . .,

2.) λ ≥ T ∗ : l := b λT ∗ c ⇒ λ = lT ∗ +R, 0 ≤ R < T ∗

Bestellzeitpunkte: T ∗ − λ, 2T ∗ − λ, . . .⇒ T ∗ −R, 2T ∗ −R, . . .

3. Erweiterung: Lager produziert selbst mit konstanter Produktionsrate ρ > 0

• wenn ρ > r, dann sind Fehlmengen nicht erlaubt,

• die Anlaufzeit fur die Produktion sei gleich 0,

• Q. . . ist der maximale Lagerbestand,

• Q. . . produzierte Menge je Zyklus

T T

Lagerbestand

Zeit

Q

1

Es gilt

L =

{t(ρ− r) 0 ≤ t ≤ T1(produziere und verkaufe)

−tr +Q T1 ≤ t ≤ T (verkaufe nur)T1 =

Q

ρ− r

Q = ρT1 = Tr

⇒ T1 =Tr

ρ=Q

ρ.

Page 35: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 34

Mittlerer Lagerbestand je Zyklus:

Q

2=

(ρ− r)T1

2=

(ρ− r)Q2ρ

Mittlere Lagerungskosten je Zeiteinheit:

h(ρ− r)Q

Lagerungskosten je Zyklus:

h(ρ− r)Q

2ρT = h

(ρ− r)Q2ρ

Q

r

= h(ρ− r)Q2

2rρ

Produktionskosten je Zyklus: K + cQGesamtkosten je Zyklus:

K + cQ+ h(ρ− r)Q2

2rρ

Gesamtkosten je Zeiteinheit:

C(Q) =Kr

Q+ cr +

h(ρ− r)Q2ρ

Bemerkung. Das ist das Minimierungsproblem des grundlegenden Lagerhaltungsproblems(EOQ) mit hEOQ = hρ−rρ .

Daraus folgen die nachstehende optimalen Großen:

Q∗ =

√2rK

h(1− rρ)

T ∗ =

√2K

h(1− rρ)r

C∗ =

√2rh

(1− r

ρ

)K + cr.

4. Erweiterung: Mengenrabatte.

• variable Produktionskosten abhangig von Q, es ist fur 0 < c′′ < c′

c(Q) =

{c′ 0 ≤ Q < Q

c′′ Q ≥ Q,

• keine Fehlmengen, keine Anlaufzeit

Page 36: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 35

Gesamtkosten je Zeiteinheit:

C(Q) =rK

Q+ rc(Q) +

hQ

2

C1(Q) =rK

Q+ rc′ +

hQ

2

C2(Q) =rK

Q+ rc′′ +

hQ

2

Sei Q+ die minimale Stelle von C1(Q) und C2(Q). Dann ist fur

1.) Q > Q+ : Q∗ =

{Q+ C1(Q+) ≤ C2(Q)

Q sonstund

2.) Q ≤ Q+ : Q∗ = Q+.

Q Q_

+ Q

C (Q)

C (Q)

1

2

QQ_

+ Q

C (Q)

C (Q)

1

2

2.2 Ein deterministisches dynamisches Lagerhaltungsmodell

Annahmen:

• endlicher Zeithorizont, Perioden 1, . . . n,

• Nachfrage je Periode rj bekannt im Voraus j = 1, . . . n,

• fixe Bestellkosten K konstant im gesamten Zeithorizont,

• Stuckpreise c pro Produkteinheit, konstant in der Zeit,

• Lagerhaltungskosten h pro Zeit- und Mengeneinheit konstant in der Zeit,

• Bestellmenge uj , j = 1, . . . n

Gesucht: Bestellpolitik, die die Gesamtkosten minimiert.

Es gilt o.B.d.A. folgendes

• rj > 0 ∀j = 1, . . . n, wenn ein rk = 0, dann lege 2 Perioden zusammen.

Page 37: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 36

• Der Bedarf wird sofort nach der Bestellung zu Beginn der Periode erfullt. Die Lager-haltungskosten werden bzgl. des Lagerbestands am Ende der Periode berechnet. (zuBeginn x0, bestelle u1, Abgang −r1 und habe dann x1 am Ende von der 1. Periode bzw.am Anfang der 2. Periode (vor Bestellung) usw.)

• x0 = xn = 0

Es ist

xj = xj−1 + uj − rj ∀j = 1, . . . n Lagerhaltungsgleichung. (2.3)

Die variablen Bestellkosten c∑n

j=1 rj sind unabhangig von der Bestellpolitik und daher furdie Optimierung irrelevant. Sie werden daher fur die Bestimmung der optimalen Losung ver-nachlassigt.Die minimalen Kosten des Problems fur die Perioden 1, . . . j sind C∗j (xj), wobei xj der La-gerbestand am Ende von Periode j ist. Es ergibt sich

C∗j (xj) = min0≤uj≤xj+rj

δ(uj)K + hxj + C∗j−1( xj−1︸︷︷︸=xj−uj+rj

)

∀j = 1, . . . n, (2.4)

wobei C0(x) =

{0 x = 0

∞ x < 0und C∗j (x) =∞ ∀x < 0.

Bemerkung. Die Grenzen fur uj beim Minimum sind aus 2.3 zu folgern. Das Problem wirdmit Wertiteration gelost.

Lemma 2.2.1. Sei x∗, u∗ eine optimale Losung des obigen Problems, dann gilt fur alle j =1, . . . n, dass

x∗j−1 = 0 ∧ u∗j > 0 oder x∗j−1 > 0 ∧ u∗j = 0.

Beweis: Annahme: Es existieren optimale Losungen x∗, u∗ und j0 ∈ [1, . . . n] mit x∗j0−1 >0 ∧ u∗j0 > 0. Sei

x+j0−1 = 0

u+j0

= u∗j0 + x∗j0−1 ≥ u∗j0 > 0

x+j0

= x+j0−1 + u+

j0− rj0

= 0 + u+j0− rj0

= x∗j0−1 + u∗j0 − rj0 = x∗j0 .

Die neue Losung sieht ab j0 wie folgt aus

. . . x+j0−1 = 0, u+

j0, x+

j0= x∗j0 , u

+j0+1 = u∗j0+1, . . .

Sei P (j0) ein (j0−1)-stufiges Problem mit gleichem Input wie das ursprungliche Problem undsei xj0−1 = 0 (leeres Lager am Ende). Sei x+(j0), u+(j0) eine optimale Losung und seien C+(j0)

die minimalen Kosten von P (j0) . Dann gilt

C+(j0) ≤ C∗j0−1(xj0−1),

Page 38: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 37

da man ausgehend von x∗i−1, u∗i fur i = 1, . . . j0 − 1 eine Losung von P (j0) konstuieren kann,

indem die bestellte Menge u∗i dementsprechend verringert wird, da man bei P (j0) ein leeresLager am Ende hat. Es gilt sogar ”<”, da xj0−1 > 0 nach Voraussetzung und somit fallenLagerkosten an (rechte Seite).Seien C+ die Kosten der +-Losung, dann ist

C+ = C+(j0) +n∑

j=j0

[Kδ(u+j ) + hx+

j ]

< C∗j0−1(xj0−1) +K δ(u+j0

)︸ ︷︷ ︸δ(u∗j0

)

+hx+j0︸︷︷︸

hx∗j0

+n∑

j>j0

[Kδ(u∗j ) + hx∗j ]

= C∗.

Dies ist ein Widerspruch zur Optimalitat von C∗ und somit folgt die Aussage des Lemmas.

2

Folgerung:

• u∗j > 0⇒ x∗j−1 = 0⇒ u∗j ≥ rj .

• Falls u∗j > rj ⇒ x∗j > 0⇒ u∗j+1 = 0⇒ u∗j ≥ rj + rj+1 usw.

• Es gilt

u∗j ∈ {rj , rj + rj+1, . . . , rj + . . . rj+n} , (2.5)

das heißt, sobald ich weiß wann ich bestelle, weiß ich auch wie viel.

Weiters gilt: Sei j so, dass x∗j = 0 (dieses existiert, da x∗n = 0) und sei k ∈ {0, . . . j − 1} sogewahlt, dass x∗k = 0, x∗k+1 > 0, . . . x∗j−1 > 0, das heißt k ist der großte Periodenindex kleinerj mit leerem Lager am Ende vor Periode j (existiert, da x∗0 = 0) . Aus 2.5 folgt

u∗k+1 = rk+1 + . . .+ rj

u∗k+2 = u∗k+3 . . . u∗j = 0

x∗k+1 = rk+2 + . . .+ rj

x∗k+2 = rk+3 + . . .+ rj

. . .

x∗j−1 = rj .

Minimale Kosten uber die Perioden k + 1, . . . j:

K + h(x∗k+1 + . . .+ x∗j−1) = K + h(rk+2 + 2rk+3 + . . .+ (j − 1− k)rj)

⇒ C∗j (x∗j = 0) = min0≤k≤j−1

{K + h(rk+2 + 2rk+3 + . . .+ (j − 1− k)rj + C∗k(x∗k = 0)} (2.6)

(Ruckwartsrekursion, rk+1 geht sofort wieder weg - keine Lagerkosten)

Page 39: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 38

Sei

Ij(k) := K + h(rk+2 + 2rk+3 + . . .+ (j − 1− k)rj) + C∗k(x∗k = 0)

∀j = 1, . . . n,∀k = 0, . . . j − 1 (2.7)

C∗j (0) = min0≤k≤j−1

Ij(k) =: I∗j (2.8)

k∗j := max

{arg min0≤k≤j−1

Ij(k)

}

Aus 2.6 - 2.8 folgt fur k ≤ j − 2

Ij(k) = K + h(rk+2 + 2rk+3 + . . .+ (j − 2− k)rj−1 + (j − 1− k)rj) + C∗k(x∗k = 0)

= K + h(rk+2 + 2rk+3 + . . .+ ((j − 1)− 1− k)rj−1) + C∗k(x∗k = 0) + h(j − 1− k)rj

= Ij−1(k) + h(j − 1− k)rj . (2.9)

und fur k = j − 1

Ij(k) = Ij(j − 1) = K + I∗j−1. (2.10)

Algorithmus. Wagner und WhitinSchritt 1: Vorwarts: I∗1 = I1(0) = K und k∗1 = 0

Fur j = 2, 3, . . . n bestimme

Ij(k) =

{Ij−1(k) + (j − 1− k)hrj 0 ≤ k ≤ j − 2

I∗j−1 +K k = j − 1(bestelle nur f. eine Periode)

I∗j = min0≤k≤j−1

Ij(k)

k∗j = max

{arg min0≤k≤j−1

Ij(k)

}.

Setze C∗ = I∗n + c(r1 + . . .+ rn).Schritt 2: Ruckwarts: Setze

l = k∗n

u∗l+1 = rl+1 + . . .+ rn

u∗l+2 = u∗l+3 = . . . = u∗n = 0.

Solange l > 1, setze

m = k∗l

u∗m+1 := rm+1 + . . .+ rl

u∗m+2 = u∗m+3 = . . . = u∗l = 0

l := m.

Output: ui fur i = 1, . . .m und C∗.

Page 40: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 39

Satz 2.2.2. Der Algorithmus liefert eine korrekte Losung des dynamischen Lagerhaltungspro-blems aus diesem Abschnitt. Eine triviale Implementierung liefert eine Laufzeit von O(n2).Unter Verwendung von

”balanced binary trees“ kann der Algorithmus in O(n) implemen-

tiert werden. Bei zeitabhangigen fixen Bestellkosten Ki, variablen Bestellkosten ci und La-gerungskosten hi, i = 1, . . . n lasst sich der Algorithmus in O(n log n) Zeit implementieren,vorausgesetzt K1 ≤ K2 ≤ . . . ≤ Kn.

Beweis: Die Korrektheit folgt aus 2.9-2.10. Die Laufzeit von O(n) ist trivial. Bei weiteremInteresse siehe [1].

Beispiel. K = 2 · 106 = 2 Mio, h = 2 · 105 = 0.2 Mio

Winter j = 1 Fruhling j = 2 Sommer j = 3 Herbst j = 4

3 2 3 2

• Start:

I∗1 = I1(0) = K = 2

k∗1 = 0

• j = 2:

I∗2 = mink∈{0,1}

I2(k) = 2.4

k∗2 = 0, weil

I2(k) =

{I1(0) + 1 · 0.2 · 2 = 2.4 k = 0

K + I∗1 = 4 k = 2

• j = 3:

I∗3 = 3.6

k∗3 = 0, weil

I3(k) =

{I2(k) + (2− k) · 0.2 · 3 k = 0, 1

K + I∗2 k = 2

=

2.4 + 1.2 = 3.6 k = 0

4 + 0.6 = 4.6 k = 1

2 + 2.4 = 4.4 k = 2

Page 41: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 40

• j = 4:

I∗4 = 4.8

k∗3 = 2, weil

I4(k) =

{I3(k) + (3− k) · 0.2 · 2 k = 0, 1, 2

K + I∗3 k = 3

=

4.8 k = 0

5.4 k = 1

4.8 k = 2

5.6 k = 3

Die letzte Bestellung, die bis zum Ende der Zeit reicht, wird nach Periode 2 getatigt, dennk∗4 = 2. Betrachte nun k∗2 = 0, und folgere, dass die letzte Bestellung fur bis zum Ende vonPeriode 2 zum Zeitpunkt 0, also am Anfang gemacht wird.

u∗1 = 3 + 2 = 5 Bedarf Winter und Fruhling

u∗3 = 3 + 2 = 5 Bedarf Sommer und Herbst

C∗ = I∗4 + c(r1 + r2 + r3 + r4) minimale Kosten

2.3 Ein serielles zweistufiges Lagersystem

Situation:1. Stufe: Teilproduktions- und Lagerstatte2. Stufe: Fertigstellungs- und Lagerstatte

Annahmen:

• EOQ-Annahmen gelten in Stufe 2 (konstante Abgangsrate, keine Fehlmengen, Bestel-lung, wenn Lager leer),

• fixe Bestellkosten im Zeitablauf Ki in Stufe i = 1, 2,

• Stufe 1 verwendet das Lager ausschließlich um Stufe 2 zu beliefern, Lieferzeit ist ver-nachlassigbar,

• fixe Lagerungskosten hi pro Mengen- und Zeiteinheit in Stufe i = 1, 2 und h1 < h2,

• eine Einheit des unfertigen Produkts in Stufe 1 wird benotigt um ein fertiges Produktin Stufe 2 zu erzeugen und

• fixe Bestellgroße Qi in Stufe i = 1, 2.

Ziel: Minimierung der Gesamtkosten beider Stufen.

Bemerkung. h1 < h2 ist sinnvoll, da Produkt in Station 2 mehr Wert hat als in Stufe 1 undfalls h1 > h2 ist, dann verschicke das Teilprodukt sofort.

Page 42: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 41

Q

Q

Lagerbestand

Zeit

1

2

Notationen. Echelon-Lagerbestand in Stufe 1 in Zeitpunkt t ist der physikalische Lagerbe-stand im Lager 1 zum Zeitpunkt t zusammen mit dem physikalischen Lagerbestand im Lager2 zum Zeitpunkt t.

Gesamtkosten je Zeiteinheit: C1 + C2 (exklusive variable Bestellkosten)Sei M1 der mittlere Lagerbestand im Lager 1, dann ist

Q1 = nQ2

T1 = nT2

T2 =Q2

r

C1 =K1

T1+ h1 ·M1

=K1

nT2+ h1 ·M1 (fixe Bestellkosten und Lagerungskosten je Zeiteinheit)

C2 =rK2

Q2+h2Q2

2(2.11)

Der mittlere Lagerbestand M1 berechnet sich aus:

T2(n− 1)Q2 + T2(n− 2)Q2 + . . . T2Q2 + T2 · 0 = nT2M1

⇒M1 = Q2n(n− 1)

2n= Q2

n− 1

2.

Daraus folgt

C1 =K1

nQ2

r

+ h1n− 1

2Q2

=rK1

nQ2+Q2h1

n− 1

2

⇒ C(Q2, n) =rK1

nQ2+Q2h1

n− 1

2+rK2

Q2+h2Q2

2

=r

Q2

(K1

n+K2

)+Q2

2(h2 − h1︸ ︷︷ ︸

e2

+n h1︸︷︷︸e1

), (2.12)

wobei e1, e2 die Echelon-Lagerungskosten je Mengen- und Zeiteinheit sind. Man kann diese alsLagerungskosten fur den Mehrwert der Produkte, der in Stufe 2 erzeugt wird, interpretieren.

Page 43: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 42

Minimum bestimmen:

∂C

∂Q= − r

Q22

(K1

n+K2

)+ne1 + e2

2= 0

⇔ Q∗2 =

√2r(K1

n +K2)

ne1 + e2

Dies ist eine Minimum.Wir setzen dies in 2.12 ein und erhalten

C(n) =√

2r ·√K1

n+K2 ·

√ne1 + e2 (2.13)

Um nun das n zu finden, welches unsere Kosten minimiert, betrachten wir

arg minC(n) = arg minC2(n)

∂C2(n)

∂n= 2rK2e1 −

2rK1e2

n2= 0

⇔ n2 =K1e2

K2e1

n∗ =

√K1e2

K2e1.

Falls n∗ ∈ N ist, dann kann C problemlos berechnet werden. Ansonsten vergleiche die Kostenund beachte, dass nur C1 abhangig von n ist

C(bn∗c) ≶ C(dn∗e) = C(bn∗c+ 1)

⇔ C1(bn∗c) ≶ C1(bn∗c+ 1)

⇔ K1r

bn∗cQ2+h1(bn∗c − 1)Q2

2≶

K1r

(bn∗c+ 1)Q2+h1bn∗cQ2

2

⇔ K1r

Q2

(1

bn∗c− 1

(bn∗c+ 1

)≶h1Q2

2

⇔ 1

bn∗c(bn∗c+ 1)≶h1Q

22

2K1r=

1

(n∗)2

⇔ n∗

bn∗c≶bn∗c+ 1

n∗

und runde n∗ auf falls”>“ bzw. ab falls

”<“ in der letzten Ungleichung gilt (somit sind die

Kosten minimal).Wir zeigen noch, dassh1Q2

22K1r

= 1(n∗)2 ist. Es gilt

C(Q∗2, n) = C1(n,Q∗2) + C2(n,Q∗2)︸ ︷︷ ︸C2(Q∗2)

arg minn

C(Q∗2, n) = arg minn

C1(n,Q∗2)

∂C1(n,Q∗2)

∂n=

∂n

(K1r

nQ∗2+h1(n− 1)Q∗2

2

)=−K1r

n2Q∗2+h1Q

∗2

2= 0

⇔ (n∗)2 =2K1r

h1(Q∗2)2.

Page 44: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 43

2.4 Mehrstufige Lagersysteme

Situation: N Stufen, Qi. . . Losgroße in Stufe i, Ti. . . Zykluslange in Stufe i, Rest wie ebenmit folgenden

Annahmen:

• Ki, i = 1, . . . N . . . fixe Bestellkosten,

• hi . . . Lagerungskosten mit h1 ≤ h2 ≤ . . . ≤ hN ,

• EOQ in der letzten Stufe,

• eine Produkteinheit von Stufe i wird benotigt um eine Produklteinheit in Stufe i+ 1 zuproduzieren ∀i = 1, . . . N − 1,

• Qi = niQi+1, ni ∈ N und

• es sind keine Fehlmengen erlaubt .

Q

Q

Lagerbestand

Zeit

Q

T

T

T

1

2

23

3

1

Gesamtkosten=fixe Bestellkosten+ variable Bestellkosten+Lagerkosten, wobei die variablenKosten fur die Optimierung irrelevant sind.

Fixe Bestellkosten je Zeiteinheit: Ki in Stufe i fur eine Periode der Lange Ti, also KiTi

jeZeiteinheit. Weil

Ti =Qir, Ti+1 =

Qi+1

rund

Qi = niQi+1 ni ∈ N,

Page 45: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 44

folgt

Tir = Qi = niQi+1 = niTi+1r

⇔ Ti = niTi+1

= nini+1Ti+2

= . . .

= ni · · ·nN−1TN

= piTN ,

wobei pi = nini+1 · · ·nN−1 ∀i = 1, . . . N − 1, pN = 1. Fur alle Stufen ergeben sich die Bestell-kosten je Zeiteinheit aus

N∑i=1

Ki

Ti=

N∑i=1

Ki

piTN

=1

TN

N∑i=1

Ki

pi.

Lagerkosten je Zeiteinheit: In Stufe i gibt es einen mittleren Lagerbestand in [0, Ti] von

Mi =(ni − 1)Qi+1Ti+1 + (ni − 2)Qi+1Ti+1 + . . .+Qi+1Ti+1

Ti

= Ti+1(ni − 1) + (ni − 2) + . . .+ 1

TiQi+1

=Ti+1niTini

· ni − 1

2· niQi+1

=ni − 1

2Qi+1.

Mit

Qi = niQi+1

= nini+1Qi+2

= . . .

= ni · · ·nN−1QN

= piQN ,

erhalt man die Lagerkosten je Zeiteinheit in Stufe i durch

hini − 1

2Qi+1 = hi

ni − 1

2pi+1QN .

Page 46: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 45

Betrachtet man nun die Lagerkosten je Zeiteinheit fur alle Stufen, so ergibt sich

QN

N−1∑i=1

hini − 1

2pi+1 + CN

= QN

(h1n1 − 1

2n2 · · ·nN−1 + h2

n2 − 1

2n3 · · ·nN−1 + . . .+ hN−1

nN−1 − 1

2+ hN

1

2

)= QN

(h1p1

2− h1

p2

2+ h2

p2

2− h2

p3

2+ . . .+ hN−1

pN−1

2− hN−1

1

2+ hN

1

2

)= QN

(h1p1

2+p2

2(h2 − h1) + . . .+

pN−1

2(hN−1 − hN−2) +

1

2(hN − hN−1)

)= QN

N∑i=1

piei2

= rTN

N∑i=1

piei2.

Gesamtkosten je Zeiteinheit:

C(p1, . . . pN−1, TN ) =1

TN

N∑i=1

Ki

pi+ rTN

N∑i=1

piei2

Diese Kosten sind zu minimieren. Wir haben somit folgendes zu losen:

(P ) minC(p1, . . . pN−1, TN )

s.t. TN ∈ R+

pi ∈ N ∀i = 1, . . . N − 1

pi ≥ pi+1 ∀i = 1, . . . N − 1.

Dies ist NP-vollstandig, daher modifizieren wir es zu

(P1) minC(p1, . . . pN−1, TN )

s.t. TN ∈ R+

pi = 2li li ∈ N0 = N ∪ {0} , ∀i = 1, . . . N − 1

pi ≥ pi+1 ∀i = 1, . . . N − 1.

Satz 2.4.1. Roundy’s 98 Prozent Approximation Property: Seien C∗1 und C∗ die optimalenZielfunktionswerte von (P1) bzw. von (P ), dann gilt C∗1 − C∗ ≤ 0.02C∗.

Relaxation von (P ) und (P1):

(P2) minC(p1, . . . pN−1, TN )

s.t. TN ∈ R+

1 ≤ pi ∈ R ∀i = 1, . . . N − 1

pi ≥ pi+1 ∀i = 1, . . . N − 1

Aus der 3. Restriktion (Monotonie der pi) folgt

Qi = piQN = fpi+1QN = fQi+1 mitf ≥ 1

⇒ Qi ≥ Qi+1.

Page 47: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 46

Dies wurde also nicht relaxiert. Die Simultanitat des Lagersystems wurde relaxiert.

Approximatives Losungsverfahren fur (P2):

Phase 1: Berechne Qi =√

2rKiei

als Losung des EOQ-Modells der Stufe i.

ci =rKi

Qi+eiQi

2

Postprocessing (optional): Falls Qi = Qi+1 fur ein i ∈ {1, . . . N − 1}, dann lege dieStufen i und i+ 1 zusammen, erzeuge eine neue Stufe (i, i+ 1) mit fixen BestellkostenKi +Ki+1 und Echelon-Lagerkosten ei + ei+1.

Phase 2: Initialisiere L = ∅ (LIFO) als Liste der zusammengelegten Lagerstufen.N = N, Ki = Ki, ei = ei ∀i = 1, . . . N

1.) Solange ∃i ∈{

1, . . . N − 1}

: Kiei< Ki+1

ei+1(Monotonieeigenschaft), lege Stufen i und

i+ 1 zusammen und setze

L := L ∪ {i} ,N := N − 1,

Ki := Ki + Ki+1,

ei := ei+1

Kj := Kj+1,

ej := ej+1 ∀j > i.

2a) Qi =√

2rKiei∀i = 1, . . . N

(nicht zusammengelegte Lager erfullen die Monotonie sicher)

2b) Setze N := N + 1 und fur ∀i ∈ L (in LIFO-Reihenfolge) und ∀j = N , . . . i+ 1

Qj = Qj−1, Qi = Qi.

Setze

Qi := Qi ∀i = 1, . . . N (zuruck umbenennen)

ci =rKi

Qi+eiQi

2∀i = 1, . . . N

C :=N∑i=1

ci.

Output: Qi und C (optimaler ZFW fur (P2)).

Page 48: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 47

Phase 3: Modifizierung der Losung aus Phase 2 um Losung fur (P1) zu erhalten.

C =N∑i=1

rKi

piQN+

N∑i=1

eipi2QN

=r

QN

N∑i=1

Ki

pi+QN2

N∑i=1

eipi

= CEOQ(QN ), (2.14)

wobei die Bestellkosten des EOQ-Modells als∑N

i=1Kipi

und die Echelon-Lagerkosten als∑Ni=1 eipi gegeben sind.

1.) Setze Q∗N = QN (aus Phase 2).

2a) ∀i = N − 1, . . . 1 betrachte Qi aus Phase 2 und bestimme m ∈ N0, sodass

2mQ∗i+1 ≤ Qi ≤ 2m+1Q∗i+1.

Falls

Qi2mQ∗i+1

≤2m+1Q∗i+1

Qi,

dann setze

m∗i = m und sonst

m∗i = m+ 1

Q∗i = 2m∗iQ∗i+1.

2b) Setze

Qi = Q∗i ∀i = 1, . . . N (ersetzt Losung der Relaxation),

pi = 2mi+mi+1+...mN−1 ∀i = 1, . . . N,

Q∗N =

√√√√2r∑N

i=1Kipi∑N

i=1 piei.

Letzteres gilt wegen 2.14. Wir optimieren hier fur feste p1, . . . pN−1 und tun so, alsob alles eine Lagerstufe ware.

3.) Wiederhole 2) solange sich ein m∗i fur i = 1, . . . N − 1 andert.

Output: Losung (p1, p2, . . . pN−1, Q∗N ) mit Kosten

C =N∑i=1

riKi

piQ∗N+

N∑i=1

eipi2Q∗N .

Dies ist eine approximierte Losung fur (P1).

Page 49: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 48

Satz 2.4.2. Das oben beschriebene heuristische Verfahren terminiert nach logN Schrittenund es gilt C − C∗ ≤ 0.06C∗ ⇒ C ≤ 1.06C∗.

Beispiel. N = 4, r = 4000

Stufe Ki hi ei1 250 0.5 0.52 6 0.55 0.053 30 3.55 34 110 7.55 4

Phase 2: Es ist

K1

e1= 500 ≥ K2

e2= 120 ≥ K3

e3= 10 <

K4

e4= 27.5,

das heißt fur i = 3 ist die Monotonieeigenschaft nicht erfullt und die Stufen 3 und 4 wer-den zusammengelegt. Berechne die neuen Werte fur Kj und ej wie in 1.). Fur diese ist dieMonotonieeigenschaft erfullt. Berechne daher Qi und ci wie in 2a.) bzw. 2b).

Stufe Ki ei Qi ci1 250 0.5 2000 10002 6 0.05 980 493 140 7 400 2800

Losung von (P2): C =∑3

i=1 ci = 3849 mit obigen Qi.Phase 3: 1. Iteration

1.) Q∗3 := Q3 = 400

2a.) i=2:

2mQ∗3 ≤ Q2 ≤ 2m+1Q∗3

2m400 ≤ 980 ≤ 2m+1400

⇔ m = 1

980

2 · 400≤ 22 · 400

980⇒ m∗2 = m = 1

Q∗2 = 2m∗2Q∗3 = 2 · 400 = 800

i=1:

2mQ∗2 ≤ Q1 ≤ 2m+1Q∗2

2m800 ≤ 2000 ≤ 2m+1800

⇔ m = 1

2000

1600≤ 3200

2000⇒ m∗1 = m = 1

Q∗1 = 1600

Page 50: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 49

2b)

p3 = 1 p2 = 21 = 2 p1 = 22 = 4

Q∗3 =

√√√√2r∑N

i=1Kipi∑N

i=1 piei= 425

2. Iteration der 3. Phase:

2a) i=2:

2mQ∗3 ≤ Q2 ≤ 2m+1Q∗3

2m425 ≤ 800 ≤ 2m+1425

⇔ m = 0

800

425≥ 2 · 425

800⇒ m∗2 = m+ 1 = 1

Q∗2 = 2m∗2Q∗3 = 2 · 425 = 850

i=1:

2mQ∗2 ≤ Q1 ≤ 2m+1Q∗2

2m850 ≤ 1600 ≤ 2m+1850

⇔ m = 0

1600

850≥ 1700

1600⇒ m∗1 = m+ 1 = 1

Da sich die m∗i nicht andern, konnen wir hier stoppen und die Qi aus der ersten Iteration vonPhase 2 bilden die optimalen Werte.

2.5 Ein stochastisches Ein-Periodenmodell

Annahmen:

• Es gibt eine Periode, fur schnell alternde/verderbliche Guter (Obst, Zeitungen)

• fixe Bestellkosten K, variable Bestellkosten c je Mengeneinheit,

• h > 0 . . . Lagerkosten je Zeit- und Mengeneinheit,

• p > c . . . Fehlmengenkosten je Zeit- und Mengeneinheit (sinnvoll, weil sonst ware esoptimal nichts zu produzieren),

• keine Lieferzeit,

• x . . . Lagerbestand zu Periodenbeginn unmittelbar vor Bestellung,

Page 51: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 50

• u > 0. . . bestellte (produzierte) Menge zu Beginn der Planungsperiode,

• y = x+u. . . Lagerbestand unmittelbar nach der Bestellung (und Eintreten der bestelltenWare),

• R . . . Zufallsvariable der Nachfrage unmittelbar nach Eintreffen der Bestellten Menge umit r als Realisierung dieserr < y = x+ u⇒ Lagerkosten h(x+ u− r) = h(y − r)r > y = x+ u⇒ Fehlmengenkosten p(r − (x+ u)) = p(r − y) und

• Πr = P (R = r) ist die Wahrscheinlichkeit, dass es eine Nachfrage der Hohe r gibt.

Ziel: Minimierung der erwarteten Gesamtkosten, bei einer Nachfrage, die durch die Zufalls-variable R gegeben ist.

Wir unterscheiden 2 Falle:Fall 1: R diskret (Stuckware), die erwarteten Gesamtkosten ergeben sich fur alle y ∈ N0 aus

L(y) = h

y∑r=0

(y − r)Πr + p∞∑

r=y+1

(r − y)Πr

= (h+ p)

y∑r=0

(y − r)Πr + p∞∑r=0

(r − y)Πr. (2.15)

Des weiteren gilt fur ∀y ∈ N0 folgendes

E(R) =∞∑r=0

rΠr (2.16)

P (R ≤ r) = Φ(r) =

brc∑i=0

Πi fur r ≥ 0

∫ y

0Φ(r)dr =

∫ y

0

brc∑i=0

Πidr

=

y−1∑k=0

∫ k+1

k

brc∑i=0

Πidr

=

y−1∑k=0

k∑i=0

Πi

= Π0 + (Π0 + Π1) + . . .+ (Π0 + . . .+ Πy−1)

= (y − 0)Π0 + (y − 1)Π1 + . . .+ (y − (y − 1))Πy−1

=

y−1∑r=0

(y − r)Πr (2.17)

=

y∑r=0

(y − r)Πr. (2.18)

Page 52: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 51

Setzt man 2.18 und 2.16 in 2.15 ein, so erhalt man

L(y) = (h+ p)

∫ y

0Φ(r)dr + p

∞∑r=0

(r − y)Πr︸ ︷︷ ︸E(R−y)

= (h+ p)

∫ y

0Φ(r)dr + p(E(R)− y). (2.19)

Fall 2: R stetig mit Dichtefunktion ϕ, es ist Φ(0) = 0. Außerdem erhalt man mit partiellerIntegration ∫ y

0(y − r)ϕ(r)dr = [(y − r)Φ(r)]y0 +

∫ y

0Φ(r)dr

=

∫ y

0Φ(r)dr. (2.20)

Somit ergeben sich die erwarteten Gesamtkosten aus

L(y) = (h+ p)

∫ y

0(y − r)ϕ(r)dr + p

∫ ∞0

(r − y)ϕ(r)dr︸ ︷︷ ︸E(R−y)

, y ≥ 0 (2.21)

2.20= (h+ p)

∫ y

0Φ(r)dr + p(E(R)− y).

Fur y < 0 setze Φ(y) = 0.

Fur beide Falle erhalten wir

L(y) =

{(h+ p)

∫ y0 Φ(r)dr + p(E(R)− y) y ≥ 0

p(E(R)− y) y < 0. (2.22)

Minimale Lagerkosten: bestimmen wir in Abhangigkeit vom anfanglichen Lagerbestand x

C∗(x) = minu≥0{δ(u)K + cu+ L(x+ u)}

= minu≥0

w(x, u).

Sei die optimale Bestellgroße z∗(x) ∈ arg minu≥0w(x, u) und sei

G(y) := cy + L(y)

⇒ w(x, u) = K +G(x+ u)− cxlim

y→−∞G(y) = lim

y→−∞cy + L(y)

= limy→−∞

cy + p(E(R)− y)

= limy→−∞

(c− p)︸ ︷︷ ︸<0

y + pE(R)→∞ (Fehlmengenkosten bei −∞)

limy→∞

G(y)→∞ (analog, Lagerkosten bei ∞).

Page 53: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 52

Da Φ monoton wachsend ist, folgt, dass∫ y

0 Φ(r)dr konvex und die erste Ableitung davon(∫ y

0 Φ(r)dr)′ = Φ(y) monoton wachsend ist. Daraus folgt, dass L(y) und somit auch G(y)konvex sind.Sei S die kleinste Minimalstelle von G auf R. S > 0, da G(y) monoton fallend und linear fury < 0 ist.

y

G(y)

G(S)+K

G(S)

Ss

Fallunterscheidung:Fall 1: Sei s die großte Zahl, fur die s ≤ S und G(s) ≥ G(S) + K gilt (nehme den nachstendiskreten Wert). Bezeichne mit C+(x, u) die erwarteten Gesamtkosten fur u > 0.

C+(x, u) := w(x, u) u > 0

C−(x, u) := C−(x, 0) = w(x, 0) = L(x) = G(x)− cx

1. Beobachtung: Fur x ≥ s gilt

C+(x, u)− C−(x, u) = (K +G(x+ u)− cx)− (G(x)− cx)

= K +G(x+ u)−G(x) ≥ 0, (2.23)

wegen folgenden Ungleichungen

x ≥ S ≥ s : x+ u ≥ x⇒ G(x+ u) ≥ G(x) weil G mon. wachsend ist fur Werte > S

s ≤ x ≤ S :

G(x) ≤ G(s) = G(S) +K

≤ G(x+ u) +K weil S der minimale Punkt von G ist.

Das heißt aus 2.23 folgt fur x ≥ s, dass C+(x, u) ≥ C−(x, u) und daher werden in diesem Falldie minimal erwarteten Gesamtkosten bei u = 0 erreicht.2. Beobachtung: Fur x < s gilt

C+(x, u0)− C−(x, u) < 0

fur u0 = S − x, weil

K − cx+G(x+ u0)︸ ︷︷ ︸C+(x,u0)

−(G(x)− cx︸ ︷︷ ︸C−(x)

) = K +G(x+ u0)−G(x) < 0,da

G(x) > G(s) = G(S) +K

= G(u0 + x) +K.

Page 54: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 53

Das heißt fur x < s werden die minimal erwarteten Gesamtkosten fur u0 = S − x erreicht.Fall 2: Sei s ≤ S so gewahlt, dass s die großte Zahl (dadurch eindeutig) kleiner S ist, fur dieG(s) = G(S) +K gilt.

Optimale Bestellpolitik: Bestellmenge und Kosten:

z∗(x) =

{S − x x ≤ s0 x > s

C∗(x) = w(x, z∗(x)) =

{K − cx+G(S) x ≤ s−cx+G(x) x > s

Berechnung von S:R stetig: Somit ist Φ stetig und auch G stetig, sowie differenzierbar und konvex, das heißtwir erhalten die Minimalstelle durch Differenzieren:

G′(S) = (cS + L(S))′

= c+ L′(S) = 0

⇔ L′(S) = −cL′(S) = (h+ p)Φ(S)− p = −c

⇔ S = Φ−1(p− ch+ p

) = q p−ch+p

(Φ) (Quantil)

R diskret: Es gilt S = min{u ∈ N0 : Φ(u) ≥ p−c

h+p

}.

Berechnung von s:s ≤ 0: Hier gilt G(s) = G(S) +K und somit

G(s) = cs+ L(s) = cs+ p(E(R)− s)= (c− p)s+ pE(R) = G(S) +K

⇔ s =G(S) +K − pE(R)

c− p.

s > 0: Hier muss man s aus der Gleichung G(s) = G(S) + K gegebenenfalls numerisch be-rechnen.Anmerkung: Wann gilt s < 0?

G(0) = c · 0 + L(0)

= p(E(R)− 0) = pE(R)

≤ G(S) +K

= G(s)

⇔ s < 0,

da G bis 0 eine linear fallende Funktion ist.

Page 55: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 54

2.6 Stochastische stationare Mehrperiodenmodelle

Bemerkung. Diese nennt man auch Amow-Harris-Warshall-Modelle=AHW-Modelle.

Annahmen:

• Wir haben einen Zeitraum von n Perioden,

• K ≥ 0 . . . fixe Bestellkosten, c ≥ 0 . . . Stuckpreise,

• h ≥ 0. . . Lagerkosten je Zeit- und Mengeneinheit,

• p ≥ 0 . . . Fehlmengenkosten,

• α ∈ (0, 1) . . . Diskontierungsfaktor,

• Nachfragen R1, . . . Rn in den Perioden 1, . . . n sind iid Zufallsvariablen mit Verteilungs-dichte ϕ (stetig, bzw. falls ϕ diskret, dann alles mit Summen statt Integralen) und

• Lager- und Fehlmengenkosten gibt es analog wie im vorherigen Abschnitt.

Notationen. Es seien

• Xj . . . eine Zufallsvariable, die den Lagerbestand am Ende von Periode j bzw. am Anfangvon Periode j + 1 (vor der Bestellung) darstellt,

• xj . . . Realisierung von Xj ,

• x0. . . deterministischer Lagerbestand zu Beginn der 1. Periode,

• uj . . . die zu Beginn von Periode j bestellte Menge,

• rj . . . Realisierung der Nachfrage in Periode j und

• xj = xj−1 + uj︸ ︷︷ ︸yj

−rj ∀j = 1, . . . n.

Erwartete Gesamtkosten:

L(y) =

{(h+ p)

∫ y0 Φ(r)dr + p(E(R)− y) y ≥ 0

p(E(R)− y) y < 0

Erwartete Kosten in Periode j:

Kδ(uj) + cuj + L(xj−1 + uj)

Zielfunktion:

n∑j=1

αj−1(Kδ(uj) + cuj + L(xj−1 + uj)), uj ≥ 0 fur j = 1, . . . n

Seien C∗j (xj) die minimalen erwarteten Kosten fur die Stufen j, j+1, . . . n diskontiert auf denBeginn der Periode j bei gegebenen Anfangsbestand xj . Sei G(y) := cy+L(y), dann sind dieerwarteten Kosten in Periode j

Kδ(uj) + cuj + L(xj−1 + uj) = Kδ(uj) +G(xj−1 + uj)− cxj−1.

Page 56: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 55

Bellmann’sche Funktionalgleichung:

C∗j (xj−1) = −cxj−1 + minuj≥0

{Kδ(uj) +G(xj−1 + uj) + α

∫ ∞0

C∗j+1(xj−1 + uj − rj)ϕ(rj)drj

}(2.24)

= −cxj−1 + minuj≥0

w(xj−1, uj) ∀j = 1, . . . n

Es ist z∗1 , . . . z∗n die optimale Bestellpolitik, wobei

z∗j (xj−1) = arg minuj≥0

w(xj−1, uj)

und C∗1 (x0) sind die minimal zu erwartenen Kosten des ursprunglichen Problems. Fur C∗n+1

gibt es 2 Falle:

A) C∗n+1 = 0 ∀x ∈ R,

B) C∗n+1 =

{−cx x > 0 Verkaufen am Markt ⇒ Gewinn

−cx x ≤ 0 mussen Produkte besorgen um Nachfrage zu erfullen ⇒ Kosten

Wir definieren

G(y) := (1− α)cy + L(y) = G(y)− αcy.

Bemerkung. Modell B ist realistischer und hat geringeren Rechenaufwand. Analog wie furG kann man zeigen, dass G konvex, linear fallend fur y < 0 und limy→±∞ G(y)→∞ ist.

Sei

C∗j (xj−1) := C∗j (xj−1) + cxj−1 − cE(R)(α+ α2 + . . .+ αn−j+1) ∀j = 1, . . . n (2.25)

C∗n+1(xn) = 0 ∀xn ∈ R

Gleichung 2.24 lasst sich mit dem Cj und G in folgende Gleichung transformieren:

C∗j (xj−1) = minuj≥0

{Kδ(uj) + G(xj−1 + uj) + α

∫ ∞0

C∗j+1(xj−1 + uj − rj)ϕ(rj)drj

}. (2.26)

Sei

Hj(y) = G(y) + α

∫ ∞0

C∗j+1(y − r)ϕ(r)dr (2.27)

Hj(y) = G(y) + α

∫ ∞0

C∗j+1(y − r)ϕ(r)dr.

Aus 2.24 bzw. 2.26 wird

C∗j (x) = −cx+ minuj≥0{Kδ(u) +Hj(x+ u)} ∀j = 1, . . . n, (2.28)

C∗j (x) = minuj≥0

{Kδ(u) + Hj(x+ u)

}∀j = 1, . . . n. (2.29)

Page 57: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 56

Losungsweg Modell A: Sei Sj und sj , sodass Sj die kleinste Minimalstelle von Hj auf Rund sj die großte Zahl kleiner Sj mit Hj(sj) = Hj(Sj) +K ist.

y

H(y)

Ss

K

j j

Analog wie im vorhergehenden Abschnitt ist

z∗j (x) =

{Sj − x x < sj

0 x ≥ sj, (2.30)

das heißt, dass sj ein optimaler Bestellpunkt und Sj eine optimale Bestellgroße in Periodej, j = 1, . . . n ist. 2.30 eingesetzt in 2.28 ergibt die optimal erwarteten Kosten

C∗j (x) =

{−cx+K +Hj(Sj) x < sj

−cx+Hj(x) x ≥ sj.

Algorithmus. Lagerhaltung: (s, S)-Politik im stochastischen Modell AInput: n,K, h, p, c, α, ϕ, x0

Schritt 1: Setze j := n,Hj(y) := G(y) = cy + L(y) ∀y ∈ R.Schritt 2: Bestimme die kleinste Minimalstelle Sj von Hj auf R und

die großte Zahl sj ≤ Sj mit Hj(sj) = Hj(Sj) +K.Schritt 3: Bestimme

z∗j (x) =

{Sj − x x < sj

0 x ≥ sjund

C∗j (x) =

{−cx+K +Hj(Sj) x < sj

−cx+Hj(x) x ≥ sj.

Schritt 4: Falls j = 1 ist, dann terminiere, sonst setze j := j − 1,bestimme Hj wie in 2.27 und gehe zu Schritt 2.

Output: C∗1 (x0), sj , Sj ∀j = 1, . . . n

Bemerkung. Wenn K = 0 ist, dann erhalt man eine (Sj , Sj)- Politik (sj = Sj). Man kannzeigen, dass S1 ≥ S2 ≥ . . . ≥ Sn.

Losungsweg Modell B: In diesem Modell konnen unabhangig vom Periodenindex j untereund obere Grenzen fur sj und Sj angegeben werden. Sei S die kleinste Minimalstelle von Gund s die großte Zahl s ≤ S : G(s) = G(S) + K. Es gilt S ≥ 0, weil G linear und monotonfallend ist fur y < 0.Sei S ≥ S die kleinste Zahl mit

G(S) = G(S) + αK. (2.31)

Page 58: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 57

Die Existenz dieser beruht auf Grund der Eigenschaften von G.Sei s ∈ [s, S] die großte Zahl mit

G(s) = G(S) + (1− α)K. (2.32)

y

G(y)

Ss

K

_ _

_

Fur α = 1 gilt s = S. Außerdem ist Sj die Minimalstelle von Hj auf [S, S] genau dann, wennSj die Minimalstelle von Hj auf R ist (Fakultativ, HU Analysis).Analog zu A sei sj die großte Zahl kleinergleich Sj , fur die Hj(sj) = Hj(Sj) + K ist. AusSj ∈ [S, S] folgt sj ∈ [s, s].

Optimale Bestellpolitik: (analog A)

z∗j (x) =

{Sj − x x < sj

0 x ≥ sj(2.33)

Minimal erwarteten Kosten:

C∗j (x) =

{K + Hj(Sj) x < sj

Hj(x) x ≥ sj(2.34)

Auch hier gilt Hn = G, Sn = S.

Aus dem Algorithmus fur Modell A erhalten wir einen Algorithmus fur Modell B, in demalle Großen durch die ·-Gegenstucke ersetzt werden und Sj , sj in [S, S] bzw. [s, s] statt in Rgesucht werden.

Bemerkung. Fur K = 0 folgt, dass sich eine (Sj , Sj)-Politik ergibt. Die Bestellpunkte sindgleich der Bestellgrenze. Es ist s = s = S = S.

2.7 Unendlich-periodische stochastische stationare Lagerhal-tungsprobleme

Frage: Warum bzw. wann betrachtet man unendlich-periodische Modelle?

1.) Ein sehr langer Planungshorizont kann mit einem unendlichen gleich gesetzt werden.

2) Als Approximation fur ein endliches Problem, wenn die Anzahl der Perioden groß ist.Ist n groß, so ist der Aufwand fur endlich-periodische Modelle sehr groß. Bei einemunendlich-periodischen Modell ist die Approximation ungenau, aber immer noch sogenau, dass sich die Approximation rentiert.

Page 59: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 58

Betrachten: Problem, dass bei Stufe n−j+1 beginnt und j Stufen/Perioden besitzt (ModellA). Seien C∗n−j+1 die minimal erwarteten Kosten uber die Perioden n− j+1, . . . n diskontiertauf den Beginn von Periode n− j + 1.Seien C+

j (x) := C∗n−j+1(x) die minimal erwarteten Kosten eines j-stufigen Problems mitAnfangszustand x diskontiert auf den Beginn der 1. Periode dieser j Perioden.

Satz 2.7.1. Sei α ∈ (0, 1) ein Diskontierungsfaktor. Die Folge C∗j (x) konvergiert gegen dieminimal diskontierten erwarteten Kosten C∗(x) des unendlich-stufigen Problems. Die Kon-vergenz ist gleichmaßig in jedem endlichen Intervall aus R. C∗ genugt der folgenden Funktio-nalgleichung:

C∗(x) = −cx+ minu≥0

{Kδ(u) +G(x+ u) + α

∫ ∞0

C∗(x+ u− r)ϕ(r)dr

}.

Bemerkung. Im Fall, dass α = 1 (keine Diskontierung) muss∑∞

j=1C+j (xj) nicht konver-

gieren. In dem Fall werden die durchschnittlichen erwarteten Kosten pro Periode minimiert(limj→∞

C+j (x)

j

).

Satz 2.7.2. Wenn α = 1 ist, dann existiert der Grenzwert limj→∞C+

j (x)

j und ist gleich denminimal durchschnittlich erwarteten Kosten je Periode im unendlich-stufigen Problem. Manhat gleichmaßige Konvergenz fur alle [a, b] ⊆ R, a, b ∈ R.

Bemerkung. Fur diesen und den vorhergehenden Abschnitt sind die Beweise in [2] und [3]zu finden.

Folgerungen:

• Aus den beiden vorhergehenden Satzen folgt, dass auch beim unendlich-stufigen Pro-blem eine optimale (s∗, S∗)-Politik existiert, sodass

z∗j (x) =

{S∗ − x x < s∗

0 x ≥ s∗, (2.35)

und s∗, S∗ den Gleichungen

s ≤ s∗ ≤ sS ≤ S∗ ≤ S

mit s, s, S, S wie beim endlich-stufigen Problem genugen.

• Fur α < 1 erhalten wir bei z∗ die minimal erwarteten Gesamtkosten, fur α = 1 erhaltenwir bei z∗ die minimal erwarteten durchschnittlichen Kosten pro Periode.

• Falls K = 0 ist, so gilt s∗ = S∗ wie beim endlich-stufigen Problem (da s = s = S = S).

• s∗ = S∗ = S ist die kleinste Minimalstelle von G mit

Φ(S) = Φ(S∗) =p− (1− α)c

p+ h, (2.36)

wobei Φ die Verteilungsfunktion der Nachfrage ist.

Page 60: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 2. LAGERHALTUNGSPROBLEME 59

• 2.36 kann auch ohne Limesprozess ermittelt werden:Sei K = 0 und es existiere eine optimale (S, S)-Bestellpolitik. Ziel ist die Bestimmungvon S. Seien Cx(S) die Gesamtkosten fur den Angangsbestand x.

T=1 T=2 T=3

Lagerbestand

Zeit

S

xr1

2 3r r

Cx(S) = c · (S − x) + L(S)︸ ︷︷ ︸1. Periode

+α(cr1 + L(S))︸ ︷︷ ︸2. Periode

+ . . .+ αi−1(cri−1 + L(S))︸ ︷︷ ︸i−te Periode

+ . . .

E(Cx(S)) = c · (S − x) + L(S)

∞∑i=0

αi + E(c

∞∑i=0

αiRi) (E(Ri) = E(R))

= c · (S − x) + L(S)1

1− α+ E(R)c

1

1− α

minS≥0

E(Cx(S)) = mins≥0

{c · (S − x) + L(S)

1

1− α+ E(R)c

1

1− α

}Da L(S) konvex und differenzierbar ist, ist auch E(Cx(S)) konvex und differenzierbarund wir erhalten durch Differenzieren die gesuchte Minimalstelle

c+ L′(S)1

1− α= 0

⇔ L′(s) = (p+ h)Φ(S)− p = −c(1− α)

⇔ Φ(S) =p− c(1− α)

p+ h(wie 2.36).

Page 61: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

Kapitel 3

Multikriterielle Optimierung

3.1 Einleitung und Definitionen

Beispiel. Autokauf

Kriterien ↓ / Alternativen → VW Opel Ford Toyota Ziel

Preis in Tsd. Euro 31 29 30 27 ↘Verbrauch in l/100 km 7.2 7.0 7.5 7.8 ↘

Leistung in KW 65 55 58 55 ↗

Losung: Wir betrachten verschiedene Modelle:Modell 1: Gewichtung der Zielfunktionen

minλi≥0

3∑i=1

λifi

s.t.3∑i=1

λi = 1

Modell 2: Lexikographische Optimierung: Reihung der Kriterien: min {f3(x) : arg min {f2(x) : arg min {f1(x) : x ∈ X}}}

Modell 3: Pareto-Optimierung: suche x∗ ∈ X (Menge der Alternativen), sodass

@y ∈ X : fi(y) ≤ fi(x∗) i = 1, . . . 3 und

fi0(y) < fi0(x∗) fur irgendein i0 ∈ {1, 2, 3}

Notation: Fur so ein y sagen wir y dominiert x∗. x∗ ist also pareto-optimal genau dann,wenn kein y existiert, dass x∗ dominiert.Alle Autos sind pareto-optimal.Ford: Es ist zwar 30 > 27, aber es ist 7.5 < 7.8 (Toyota),es ist zwar 7.5 > 7, aber 58 > 55 (Opel)und es ist zwar 58 < 65, aber 30 < 31 (VW), das heißt Toyota, Opel und VW dominierenFord nicht.

Modell 4: Jede Alternative x hat mehrere Nachteile. Sei fi(x) das Maß der Unzufrieden-heit der Alternative x bzgl. Nachteil i, i = 1, . . . n.

60

Page 62: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 61

θ : Rn → R1 bildet das Problem auf den Entscheidungsraum ab. Man betrachtet

minx∈X

max1≤i≤n

fi(x).

Definition 3.1.1. Der Input des MCOP (multicriteria opimization problem) ist eine Strukturder Form (X, f,RQ) | θ | (RP ,�), wobei

• X. . . Menge der zulassigen Losungen ist,

• X → RQ : x 7→ (f1(x), . . . fQ(x)) ist die Kriteriumsfunktion,

• RQ. . . heißt Kriteriumsraum,

• θ : RQ → RP . . . ist die Abbildung des Problems,

• RP . . . heißt Entscheidungsraum und

• �. . . ist eine reflexive und transitive Relation im RP .

Hierbei wird folgendes gesucht:

x∗ ∈ X, sodass @y ∈ X \ x∗ mit θ(f(x∗)) � θ(f(y)).

x∗ heißt optimale/minimale Losung und f(x∗) ∈ RQ heißt optimaler Wert.

Opt((X, f,RQ) | θ | (RP ,�))

ist die Menge der optimalen Losungen.

Beispiele fur Quasi-Ordnungsrelationen im Rn

Nr. Notation Definition Name

1 x� y xi < yi ∀i strikte komponentenweise Ordnung

2 x ≤ y xi ≤ yi ∀i, x 6= y komponentenweise Ordnung

3 x ≤lex y ∃k ∈ {1, . . . n} : lexikographische Ordnungxi = yi, i = 1, . . . k − 1, xk < yk

4 x ≤mo y maxxi ≤ max yi, x 6= y Maximalordnung

• Partialordnung: 1-4

• konnex: 4

• Totalordnung: 3

Zu Modell 1: (X, f,RQ) | θGS | (R,≤), GS. . . Gewichtete Summe, x ∈ RQ 7→∑Q

i=1 λixi ∈ RZu Modell 2: (X, f,RQ) | id | (RQ,�lex)Zu Modell 3: (X, f,RQ) | id | (RQ,≤) mit ≤ als die komponentenweise Ordnung

Definition 3.1.2. K ⊆ Rn

• . . . heißt Kegel, wenn x ∈ K ⇒ λx ∈ K ∀0 < λ ∈ R,

• . . . heißt trivialer Kegel, wenn K = ∅ oder K = Rn,

Page 63: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 62

• . . . heißt konvexer Kegel, wenn∀x, y ∈ K,∀λ > 0,∀α ∈ [0, 1] : λx ∈ K ∧ αx+ (1− α)y ∈ K,

• . . . ist ein spitzer Kegel ⇔ K ist ein Kegel und x ∈ K \ {0} ⇒ −x 6∈ K.

Beispiel. K1 konvex, nicht trivial, spitz,K2 nicht konvex, nicht trivial, nicht spitz,K3 konvex, nicht spitz (wegen y Achse)

K1

K2

K3

Satz 3.1.3. Sei ≤ eine Ordnungsrelation auf Rn und

K≤ := {y − x | x, y ∈ Rn, x ≤ y} . (3.1)

Sei dies kompatibel mit der skalaren Multiplikation und mit der Addition, d.h.

x ≤ y ∧ λ > 0, λ ∈ R⇒ λx ≤ λy ∀x, y ∈ Rn

x ≤ y ∧ c ∈ Rn ⇒ x+ c ≤ y + c ∀x, y ∈ Rn.

Dann gilt K≤ wie in 3.1 ist ein konvexer und spitzer Kegel.

Beweis: HU

Satz 3.1.4. Sei � eine binare Relation auf Rn, die mit der skalaren Multiplikation und mitder Addition kompatibel ist. Dann gilt

1.) 0 ∈ K� (wie in 3.1) ⇔� ist reflexiv,

2.) K� ist konvex, falls � transitiv ist und

3.) K� ist spitz, falls � antisymmetrisch ist.

Beweis: HU

Bemerkung. Man kann auch einen Kegel verwenden um Ordnungsrelationen zu definieren:K . . . Kegel und

x �K x⇔ y − x ∈ K. (3.2)

Satz 3.1.5. Sei K ein Kegel im Rn,�K wie in 3.2. Dann gilt �K ist kompatibel mit derskalaren Multiplikation und der Addition in Rn und weiters

a.) 0 ∈ K ⇒ �K ist reflexiv,

b.) K konvex ⇒ �K transitiv und

c.) K spitz ⇒ �K antisymmetrisch.

Beweis: HU

Page 64: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 63

Pareto-Optimalitat und Effizient: Existenzsatze und Eigenschaf-ten

Betrachten: (X, f,RQ) | id | (RP , <) mit < als die komponentenweise Ordnung, x, y ∈RQ, x < y ⇔ xi ≤ yi ∀i, x 6= y, Y := f(X) ⊆ RQ.

Definition 3.1.6. x∗ ∈ X heißt pareto-optimal, wenn

@x ∈ X : f(x) < f(x∗), das heißt

@x ∈ X : fi(x) ≤ fi(x∗) ∀i = 1, . . . Q und f(x) 6= f(x∗).

Falls x∗ pareto-optimal, dann heißt f(x∗) ∈ Y effizient. Falls f(x1) < f(x2), x1, x2 ∈ X, dannsagen wir x1 dominiert x2.

Notationen. Xpar := {x ∈ X | x ist pareto-optimal} . . . Menge der pareto-optimalen Losungen,Yeff := {f(x) | x ∈ Xpar}Aquivalente Definitionen: x∗ ist pareto-optimal ⇔

1.) @x ∈ X : fi(x) ≤ fi(x∗) ∀i = 1, . . . Q ∧ ∃j ∈ {1, . . . Q} : fj(x) < fj(x∗) oder

2.) @x ∈ X : f(x)− f(x∗) ∈ −RQ+ \ {0} = RQ− = {v ∈ RQ : vi < 0 ∀i = 1, . . . Q} oder

3.) f(x)− f(x∗) ∈ RQ \ RQ− = RQ+ \ {0} ∀x ∈ X oder

4.) f(X) ∩ (f(x∗)− RQ+) = f(x∗) oder

5.) @f(x) ∈ f(X) \ {f(x∗)} : f(x) ∈ f(x∗)− RQ+ oder

6.) ∀x ∈ X : f(x) ≤ f(x∗)⇒ f(x) = f(x∗).

Beispiel.

Q = 2,

X ⊆ R2, X = f(X) = Y,

f : R2 → R2, f1(x, y) = x,

f2(x, y) = y

x=f (x,y)1

y=f (x,y)2

x*

x0

(f(x0)− R2+) ∩X 6= {x0}

4.)⇒ x0 nicht pareto-optimal

(f(x∗)− R2+) ∩X 6= {x∗} 4.)⇒ x∗ ist pareto-optimal

Xpar = Yeff

Page 65: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 64

Ziel: Analyse der Existenz und der Eigenschaften von Xpar.

Beispiel. Auch wenn X konvergiert und Y = f(X) konvergiert, konnen Xpar und Yeff leersein.

X = {(x1, x2) ∈ R2 | −1 < x1 ≤ 1 und−√

1− x21 < x2 ≤ 0 falls − 1 < x1 ≤ 0;√

1− x21 ≤ x2 ≤ 0 falls 0 < x1 ≤ 1}

Xpar = Yeff = ∅

Falls wir −√

1− x21 ≤ x2 ≤ 0 zulassen fur 0 ≤ x1 ≤ 1 ⇒ Xpar = {(0,−1)}.

Lemma 3.1.7. Yeff = (Y + RQ+)eff ={y + a | y ∈ Y, a ∈ RQ+

}.

Lemma 3.1.8. Yeff ⊆ Rd(Y ) (Rand von Y ).

Korollar 3.1.9. Y ⊆ RQ offen ⇒ Yeff = ∅.

Lemma 3.1.10. (Y1 + Y2)eff ⊆ (Y1)eff + (Y2)eff .

Beweis: y1 + y2 : y1 ∈ (Y1)eff , y2 ∈ (Y2)effAnnahme:

∃y1 ∈ (y1 − RQ+) ∩ Y1 ⇔ y1 − y1 ∈ RQ+ und

∃y2 ∈ (y2 − RQ+) ∩ Y2 ⇔ y2 − y2 ∈ RQ+

Aus diesen Annahmen folgt:

y1 + y2 − (y1 + y2) ∈ RQ+⇒ y1 + y2 ∈ (y1 + y2 − RQ+) ∩ (Y1 + Y2)

Widerspruch!

2

Lemma 3.1.11. (αY )eff = αYeff ∀α ∈ R, α ≥ 0.

Definition 3.1.12. Sei ≤ eine reflexive und transitive Relation in A. (A,≤) heißt induktivgeordnet, falls jede Kette M in A ein minimales Element mµ besitzt. Eine Kette ist eineMenge von Elementen, die in Relation zueinander stehen.mµ heißt minimal in M ⇔ ∀x ∈M,x ≤ mµ ⇒ mµ ≤ x.

Lemma 3.1.13. Lemma von Zorn: Sei ≤ eine reflexive und transitive Relation auf A, sodass(A,≤) induktiv geordnet ist. Dann gibt es ein minimales Element in A.

Satz 3.1.14. Borwein, 1983: Sei Y 6= ∅, Y ∈ RQ. Angenommen ∃y0 ∈ Y , sodass

Y 0 = {y ∈ Y | y ≤ y0} = (y0 − RQ+) ∩ Y

kompakt ist, dann gilt Yeff 6= ∅.

Page 66: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 65

Beweis: Wir zeigen: Y ist kompakt⇒ H Kette in Y0 besitzt untere Schranke bezuglich ≤ ⇒ (Y 0,≤) induktiv geordnetZorn⇒ es existiert ein minimales Element y∗ ∈ Y 0

⇒ y∗ ∈ Yeff .

Sei{y(α) | α ∈ A

}eine Kette in (Y 0,≤), wobei ≤ eine Ordnungsrelation ist. Wir zeigen,

dass {y(α) | α ∈ A

}eine untere Schranke besitzt. Sei

B := {a ⊆ A | a endlich}

die Menge der endlichen Teilmengen.Fur alle a ∈ B ∃y(a) als minimales Element aus

{y(α) | α ∈ a

}, y(a) ∈ Y 0.

Yα :={y(α) − RQ+

}∩ Y 0 ∀α ∈ A

(1) Y 0 ist kompakt ⇔ Y 0 ist abgeschlossen und beschrankt.(2) y(α) − RQ+ ist abgeschlossen.Aus (1) und (2) folgt, dass Yα kompakt ist, da es abgeschlossen und beschrankt ist.

∀a ∈ B gilt⋂α∈a

Yα 6= ∅

da a endlich und y(a) ∈⋂α∈a Yα.

Fur kompakte Mengen gilt: Y ist kompakt und fur (Yi)i∈I (Familie von abgeschlossenenTeilmengen von Y mit nichtleeren Schnitt

⋂i∈J Yi ∀J ⊆ I, J endlich) folgt⋂

i∈IYi 6= ∅.

(Aquivalent zur Definition von Kompaktheit: jede offene Uberdeckung enthalt eine endlicheTeiluberdeckung.)Mit Y 0 in der Rolle von Y und Yα, α ∈ A in der Rolle von (Yi)i∈I folgt⋂

α∈AYα 6= ∅.

Sei

y′ ∈⋂α∈A

Yα =⋂α∈A

[(y(α) − RQ+) ∩ Y 0]

⇒ y′ ∈ ∩(y(α) − RQ+) ∩ Y 0,

das heißt y′ ∈ Y 0 und dominiert y(α) ∀α ∈ A.⇒ y′ ist eine untere Schranke fur

{y(α) | α ∈ A

}.

Page 67: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 66

⇒ Jede beliebige Kette besitzt eine untere Schranke.Zorn⇒ ∃y∗ ∈ Y 0 minimales Element.Wir zeigen noch y∗ ∈ Yeff :Annahme:

y∗ 6∈ Yeff⇒ ∃y ∈ Y : y < y∗

⇒ y ∈ (y∗ − RQ+) ∩ Y ⊆ Y 0 ∩ Y = Y 0

Widerspruch zur Minimalitat von y∗ ∈ Y 0 ⇒ Yeff 6= ∅.

2

Definition 3.1.15. Y ⊆ RQ heißt RQ+-kompakt, falls jede offene Uberdeckung von Y von der

Form (y(α) − RQ+)Cα∈A eine endliche Teiluberdeckung besitzt.

Bemerkung. Dies ist weniger als kompakt. Aus Kompaktheit folgt die RQ+-Kompaktheit,aber die Umkehrung gilt nicht.

Satz 3.1.16. Corley, 1980: Falls Y 6= ∅ und Y RQ+-kompakt ist, dann folgt Yeff 6= ∅ (nichtkonstruktiv).

Definition 3.1.17. Y ⊆ RQ heißt RQ+-semikompakt, falls ∀y ∈ Y gilt, dass (y − RQ+) ∩ Ykompakt ist.

Lemma 3.1.18. Ist Y 6= ∅ und Y RQ+-semikompakt, dann folgt, dass Yeff 6= ∅.

Bemerkung. Aus Y ⊆ RQ+ ist RQ+-semikompakt folgt, dass Y RQ+-kompakt ist, da (y−RQ+)∩Ykompakt ist fur alle y.Sei ((y(α) − RQ+)C)α∈A eine offene Uberdeckung von Y . Es gilt

Y ⊆⋃α∈A

(y(α) − RQ+)C

= (y(α) − RQ+)C ∪⋃

α∈A\{α0}

(y(α0) − RQ+)C .

Außerdem sind (y(α) − RQ+) und

Y1 := Y ∩ (Y (α) − RQ+)

kompakt und (y(α) − RQ+)α∈A\{α0} ist eine Uberdeckung.

⇒ Es existiert eine endliche Teiluberdeckung fur Y1, die mit (y(α0) − RQ+)C eine endlicheTeiluberdeckung fur Y liefert.

Frage: Welche Anforderungen sollen an X bzw. f : X → RQ gestellt werden, sodass Xpar 6= ∅gilt?

Definition 3.1.19. f : Rn → RQ heißt RQ+-halbstetig, wenn

f−1(y − RQ+) = {x ∈ Rn : f(x) ≤ y} ∀y ∈ RQ

abgeschlossen ist.

Page 68: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 67

Beispiel. Q = 1 : f−1((−∞, y]) abgeschlossen ∀y ∈ R⇔ f linksstetig.

Lemma 3.1.20. Sei f : Rn → RQ. f ist RQ+-halbstetig ⇔ fi : Rn → R linksstetig ist∀i = 1, . . . Q, wobei f(x) = (f1(x), . . . fQ(x)) ist.

Lemma 3.1.21. Sei X ⊆ Rn, X 6= ∅ kompakt und f : Rn → RQ sei RQ+-halbstetig, dann ist

Y = f(X) RQ+-kompakt.

Satz 3.1.22. Sei X ∈ Rn, X 6= ∅ kompakt und f : Rn → RQ sei RQ+-halbstetig, dann istXpar 6= ∅.

Beweis: Aus dem vorhergehenden Lemma folgt, dass Y RQ+-kompakt ist. Y 6= ∅, weil X 6=∅ ⇒ Yeff 6= ∅, Yeff = f(Xpar)⇒ Xpar 6= ∅.

2

Bemerkung. Alle Ergebnisse dieses Abschnitts gelten analog auch fur einen konvexen, abge-schlossenen, spitzen nichttrivialen Kegel K und die dazugehorige Ordnungsrelation K≤ statt

RQ+ als Kegel mit der komponentenweise Ordnung in RQ.

3.2 Schwache und strikte pareto-optimale Losungen

Definition 3.2.1. x∗ ∈ X heißt schwach pareto-optimal

⇔ @x ∈ X : fi(x) < fi(x∗) ∀i = 1, . . . Q.

y = f(x∗) ∈ Y heißt schwach effizient.

Notationen. Xw−par := {x ∈ X | x ist schwach pareto-optimal},Yw−eff := f(Xw−par) (w. . . weakly)

Definition 3.2.2. x∗ ∈ X heißt strikt pareto-optimal

⇔ x∗ ∈ Xpar,@x ∈ X : x 6= x∗, fi(x) = fi(x∗) ∀i = 1, . . . Q.

y = f(x∗) ∈ Y heißt strikt effizient.

Notationen. Xs−par := {x ∈ X | x ist strikt pareto-optimal},Ys−eff := f(Xs−par)

Beobachtung: Strikte Pareto-Optimalitat entspricht der Eindeutigkeit der optimalen Losungfalls Q = 1. Es ist

Xs−par ⊆ Xpar ⊆ Xw−par,

Ys−eff ⊆ Yeff ⊆ Yw−eff .

Page 69: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 68

3.3 Eigentliche Pareto-Optimialitat und eigentliche Effizienz

Definition 3.3.1. Geoffrion, 1968: x∗ ∈ X heißt eigentlich pareto-optimal, falls x ∈ Xpar und∃M > 0, sodass fur alle i, j ∈ {1, . . . Q} und fur alle x ∈ X, fur die gilt, dass fi(x) < fi(x

∗)und fj(x

∗) < fj(x), folgt

fi(x∗)− fi(x)

fj(x)− fj(x∗)≤M.

y = f(x∗) heißt eigentlich effizient.

Notationen. Xp−par := {x ∈ X | x ist eigentlich pareto-optimal},Yp−eff := f(Xp−par) (p . . . proper)

Beispiel.

X ={

(x1, x2) ∈ R2 | (x1 − 1)2 + (x2 − 1)2 ≤ 1, 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ x1

}f1 : R2 → R (x1, x2) 7→ x1

f2 : R2 → R (x1, x2) 7→ x2

Y = f(X) = X

Z.B. zeigen wir, dass P1 = (1, 0), P2 = (0, 1) nicht eigentlich pareto-optimal sind.

P1 = x∗ = (x∗1, x∗2) = (1, 0)

x = (1− z, z2), z ∈ (0, 1)

sind zulassig. Es ist

f1(x∗)− f1(x)

f2(x)− f2(x∗)=

1− (1− z)z2

=1

z−→z→0∞.

Wir lassen z gegen 0 gehen, damit x → x∗. Es wird jedes M uberschritten und daher giltP1 6∈ Xp−par.

P2 = (x+1 , x

+2 ) = x+ = (0, 1) und

x = (x1,√

1− x21), x1 < 1

sind zulassig. Es ist

f2(x+)− f2(x)

f1(x)− f1(x+)=

√1− x2

1 − 1

0− x1

limx1→0

√1− x2

1 − 1

0− x1= lim

x1→0

1√1−x21

(−2x1)

−1(l’Hospital)

= limx1→0

2x1√1− x2

1

→ 0

⇒ f2(x+)− f2(x)

f1(x)− f1(x+)→∞.

Es wird jedes M uberschritten und daher gilt P2 6∈ Xp−par.

Page 70: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 69

Satz 3.3.2. Geoffrion: Sei λi > 0 ∀i = 1, . . . Q,∑Q

i=1 = 1 und sei x∗ eine optimale Losungvon

minx∈X

{Q∑I=1

λifi(x)

},

dann ist x∗ eine eigentlich pareto-optimale Losung von

(X, f,RQ) | id | (RQ,≤).

Beweis: Wir zeigen zuerst, dass x∗ pareto-optimal ist.Annahme: x∗ ist nicht pareto-optimal.Dann ∃x ∈ X, i0 ∈ {1, . . . Q} : fi(x) ≤ fi(x∗) ∀i = 1, . . . Q, fi0(x) < fi0(x∗). Wir multiplizierendies mit den entsprechenden λi und summieren auf:

Q∑i=1

λifi(x) <

Q∑i=1

λifi(x∗).

Dies ist ein Widerspruch zur Optimalitat von x∗ ⇒ x∗ ist pareto-optimal.Wir zeigen x∗ ∈ Xp−par.Annahme: x∗ 6∈ Xp−par, das heißt ∀M > 0 ∃i, j ∈ {0, . . . Q} , ∃x ∈ X, sodass fur fi(x) <fi(x

∗) ∧ fj(x∗) < fj(x) folgt

fi(x∗)− fi(x)

fj(x)− fj(x∗)> M

fi(x∗)− fi(x) > M(fj(x)− fj(x∗). (3.3)

Sei

M := (Q− 1) max1≤i,j≤Q

λjλi≥ λjλi.

Setzen wir dies in 3.3 ein, so erhalten wir

fi(x∗)− fi(x) > (Q− 1) max

1≤i,j≤Q

λjλi

(fj(x)− fj(x∗)

fi(x∗)− fi(x) > (Q− 1)

λjλi

(fj(x)− fj(x∗) j 6= i. (3.4)

Wir multiplizieren mit λiQ−1 , Q ≥ 2 und summieren auf fur alle j 6= i:

Q∑j=1,j 6=i

λj(fj(x)− fj(x∗) <Q∑

j=1,j 6=i

λiQ− 1

(fi(x∗)− fi(x))

= (Q− 1)λi

Q− 1(fi(x

∗)− fi(x))

= λi(fi(x∗)− fi(x)) (3.5)

⇒Q∑

j=1,j 6=iλjfj(x) + λifi(x) < λifi(x

∗) +

Q∑j=1,j 6=i

λjfj(x∗)

⇒Q∑j=1

λjfj(x) <

Q∑j=1

λjfj(x∗).

Dies ist ein Widerspruch zur Optimalitat von x∗ ⇒ x∗ ∈ Xpar.

Page 71: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 70

2

Bemerkung. Die Bedingungen des vorhergehenden Satzes sind nicht notwendig. Wir zeigendies anhand des folgenden Beispiels.

Beispiel. f : R2 → R2, f = id(R2)P1 und P2 sind pareto-optimal und eigentlich pareto-optimal.

P

P

1

2

P

Wir suchen fur fixe λ1 > 0, λ2 > 0, λ1 + λ2 = 1

min(x1,x2)∈X

(λ1x1 + λ2x2).

fλ1λ2(x) := fλ1λ2(x1, x2)

= λ1x1 + λ2x2 = c c ∈ R

P1, P2 sind nach Geoffrion eigentlich pareto-optimal. P ∈ Xp−par aus geometrischen Uberlegungen.

Frage: Existieren (λ1, λ2), λ1, λ2 > 0, λ1 + λ2 = 1, sodass

P ∈ arg min(x1,x2)∈X

{λ1x1 + λ2x2}?

Das geht nicht, denn die Geraden konnten immer weiter geschoben werden. Problem ist dieNicht-Konvexitat der Menge (bzw. zulassigen Menge).

Satz 3.3.3. Geoffrion: Sei X ⊆ Rn konvex und fi : X → R konvex fur alle i = 1, . . . Q.Definiere A

◦als die Menge der inneren Punkte von A, dann ist

x∗ ∈ Xp−par fur (X, f,RQ) | id | (RQ,≤)

⇔ ∃λ ∈ (RQ+)◦, sodass x∗ ∈ arg min

x∈X

Q∑i=1

λifi(x).

(Die Bedingung∑Q

i=1 λi = 1 ist fur die Optimierung unerheblich und kann daher weggelassenwerden.)

Satz 3.3.4. X ⊆ Rn sei konvex und hi : Rn → R sein konvex. Wenn das System{hi(x) < 0 | i = 1, . . . Q} keine Losungen in X besitzt, dann existiert ein λi > 0, i ∈ {1, . . . Q}mit

∑Qi=1 λi = 1, sodass fur alle x ∈ X gilt

Q∑i=1

hi(x)λi ≥ 0.

Page 72: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 71

Beweis: Siehe [4].

Beweis: von Satz 3.3.3.

”=⇒ “: Satz 3.3.2

”⇐= “: x∗ ∈ Xp−par, dann ∃M > 0 : ∀i, j ∈ {1, . . . Q} , ∀x ∈ X fur die fi(x) < fi(x

∗), fj(x∗) <

fj(x) ist, gilt, dass

fi(x∗)− fi(x)

fj(x)− fj(x∗)≤M (3.6)

⇔ fi(x) +Mfj(x) ≥ fi(x∗) +Mfj(x∗) ∀i 6= j. (3.7)

Somit besitzen die Gleichungen fi(x) + Mfj(x) < fi(x∗) + Mfj(x

∗) ∀i 6= j keine zulassigenLosungen in X.Wende Satz 3.3.4 fur die Systeme

fi(x) < fi(x∗)

fi(x) +Mfj(x) < fi(x∗ +Mfj(x

∗) ∀i 6= j

(hi = fi(x)− f∗i (x) und

hj = fi(x)− f∗i (x) +M(fj(x)− fj(x∗)) sind konvex)

an.∃λij ∈ (RQ+)

◦mit

∑Qj=1 λ

ij = 1, sodass fur alle x ∈ X gilt∑

j 6=i[λijM(fj(x)− fj(x∗)) + λij(fi(x)− fi(x∗))] + λii(fi(x)− fi(x∗)) ≥ 0. (3.8)

Aus 3.8 folgt

Q∑j=1

λijfi(x) +∑j 6=i

λijMfj(x)−

Q∑j=1

λijfi(x∗) +M

∑j 6=i

λijfj(x∗)

≥ 0

fi(x) +M∑j 6=i

λijfj(x) ≥ fi(x∗) +M∑j 6=i

λijfj(x∗) ∀x ∈ X,∀i.

Wir summieren uber alle i und vertauschen anschließend die Indizes i und j:

Q∑i=1

fi(x) +M

Q∑i=1

∑j 6=i

λijfj(x) ≥Q∑i=1

fi(x∗) +M

Q∑i=1

∑j 6=i

λijfj(x∗)

Q∑i=1

(1 +M∑j 6=i

λji )fi(x) ≥Q∑i=1

(1 +M∑j 6=i

λji )fi(x∗).

Setze λi =(∑

j 6=i λji

)M + 1 > 0 und x∗ ∈ arg min

{∑λjfi(x) | x ∈ X

}.

2

Page 73: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 72

3.4 Die Skalarisierungsmethode

Wir betrachten das Pareto-MCOP (X, f,RQ) | id | (RQ, <).

Frage: Wann kann dieses Problem als skalarisiertes Problem min∑Q

i=1 λifi(x) gelost werden?

Sei λ ∈ RQ und

Opt(λ, Y ) := {y∗ ∈ Y | 〈λ, y∗〉 ≤ 〈λ, y〉 ∀y ∈ Y } ,

wobei 〈λ, y〉 =∑Q

i=1 λiyi ist. Wir definieren

S(Y ) :=⋃

λ∈(RQ)◦

Opt(λ, Y ),

S0(Y ) :=⋃

λ∈RQ\{0}

Opt(λ, Y )

und es gilt S(Y ) ⊆ S0(Y ).

Bemerkung. λ ∈ (RQ+)◦

bedeutet, dass λi 6= 0 ∀i und

λ ∈ RQ+ \ {0} bedeutet, dass λ 6= (0, 0 . . . 0), aber λ = (0, 1, 0 . . . 0, 1) erlaubt ist.

Beispiel.

Q = 2,

(f1(x1, x2), f2(x1, x2)) = (x1, x2),

Opt(λ, Y ) = {P1, P2}

P

P

1

2

Y=X

x

x

2

1

Definition 3.4.1. Y ⊆ R heißt RQ+-konvex, falls

Y + RQ+ :={y + d | y ∈ Y, d ∈ RQ+

}konvex ist.

Beispiel. Y ist nicht konvex, aber Y + RQ+ ist konvex ⇒ Y ist RQ+-konvex.

Page 74: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 73

Y

Satz 3.4.2. Es gilt S(Y ) ⊆ Yeff .

Beweis: Folgt direkt aus Satz 3.3.2, also

S(Y ) ⊆ f(Xp−par) ⊆ f(Xpar) = Yeff .

2

Satz 3.4.3. Es gilt Yeff ⊆ S0(Y ), falls Y RQ+-konvex ist.

Beweis: Sei y∗ ∈ Yeff , dann gilt wegen Lemma 3.1.7 y∗ ∈ (Y + RQ+)eff und daher

(Y + RQ+) ∩ (−RQ+) = {y∗}

(Y + RQ+ − y∗) ∩ (−RQ+) = {0} .

Sei S1 := Y + RQ+ − y∗. Dies ist konvex, da Y RQ+-konvex ist. Sei S2 := −RQ+ auch konvex.Sei RI. . . das relative Innere, dann gilt

RI(S1) ∩RI(S2) ⊆ S1 ∩ S2 = {0} .

Da 0 6∈ I(S2), gilt RI(S1) ∩RI(S2) 6= ∅. Der Seperationssatz impliziert ∃λ ∈ RQ \ {0} :

infz∈S1

〈λ, z〉 ≥ supz∈S2

〈λ, z〉 und

supz∈S1

〈λ, z〉 ≥ infz∈S2

〈λ, z〉.

Es gilt

infz∈S1

〈λ, z〉 = infy∈Y,d∈RQ

+

〈λ, y + d− y∗〉

≤ 〈λ, y∗ + 0− y∗〉 = 0

sup〈λ, z〉 ≤ inf〈λ, z〉 ≤ 0.

Falls λi0 < 0 ist, dann setze z = (0, . . . , −1︸︷︷︸i0

, 0, . . . 0). Dann ist

supz∈−RQ

+

〈λ, z〉 ≥ 〈λ, z〉

= −λi0 > 0.

Page 75: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 74

Dies ist ein Widerspruch und daher gilt λi ≥ 0 ∀i = 1, . . . Q.Fur alle y ∈ Y und alle d ∈ RQ+ gilt

〈λ, y + d− y∗︸ ︷︷ ︸∈S1

〉 ≥ infz∈S1

〈λ, z〉

≥ supz∈S2

〈λ, z〉 = 0,

da alle Komponenten von z kleinergleich 0 sind und eines gleich 0 ist. Die Ungleichung giltauch fur d = 0:

〈λ, y − y∗〉 ≥ 0 ∀y ∈ Y⇔ 〈λ, y〉 ≥ 〈λ, y∗〉 ∀y ∈ Y

⇒ y∗ ∈ Opt(λ, Y )

⇒ y∗ ∈ S0(Y ).

2

Satz 3.4.4. Sei {y∗} = Opt(λ, y) fur λ ∈ RQ+ \ {0}, dann gilt y∗ ∈ Yeff .

Beweis: HU durch Widerspruch

Bemerkung. Aus Satz 3.4.2 und Satz 3.4.3 folgt: S(Y ) ⊆ Yeff ⊆ S0(Y ) fur RQ+-konvexeMengen Y (fur zweite Inklusion). Die Inklusionen sind im Allgemeinen echt.

3.4.1 Die Skalarisierung und die schwache Effizienz

Satz 3.4.5. Es gilt S0(Y ) ⊆ Yw−eff .

Beweis: Sei λ ∈ RQ+ \ {0} mit λi ≥ 0 ∀i = 1, . . . Q und y∗ ∈ Opt(λ, y), dann gilt

Q∑i=1

λiy∗i ≤

Q∑i=1

λiyi ∀y = (yi) ∈ Y.

Annahme: y 6∈ Yw−eff , dann folgt

∃y′ ∈ Y : y′i < y∗i ∀i = 1, . . . Q

⇒∑

λiy′i <

∑λiy∗i .

Dies ist ein Widerspruch zu y∗ ∈ Opt(λ, y).

2

Satz 3.4.6. Sei Y RQ+-konvex, dann gilt S0(Y ) = Yw−eff .

Beweis: Mit Satz 3.4.5 bleibt nur Yw−eff ⊆ S0(Y ) zu zeigen. Sei y∗ ∈ Yw−eff , daraus folgt

@y′ ∈ Y : y′i < y∗i ∀i

⇒ @y′ + α ∈ Y + RQ+ : (y′ + α)i < y∗i ∀i

⇒ (Y + RQ+ − y∗) ∩ (−(RQ+)◦) = ∅.

Page 76: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 75

(Nimmt man an, dass (y′ + α− y∗i )i < 0, so gelangt man zu einem Widerspruch.)Aus dem Seperationssatz folgt

∃λ ∈ RQ \ {0} : 0 ≥ infz∈S1

〈λ, z〉 ≥ supz∈S2

〈λ, z〉. (3.9)

Zeige

infy∈Y〈λ, y + d− y∗〉 ≤ 〈λ, y∗ + 0− y∗〉 = 0.

Falls λi0 < 0 gelten wurde, setze z = (−ε,−ε, . . . ,−1,−ε, . . .− ε), sodass

〈λ, z〉 = −λi0 − ε∑i 6=i0

λi > 0

(wahlen die ε klein genug). Somit gilt λi ≥ 0 ∀i.Wir zeigen y∗ ∈ Opt(λ, y) (⇒ y∗ ∈ S0(Y )):

supz∈−(RQ

+)◦〈λ, z〉 = sup

z∈(RQ+)◦〈λ,−z〉 ≥ 0,

weil, wenn −ε < 0, dann gilt mit K die Anzahl der λi, die nicht 0 sind, dass

λ1z1 + . . . λQzQ ≥ −ε

λizi ≥ −ε

K

⇔ zi ≥ −ε

Kλi∀i : λi 6= 0

〈λ, y + 0− y∗〉 ≥ infz∈S1

〈λ, z〉

≥ sup . . . ≥ 0

⇒ 〈λ, y〉 ≥ 〈λ, y∗〉 ∀y ∈ Y.

2

Zusammenfassung:Skalarisiertes Problem =⇒ MCOP:x∗ ist optimal fur minx∈X

∑Qi=1 λifi(x) mit λ ∈ RQ.

1.) λ ∈ RQ+ \ {0} ⇒ x∗ ∈ Xw−par (Satz 3.4.6),

2.) λ ∈ (RQ+)◦ ⇒ x∗ ∈ Xpar (Satz 3.4.2),

3.) λ ∈ RQ+ \ {0} und x∗ eindeutig ⇒ x∗ ∈ Xs−par (Satz 3.4.4)

MCOP =⇒ Skalarisiertes Problem:X ist konvex und fi ist konvex fur alle i = 1, . . . Q. Sei x∗ ∈ Xw−par ⇒ ∃λ ∈ RQ+ \ {0} : x∗

optimal furminx∈X

∑Qi=1 λifi(x) (Satz 3.4.6).

Page 77: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 76

3.4.2 Die Skalarisierung und die eigentliche Pareto-Optimalitat

Satz 3.4.7. Sei Y RQ+-konvex, dann gilt Yp−eff ⊆ S(Y ).

Bemerkung. Wir wissen, dass S(Y ) ⊆ Yp−eff und somit folgt insgesamt S(Y ) = Yp−eff .

Beispiel.

Y = X ={

(x1, x2) ∈ R2 | x21 + x2

2 ≤ 1}

Xpar = Yeff

Yp−eff = Yeff \ {(−1, 0), (0,−1)}

x

xP

P

1

1

2

2

S(Y ) =⋃

λ∈(R2+)◦

Opt(λ, Y ),

P1 ∈ arg minz∈Y

〈 (1, 0)︸ ︷︷ ︸6∈(RQ

+)◦

, z〉,

P2 ∈ arg minz∈Y

〈 (1, 0)︸ ︷︷ ︸6∈(RQ

+)◦

, z〉

Wir wissen, dass fur beliebige Mengen Y

S(Y ) ⊆ Yp−eff ⊆ Yw−eff

und dass fur RQ+-konvexe Mengen Y

S(Y ) = Yp−eff ⊆ Yeff ⊆ Yw−eff = S0(Y ).

gilt.

Satz 3.4.8. Hartley, 1981: Sei Y 6= ∅,RQ+-konvex und RQ+-abgschlossen, dann gilt

S(Y ) ⊆ Yp−eff ⊆ Yeff ⊆ cl(S(Y )) = cl(Yp−eff ),

wobei cl(A) der Abschluss von A ist.Das heißt es ist Yeff \ Yp−eff ⊆ cl(Yp−eff ) \ Yp−eff (der Gap zwischen Yeff und Yp−eff istnicht beliebig groß, nur abhangig von Yp−eff ).

Page 78: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 77

3.5 Andere Methoden der Pareto-Optimierung

3.5.1 Die ε-Constraint-Methode

Idee: Ersetze minx∈X f1(x), . . . fQ(x) durch

(Pk(ε)) : min fk(x)

s.t.fi(x) ≤ εi ∀i 6= k

x ∈ X

Beispiel. εa = (ea1, ea2); εb = (eb1, e

b2)

(ya, yb Optimallosung)

f

f

1

2

yy

a

b

ea b e1 1

(P2(εa)) : min f2(x)

s.t. f1(x) ≤ ea1x ∈ X

(P2(εb)) : min f2(x)

s.t. f1(x) ≤ eb1x ∈ X

Satz 3.5.1. Sei x optimal fur Pk(ε) fur ein k ∈ {1, . . . Q} und ε ∈ RQ, dann gilt x ∈ Xw−par.

Beweis: Falls x 6∈ Xw−par, dann ∃x′ ∈ X : fi(x′) < fi(x) ≤ εi ∀i. Daraus folgt x′ ist zulassig

fur Pk(ε) und fk(x′) < fk(x) und somit ware x nicht optimal, weil x′ eine bessere Losung

ware. Widerspruch!

2

Satz 3.5.2. Sei x eindeutig optimal fur Pk(ε) fur k ∈ {1, . . . Q}, dann gilt x ∈ Xs−par.

Beweis: Annahme: x 6∈ Xs−par, das heißt ∃x ∈ X : fj(x) < fj(x) ∀j. Somit gilt fj(x) ≤fj(x) ≤ εj (da x optimal fur Pk(ε)) fur alle j 6= k und fur k gilt fk(x) < fk(x) ≤ εk. Dies istein Widerspruch zur Optimalitat von x fur Pk(ε).

Page 79: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 78

2

Satz 3.5.3. Sei x ∈ X. Dann gilt x ∈ Xpar ⇔ ∃ε ∈ RQ : x ist optimal fur Pk(ε) ∀k = 1, . . . Q.

Beweis:

”⇒ “: x ∈ Xpar.

Setze εj := fj(x) ∀j = 1, . . . Q.Annahme: x ist nicht optimal fur Pk(ε) ∀k = 1, . . . Q. Dann existiert ein x ∈ X :

fk(x) < fk(x),

fj(x) ≤ ε = fj(x) ∀j 6= k.

Daraus folgt x 6∈ Xpar. Widerspruch! Daher ist x optimal fur Pk(ε) ∀k = 1, . . . Q.

”⇐ “: ∃εj : x optimal fur Pk(ε) ∀k = 1, . . . Q.

Annahme: x 6∈ Xpar. Dann existiert ein x ∈ X, k ∈ {1, . . . Q} : fj(x) ≤ fj(x)(≤ εj), fk(x) <fk(x). x ist zulassig fur Pk(ε) wegen der ersten Ungleichung, aber x ist besser (wegen der 2.Ungleichung). Dies ist ein Widerspruch zur Optimalitat von x und somit folgt x ∈ Xpar.

2

Notationen.

Ek :={ε ∈ RQ | {x ∈ X | fj(x) ≤ εj ∀j 6= k} 6= ∅

},

Xk(ε) := {x ∈ X | x ist optimale Losung fur Pk(ε)}

∀ε ∈ E :=

Q⋂k=1

Ek gilt

Q⋂k=1

xk(ε) ⊆ Xpar ⊆⋃ε∈E

Q⋂k=1

xk(ε).

Dies folgt, da x optimal fur alle Pk(ε) ist und wegen Satz 3.5.3.Um zu prufen ob eine Losung pareto-optimal ist, kann man kontrollieren ob sie in

⋂Qk=1 xk(ε)

enthalten ist bzw. wenn man wissen will ob eine Losung nicht pareto-optimal ist, so uberpruftman ob diese in

⋃ε∈E

⋂Qk=1 xk(ε) enthalten ist.

Satz 3.5.4. Chankong und Haimes, 1983:

1.) Ist x optimal fur das skalarisierte Problem

minx∈X

Q∑i=1

λifi(x) mit λ ∈ (RQ+)◦,

dann existiert ein ε : x ist optimal fur Pk(ε) ∀k = 1, . . . Q.

2.) Wenn X konvex ist und fi : X → R auch konvex ist fur alle i, dann gilt, dass aus derOptimalitat von x fur Pk(ε) ∀k = 1, . . . Q folgt, dass ein λ ∈ RQ+ \ {0} existiert, fur das

x optimal fur minx∈X∑Q

i=1 λifi(x) ist.

Page 80: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 79

Daraus folgt, dass wenn wir es fur alle λ losen, es aquivalent dazu ist Pk(ε) fur alle ε zu losenund man kann jeweils das wahlen, was leichter ist.

Beweis:1.) x ist optimal fur das skalarisierte Problem minx∈X

∑Qi=1 λifi(x) mit λ ∈ (RQ+)

◦. Setze

ε := f(x). Es gilt fur alle x ∈ X

Q∑i=1

λi(fi(x)− fi(x)) ≥ 0.

Annahme: x ist nicht optimal fur Pk(ε).Dann existiert x ∈ X : fj(x) ≤ εj = fj(x) ∀j 6= k und fk(x) < fj(x). Daraus folgt

fj(x)− fj(x) ≤ 0 ∀j 6= k

fk(x)− fk(x) < 0

⇒∑j 6=k

λj(fj(x)− fj(x)) + λk(fk(x)− fk(x)) < 0,

was einen Widerspruch ergibt. Daher ist x optimal fur Pk(ε).2.) HU

2

Bemerkung. Fur weitere Informationen siehe [5].

3.5.2 Methode von Benson

Idee: Sei Q = 2. Falls x0 ∈ X (z.B. zufallig gewahlt), dann berechne eine Losung, die x0

dominiert als Losung des folgenden Problems

Pε(x0) : max

Q∑i=1

εi

s.t. fi(x0)− εi − fi(x) = 0

ε ≥ 0

x ∈ X.

Dies ist das Benson-Problem. Die Restriktionen sind aquivalent zu fi(x0) − fi(x) = εi ≥ 0.Wir wollen das Maß der Verbesserung maximieren.

Satz 3.5.5. x0 ∈ Xpar ⇔ der optimale Wert von Pε(x0) ist 0 (kann nichts verbessern).

Beweis: HU

Satz 3.5.6. Angenommen Pε(x0) ist beschrankt und besitzt eine optimale Losung (x∗, ε∗),dann gilt x∗ ∈ Xpar.

Page 81: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 80

Beweis: Annahme: x∗ 6∈ Xpar ⇒ ∃x ∈ X : fi(x) ≤ fi(x∗), fq(x) < fq(x

∗) fur ein q ∈{1, . . . Q}. Weil fi(x0) − fi(x∗) = ε∗ ≥ 0 ist (da (x∗, ε∗) zulassig ist fur Pε(x0) ), folgt, auch,dass εi = fi(x0)− fi(x) ≥ 0 gilt und dass (x, ε) zulassig fur Pε(x0) ist.Es gilt

εi = fi(x0)− fi(x)

= fi(x0)− fi(x∗)︸ ︷︷ ︸ε∗i

+ fi(x∗)− fi(x)︸ ︷︷ ︸

≥0,>0 fur i=q

.

Daraus folgt, dass der Zielfunktionswert von Benson fur (x, ε) großer ist als fur (x∗, ε∗) unddies ist ein Widerspruch zur Optimalitat von (x∗, ε∗).

2

Satz 3.5.7. Sei X konvex und fi : X → R konvex fur alle i = 1, . . . Q. Falls Pε(x0) keinenendlichen optimalen Wert besitzt (unbeschrankt), dann gilt Yp−par = ∅.

Beweis: Pε(x0) ist unbeschrankt

⇒ ∀M ≥ 0 ∃x ∈ X : εi = fi(x0)− fi(x) ≥ 0 ∀i

und

Q∑i=1

εi > M. (3.10)

Annahme: ∃x∗ ∈ Xp−par3.3.3⇔ ∃λ ∈ (RQ+)

◦: x∗ ist optimal fur minx∈X

∑Qi=1 λifi(x)

⇒Q∑i=1

λi(fi(x)− fi(x∗)) ≥ 0 ∀x ∈ X

⇒Q∑i=1

λi(fi(x0)− fi(x∗)) ≥ 0.

Setze λm = min1≤i≤Q λi > 0 und fur ein beliebiges m > 0 setze M := Mλm

.

Aus 3.10 finden wir auch fur M ein x ∈ X mit fj(x0)− fj(x) ≥ 0. Es ist

λm

Q∑i=1

(fi(x0)− fi(x)) > λm · M = M

⇒M <

Q∑i=1

λm(fi(x0)− fi(x))

≤Q∑i=1

λi(fi(x0)− fi(x)) ∀M ∈ R+.

Page 82: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 81

Letzteres gilt auch fur M :=∑Q

i=1 λi(fi(x0)− fi(x∗)) ≥ 0. Daraus folgt

Q∑i=1

λi(fi(x0)− fi(x∗)) <Q∑i=1

λi(fi(x0)− fi(x))

Q∑i=1

λifi(x∗) >

Q∑i=1

λifi(x)

und dies ist ein Widerspruch zur Optimalitat von x∗. Somit gilt 6 ∃x∗ ∈ Xp−par ⇒ Xp−par = ∅.

2

Korollar 3.5.8. Sei X ⊆ Rn konvex und fi : X → R konvex fur alle i und sei f(X) = YRQ+-abgeschlossen, dann gilt, dass aus Pε(x0) unbeschrankt folgt, dass Xpar = ∅.

Beweis: Aus Satz 3.4.8 folgt

S(Y ) ⊆ Yeff ⊆ cl(S(Y )) = cl(Yp−eff )

und aus Satz 3.5.7 folgt, dass

Xp−par = ∅ ⇒ Yp−eff = f(Xp−par) = ∅

und somit

Yeff ⊆ ∅ ⇒ Yeff = ∅ = f(Xpar)⇒ Xpar = ∅.

2

Beispiel. Wiecek, 1995

(X, f,RQ) | id | (RQ, <),

Q = 2,

X = [−100,∞)

f1 : x 7→ x2 − 4

f2 : x 7→ (x− 1)4

Benson-Problem:

Pε(x0) max ε1 + ε2

s.t. x0 ≥ −100

ε1, ε2 ≥ 0

x20 − 4− x2 + 4− ε1 = 0

(x0 − 1)4 − (x− 1)4 − ε2 = 0

Page 83: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 82

1.) x0 = 0 (zulassig)

Pε(0) max ε1 + ε2

s.t. 0 ≥ −100

ε1, ε2 ≥ 0

− x2 − ε1 = 0⇒ −x2 = ε1 > 0⇒ x = 0, ε1 = 0

1− (x− 1)4 − ε2 = 0⇒ 1− 1− ε2 = 0

Das heißt, dass die einzige Losung (0, (0, 0)) ist und ⇒ x = 0 ∈ Xpar (Satz 3.5.5).2.)x0 = 2: Man kann berechnen (Matlab), dass x0 = 2 von x = 0.410 dominiert wird, womitfolgt, dass x = 0.410 ∈ Xpar (Satz 3.5.6).

3.5.3 Methode des Compromise Programming (CP)

Definition 3.5.9. Sei (X, f,RQ) | id | (RQ, <) ein Pareto-Optimierungs-Problem und seiXpar 6= ∅ (Yeff 6= ∅). Ein Punkt y0 ∈ RQ mit yi = infx∈X fi(x) ∀i = 1 . . . Q heißt idealerPunkt.

y0

y

y

1

2

Bemerkung. Ein idealer Punkt ist nicht unbedingt zulassig.

Idee: Man versucht dem Punkt y0 so nahe wie moglich zu kommen, das heißt wir suchen

(CPP ) minx∈X

d(f(x), y0),

wobei d eine Metrik in RQ ist.

Bemerkung. Wir betrachten nur Metriken, die von Normen in RQ abgeleitet werden, dasheißt d(a, b) = ‖a− b‖ ∀a, b ∈ RQ und ‖ · ‖ : RQ → RQ ist eine Norm.

Definition 3.5.10. Fur alle c ∈ R+ heißt Yc ={y ∈ Y | d(y, y0) ≤ c

}die Niveaumenge um

y0 mit Parameter c.

Definition 3.5.11. Eine Norm ι : RQ → R+ heißt monoton, falls fur alle a, b ∈ R mit| ai |≤| bi | (| ai |<| bi |) die Ungleichung ‖a‖ ≤ ‖b‖ (‖a‖ < ‖b‖) gilt.Eine Norm ι : RP → R+ heißt streng monoton, falls fur alle a, b ∈ R mit | ai |≤| bi | unda 6= b die Ungleichung ‖a‖ < ‖b‖ impliziert wird.

Page 84: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 83

Beispiel. Lp(a) := (∑Q

i=1 api )

1p , 1 ≤ p ∈ R

Lp ist streng monoton fur alle p. Uberprufung HU.L∞(a) := max1≤i≤Q | ai | ist monoton, aber nicht streng monoton. Uberprufung HU.

Satz 3.5.12. Es gelten folgende 2 Punkte:

1.) Sei ‖ · ‖ eine monotone Norm in RQ und x eine optimale Losung vonCP (minx∈X ‖f(x) − y0‖). Dann gilt x ∈ Xw−par. Falls x eindeutig optimal, dann giltx ∈ Xpar.

2.) Falls ‖ · ‖ streng monoton ist, dann gilt: x ist optimal fur CP ⇒ x ∈ Xpar.

Beweis:1.) Sei x optimal fur CP und x nicht aus Xw−par⇒ ∃x ∈ X : fi(x) < fi(x) ∀i = 1, . . . Q da monoton⇒ ‖f(x)− y0‖ > ‖f(x)− y0‖.Widerspruch zur Optimalitat von x!Sei x eindeutig optimal und x nicht aus Xpar

⇒ ∃x ∈ X : fi(x) ≤ fi(x) und fq(x) < fq(x), q ∈ {1, . . . Q}⇒ ‖f(x)− y0‖ ≥ ‖f(x)− y0‖⇒ x optimal fur CP .⇒ Widerspruch zur Eindeutigkeit von x2.) Annahme: x 6∈ Xpar ⇒ ∃x ∈ X : fi(x) ≤ fi(x) und fq(x) < fq(x), q ∈ {1, . . . Q}⇒ ‖f(x)− y0‖ > ‖f(x)− y0‖⇒ Widerspruch zur Optimalitat von x.

2

Notationen. a� b = (a1 · b1, . . . , aQ · bQ)

Wir betrachten das gewichtete CP-Problem fur W ∈ (RQ+)◦(wi > 0 ∀i) mit

∑Qi=1wi = 1 und

ein 1 ≤ p ∈ R (bzw. p =∞):

CPwp minx∈X

(Q∑i=1

(wi(fi(x)− y0i ))

p

) 1p

= minx∈X

Lp(w � (f(x)− y0))

CPw∞ minx∈X

max1≤i≤Q

(wi(fi(x)− y0i )) = min

x∈XL∞(w � (f(x)− y0))

Bemerkung. Fur p = 1 ist Cwp=1 das skalarisierte Problem.

Satz 3.5.13. Sei x fur p <∞ eine optimale Losung von CPwp . Wenn die Bedingung, dass xeine eindeutig optimale Losung fur CPwp ist, erfullt ist, dann gilt x ∈ Xpar.

Beweis: Annahme: x 6∈ Xpar ⇒ ∃x ∈ X : fi(x) ≤ fi(x) ∀i 6= q, fq(x) < fq(x). Daraus folgt

((fi(x)− y0i )wi)

p ≤ ((fi(x)− y0i )wi)

p ∀i, (fur i = q :”< “)

(Q∑i=1

((fi(x)− y0i )wi)

p

) 1p

<

(Q∑i=1

((fi(x)− y0i )wi)

p

) 1p

.

Dies ist ein Widerspruch zur Optimalitat von x fur CPwp .

Page 85: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 84

2

Bemerkung. Wir brauchen die Eindeutigkeit nur fur den Fall, dass man wi ≥ 0 fur CPwpzulasst. Fur wi > 0 kann die Eindeutigkeit auch weggelassen werden

Satz 3.5.14. Sei wi > 0 ∀i = 1, . . . Q, p =∞, dann gilt:

1.) Ist x optimal fur CPw∞ ⇒ x ∈ Xw−par.

2.) Falls Xpar 6= ∅ und CPw∞ eine optimale Losung besitzt, dann existiert x fur CPw∞ mitx ∈ Xpar. Falls mehrere optimale Losungen existieren, dann gibt es darunter mindestenseine pareto-optimale Losung.

3.) Falls Xpar 6= ∅ und CPw∞ eine eindeutig optimale Losung x besitzt, dann gilt x ∈ Xpar.

Beweis:1.) Ist analog zu den vorherigen Beweisen sehr einfach.2.) Sei x eine optimale Losung von CPw∞. Es gilt fur alle x ∈ X

fi(x)− y0i ≥ fi(x)− fi(x) (da fi(x)− y0

i ≥ 0)

⇒Q∑i=1

fi(x)− y0i ≥

Q∑i=1

fi(x)− fi(x) ∀x ∈ X

⇒Q∑i=1

fi(x)− y0i ≥

Q∑i=1

εi.

⇒ Benson-Problem Pε(x) ist beschrankt.⇒ ∃ optimale Losung x fur Pε(x).⇒ x ∈ Xpar nach Satz 3.5.6.Es gilt

fi(x) ≤ fi(x) ∀i⇒ wi(fi(x)− y0

i ) ≤ wi(fi(x)− y0i ) ∀i

⇒ max1≤i≤Q

wi(fi(x)− y0i ) ≤ max

1≤i≤Qwi(fi(x)− y0

i ) ∀i.

⇒ x ist optimal fur CPw∞ mit x ∈ Xpar.3.) Folgt aus 2.).

2

Satz 3.5.15. Chao, Aktins, 1983: Ein zulassiges x ∈ X ist schwach pareto-optimal ⇔ ∃w ∈(RQ+)

◦, sodass x optimal fur CPw∞ ist.

Beweis:

”⇐“: Satz 3.5.14 1.)

”⇒“: Sei x ∈ Xw−par. Wir definieren passende wi, sodass x optimal fur

CPw∞ : wi :=1

fi(x)− y00i

> 0,

Page 86: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 85

wobei y00i := y0

i − ε, ε > 0 beliebig ( y00 . . . utopischer Punkt, wird von Zielfunktion nieerreicht).Annahme: x ist nicht optimal fur CPw∞ mit y00, also fur minx∈X max1≤i≤Qwi(fi(x)− y00

i )⇒ ∃x zulassig, sodass

max1≤i≤Q

wi(fi(x)− y00i ) < max

1≤i≤Qwi(fi(x)− y00

i )

= max1≤i≤Q

wi(fi(x)− y00i )

wi(fi(x)− y00i )

= 1

⇒ wi(fi(x)− y00i ) < 1

⇒ fi(x)− y00i <

1

wi= fi(x)− y00

i

⇒ fi(x) < fi(x).

Dies ist ein Widerspruch zu x ∈ Xw−par ⇒ x ist optimal.

2

Bemerkung. • Mit Satz 3.5.15 haben wir eine komplette Charakterisierung von

Xw−par =⋃

w∈(RQ+)◦

{x ∈ X | x optimal fur CPw∞} .

Eine Charakterisierung fur Xpar ist nicht bekannt.

• Die Satze 3.5.12-3.5.14 gelten auch, falls die vorkommenden CP -Probleme mit y00 statty0 definiert werden.

• Wenn in Satz 3.5.15 der utopische Punkte y00 durch y0 ersetzt wird , so gilt die Aussagenicht mehr. Es gilt nicht ein mal

Yp−eff ⊂⋃

w∈(RQ+)◦ )

{x ∈ X | x optimal fur CPw∞} .

Hauptergebnis des Abschnitts(Analog zum Satz von Hartley fur die Skalarisierungsmethode)Y 6= ∅, Y RQ+-konvex, Y RQ+-abgeschlossen⇒ S(Y ) ⊆ Yeff ⊆ cl(S(Y )).Sei

W0 :=

{w ∈ RQ | wi > 0,

Q∑i=1

wi = 1

}

W :=

{w ∈ RQ | wi ≥ 0,

Q∑i=1

wi = 1

}.

Fur alle w ∈W, ∀y ∈ Y betrachte w � y. Fur alle w ∈W, ∀p ∈ [1,∞) sei

A(w, p, Y ) =

{y ∈ Y | Lp(w � (y − y00)) = min

y∈YLp(w � (y − y00))

},

A(Y ) =⋃

w∈W0

⋃1≤p≤∞

A(w, p, Y ).

Page 87: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 86

Satz 3.5.16. Sawaragi, Nakayama, Tanino, 1985: Sei Y 6= ∅ RQ+-abgeschlossen, dann gilt

A(Y ) ⊆ Yp−eff ⊆ Yeff ⊆ cl(A(Y )).

Eigenschaften der Lp-Normen: (sind wichtig fur den Beweis)

(E1) L∞(y) ≤ Lp(y) ∀y ∈ RQ,

(E2) limp→∞ Lp(y) = l∞(y) ∀y ∈ RQ und

(E3) lp ist strikt monoton fur p <∞, L∞ ist monoton.

Bemerkung. Satz 3.5.16 gilt fur jedes System von Normen (Li)i∈N, das die Eigenschaften(E1)-(E3) erfullt.

Beispiel. Yeff ⊆ cl(A(Y )) kann echt sein:

y1

y2

-1

1

Y ={y ∈ R2 | y2

1 + (y2 − 1)2 ≤ 1}∪{y ∈ R2 | y1 ≥ 0, y2 ≥ −1

}Y ist abgeschlossen und nicht RQ+-konvex. Wir sehen (0, 0) 6∈ Yeff und (0, 0) ∈ cl(A(Y )).Fur alle y ∈ Yeff mit y2 < 1, y1 > 0 gibt es (w1, w2) : w1, w2 > 0, w1 +w2 = 1 und ein p ∈ N,sodass (y1, y2) optimal sind fur

miny∈Y

Lp(w � (y − y00)),wobei

y00 = (−1,−1)− (ε, ε) = −(1 + ε, 1 + ε).

1.) p = 4⇒ L4(w � (y − y00)) := gw1,w2(y1, y2)

2.) H(gw1,w2) Hessematrix positiv definit → ∂g∂w1

!=0, ∂g

∂w2

!=0

⇒ y1 = f1(w1, w2) = y∗1

y2 = f2(w1, w2) = y∗2

⇒ A(Y ) = Yeff \ {0,−1}⇒ (0, 0) ∈ cl(A(Y ))

Page 88: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 87

Beispiel. Pareto-Optimierung mit 2 Zielfunktionen:

X = [−100,∞)

f1(x) = x2 − 4

f2(x) = (x− 1)4.

Wir zeigen Xpar = [0, 1]. Man erhalt als Losung von CP

w = (1

2,1

2)

p = 2

und es ist

y0 = (minx∈X

x2 − 4,minx∈X

(x− 1)4)

y0 = (−4, 0) idealer Punkt

y00 = (−5,−1) utopischer Punkt (z.B.)

CPw2 : minx∈X

√(x2 − 4 + 5)2 · 1

4+ ((x− 1)4 + 1)2 · 1

4

⇔minx∈X

(x2 + 1)2 + ((x− 1)4 + 1)2 = minx∈X

g(x)

g′(x) = 2(x2 + 1) · 2x+ 2((x− 1)4 + 1) · 4(x− 1)3 = 0

⇔ x∗ = 0.40563 (g′′ > 0 Konvexitat)

⇒ x∗ ∈ Xpar nach Satz 3.5.13.

Wir wissen A(Y ) ⊆ Yeff ⊆ cl(A(Y )) und wir zeigen noch A(Y ) = f([0, 1])(= cl(A(Y ))).Damit folgt dann insgesamt, dass

Yeff = f([0, 1])

Xpar = [0, 1].

A(Y ) = f([0, 1]): Es ist

CPwp : minx∈[−100,∞)

(wp1(x2 + 1)p + wp2((x− 1)4 + 1)p)1p

⇔ minx∈[−100,∞)

wp1(x2 + 1)p + wp2((x− 1)4 + 1)p = min g(x,w1, w2, p)

g′w1,w2,p(x) = wp1 · p(x2 + 1)p−1 · 2x+ wp2p((x− 1)4 + 1)p−14(x− 1)3

g′′w1,w2,p(x) = . . . ≥ 0.

⇒ g ist konvex fur alle w1 > 0, w2 > 0, p ≥ 1. Wir setzen g′ = 0 und erhalten somit

−wp1

wp2=

2(x− 1)3((x− 1)4 + 1)p−1

x(x2 + 1)p−1=: h(x)

sgn(h(x)) = sgn(x− 1)3

x= −1

⇒ x ∈ [0, 1]

⇒ A(Y ) ⊆ f([0, 1]).

Page 89: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 88

3.6 Multikriterielle lineare Optimierung

Gegeben:

X = {x ∈ Rn | Ax = b, x ≥ 0} ,A ∈ Rm×n, Rg(A) = m,n ≥ m,b ∈ Rm

Zielfunktionen: fi : Rn → R : x 7→ (c(i))Tx(X,C,RQ) | id | (Rd,≤) Pareto-OptimierungC ∈ RQ×n, Y = f(X) = {Cx | x ∈ X}, Y abgeschlossen und konvex,

C =

(c(1))T

(c(2))T

·(c(Q))T

Alternative Schreibweise:

MCLP minCx

s.t. Ax = b

x ≥ 0

Folgerung: Aus dem Existenzsatz uber MCOPs folgt:Falls Y 6= ∅ und ∃x ∈ RQ : Cx = Y ⊂ y + RQ+, dann gilt Yeff 6= ∅.Begrundung: Aus obigem folgt, dass Y nach unten beschrankt ist. Sei

Y 0 ={y ∈ Y | y ≤ y0

}∀y0 ∈ Y.

Existenzsatz: ∃y0, Y 0 kompakt ⇒ Yeff 6= ∅.Da

Y 0 = Y ∩ (y0 − RQ+)

und Y und y0 − RQ+ abgeschlossen sind, folgt, dass Y 0 abgeschlossen ist. Des weiteren gilt

Y 0 ⊂ Y ist nach unten beschrankt und Y 0 ⊆ (y0−RQ+) ist nach oben beschrankt, also ist Y 0

beschrankt. Insgesamt folgt damit, dass Y 0 kompakt ist und daraus, dass Yeff 6= ∅.

Anwendung vom Satz von Hartley:S(Y ) = Yp−eff ⊆ Yeff ⊆ cl(S(Y ))Wir zeigen noch S(Y ) = Yeff gilt fur MCLP .

Lemma 3.6.1. Fur x0 ∈ X gilt x0 ∈ Xpar ⇔

(P ) max eT y

s.t. Ax = b

Cx+ Iy = Cx0

x, y ≥ 0

mit e = (1, . . . 1)(Q mal) und I ∈ RQ×Q die Einheitsmatrix eine optimale Losung (x, y) mity = (0, . . . 0) besitzt.

Page 90: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 89

Bemerkung. Dies ist eine Umformung von Benson. Die erste Restriktion entspricht derZulassigkeit und die zweite entspricht fi(x)− fi(x0) + ε0 = 0(εi = yi).

Lemma 3.6.2. Fur x0 ∈ X gilt x0 ∈ Xpar ⇔

(D) minuT b+ wTCx0

s.t. uTA+ wTC ≥ 0

w ≥ e

eine optimale Losung (u, w) mit uT b+ wTCx0 = 0 besitzt.

Beweis: Folgt direkt aus dem starken Dualitatssatz der linearen Optimierung.

2

Satz 3.6.3. Isermann, 1947: Es gilt

Yp−eff = S(Y ) = Yeff , das heißt

x0 ∈ Xpar ⇔ ∃λ ∈ (RQ+)◦

: λTCx0 ≤ λTCx ∀x ∈ X

gilt.

Beweis: S(Y ) ⊆ Yeff gilt fur MCLP (Hartley). Wir zeigen Yeff ⊆ S(Y ).Sei x0 ∈ Xpar (y = Cx0 ∈ Yeff ). Aus Lemma 3.6.2 folgt, dass eine optimale Losung (u, w)fur (D) existiert

uT b+ wTCx0 = 0 (3.11)

⇒ uT b = −wTCx0.

⇒ u ist optimal fur

(P2) min{uT b | uTA ≥ −wTC

}.

Begrundung: Es ist zulassig, da (u, w) zulassig fur (D) ist(⇒ uTA+ wTC ≥ 0). Es ist noch die Optimalitat zu zeigen.Falls ein u existiert, sodass

uT b > uT b = uTAx ≥ wTCx ∀x ∈ X

gilt, dann folgt uT b > −wTCx0 fur x0 und dies ist ein Widerspruch zu 3.11 daher ist uoptimal.Sei (D2) das duale Problem zu (P2):

(D2) : max{−wTCx | Ax = b, x ≥ 0

}.

Aus der schwachen Dualitat folgt, dass uT b ≥ −wtCx ∀u zulassig fur (P2) ist und fur alle xzulassig fur (D2) ist.Zudem gilt 3.11, woraus wegen der starken Dualitat folgt, dass x0 optimal fur (D2) ist. (D2)ist aquivalent zu

minx∈X

Q∑i=1

wi(c(i))Tx

wi ≥ ei = 1,

das heißt x0 ∈ Opt(w) ⊆ S(Y ).

2

Page 91: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 90

3.6.1 Parametrische lineare Optimierung

Gegeben:

A ∈ Rm×n, Rg(A) = m,

b ∈ Rm,

c(1), c(2) ∈ Rn,

c(λ) = λc(1) + (1− λ)c(2)

und

PLP min c(λ)Tx

s.t. Ax = b

x ≥ 0

Ansatz zur Losung: modifiziertes Simplexverfahren

• Phase 1: Uberprufung der Zulassigkeit: ob X ={x ∈ Rn+ | Ax = b

}= ∅.

• Phase 2: Falls X 6= ∅, dann lose LP (λ = 1) (fur jedes λ ∈ [0, 1] entsteht ein linearesProgramm → LP (λ)). Sei B0(X0) eine optimale Basis (optimale Basislosung).

• Phase 3: Variiere λ von 1 bis 0, lose die dazugehorigen linearen Programme neu, sobaldeine Variation von λ die Optimalitat der vorherigen Losung zerstort.

Es ist

A = ( B0︸︷︷︸Basis

| N0︸︷︷︸Nichtbasis

)

B0x0B +N0x0

n︸ ︷︷ ︸=0

= b

⇒ x0B = (B0)−1b.

Seien c(λ) die reduzierten Kosten, dann gilt

c(λ)T = c(λ)T − cB(λ)TB−1A

⇒ c(λ) = λc(1) + (1− λ)c(2).

Das Optimalitatskriterium ci ≥ 0 gilt genau dann, wenn B eine optimale Basis ist. Zudem istB0 optimal fur LP (λ) ⇔ c(λ) ≥ 0.Fall 1: c(2) ≥ 0, dann ist c(λ) ≥ 0⇒ x0 ist optimal fur alle λ ∈ [0, 1].

Fall 2: ∃j ∈ {1, . . . n} : c(2)j < 0. Fur alle j = 1, . . . n ist

λc(1)j + (1− λ)c

(2)j = cj(λ)

und falls c(2)j < 0, dann ist

λc(1)j + (1− λ)c

(2)j = 0, wenn

λ =−c(2)

j

c(1)j − c

(2)j

=: αj .

Page 92: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 91

Fur alle λ ≶ αj gilt c(λ) ≶ 0.Setze

λ(1) := max{αj | j ∈ {1, . . . n} , c(2)

j < 0}

und suche die optimalen Losungen fur λ < λ(1). Pivotiere an Zelle (i′, j′), wobei

j′ ∈ arg max{αj | j ∈ {1, . . . n} , c(2)

j < 0}

i′ ∈ arg min

{biaij′| j′ ∈ {1, . . .m} , aij′ > 0

}.

Die neue Basis B1 und die neue Basislosung x1 ist optimal fur LP (λ(1)) und λ < λ(1), sodass

c(λ) = λc(1) + (1− λ)c(2) ≥ 0,

wobei diese reduzierten Kosten bzgl. B1 berechnet werden.

Bemerkungen. zu PLP

• PLP ist die Skalarisierung von MCLP . C ∈ R2×n,

C =

(c(1)

c(2)

)minCx

s.t. Ax = b

x ≥ 0

Mit Isermann gilt S(Y ) = Yeff . Die Losungen (0, 1) und (1,0) (λ = 0, bzw. λ =

1) mussen nicht pareto-optimal sein, weil (1, 0), (0, 1) 6∈ (RQ+)◦. Um pareto-optimale

Losungen zu bekommen, losen wir folgende 2 linearen Programme

λ = 1 : min(c(1))Tx

s.t. Ax = b

x ≥ 0

(c(2))Tx ≥ (c(2))Tx(1),

λ = 2 : min(c(2))Tx

s.t. Ax = b

x ≥ 0

(c(1))Tx ≥ (c(1))Tx(2),

wobei x(2) eine optimale Losung von LP (0) und x(1) eine optimale Losung von LP (1)ist.

Page 93: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 92

• Y = CX,

X = {x ∈ Rn | Ax = b, x ≥ 0} ,

Yeff =

p⋃i=1

conv(Cx(i−1), Cx(i))

Yeff ⊆ Rd(Y ), x(i) ist die optimale Losung von LP (λ(i)) fur alle i. p ist die Anzahl derIterationen. x(i+1) ist auch eine optimale Losung von LP (λ(i+1)), da an den Sprung-punkten beide optimal sind.

Satz 3.6.4. Der optimale Zielfunktionswert f(λ) von PLP ist stetig, stuckweise linear undkonkav auf [0, 1] (bei Maximierungsproblemen konvex).

Beweis: Siehe [6].

Korollar 3.6.5. Der Simplexalgorithmus zur Losung von PLP terminiert nach endlich vielenSchritten.

Beweis: Die Anzahl der Ecken den Polyeders {x ∈ Rn | Ax = b, x ≥ 0} ist endlich. Auf Grundvon Satz 3.6.4 kann jede Basislosung fur hochstens 2 der Probleme LP (λ(i)), 0 ≤ i ≤ p alsoptimale Losung dienen.

2

Beispiel.

min c(λ)x

s.t. x2 ≤ 3

3x1 − x2 ≤ 6

x1, x2 ≥ 0

c(1) = (3, 1)

c(2) = (−1,−2)

Fur λ = 1 erhalt man min 3x1 + x2 mit x ∈ X als Zielfunktion. Es ergibt sich folgendesTableau:

-1 -2 0 0 03 1 0 0 0

0 1 1 0 33 -1 0 1 6

Losung: x1 = 0, x2 = 0

λ(1) = max

{1

3 + 1,

2

1 + 2

}=

2

3

j′ = 2

-1 0 2 0 63 0 -1 0 -3

0 1 1 0 33 0 1 1 9

Page 94: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 93

x1 = 0, x2 = 3, J = {1} , j′ = 1

0 0 73

13 9

0 0 -2 -1 -12

0 1 1 0 31 0 1

313 3

J = ∅, (3, 3) ist optimal fur 0 ≤ λ ≤ 14

3.6.2 Theorie der MCLP

Sei

A ∈ Rm×n, Rg(A) = m ≤ n,b ∈ Rm,C ∈ RQ×n

X = {x ∈ Rn | Ax = b, x ≥ 0} .

und

minCx

s.t. Ax = b

x ≥ 0

Das skalarisierte Problem mit Gewichtungsvektor λ, λ ∈ (RQ+)◦

ist

LP (λ) minλTCx

s.t. x ∈ X

C = C − CBB−1A sind die reduzierte Kosten bzgl. Basis B, R bezeichnet den Nichtbasisteilvon C, CB ist der Basisteil von C.

Lemma 3.6.6. xpar 6= ∅ ⇔ X hat einen pareto-optimalen Extrempunkt (Ecke des PolyedersX).

Definition 3.6.7. Eine Basis B (B ∈ Rm×m, basisregulare Teilmatrix von A) heißt effizient,wenn B eine optimale Basis fur ein LP (λ) mit λ ∈ (RQ+)

◦ist.

Lemma 3.6.8. Sei B eine effiziente Basis und xB der dazugehorige Extrempunkt, dann giltxB ∈ Xpar.Ist x ∈ Xpar ein Extrempunkt, dann existiert eine effiziente Basis B, sodass x der dazugehorigePunkt ist (xi = 0 fur i 6∈ B, x = B−1b fur den Basisteil).

Definition 3.6.9. Ein Pivot heißt zulassig, wenn die Losung nach diesem Pivot zulassig ist.Zwei Basen heißen adjazent, wenn B von B durch einen einzigen Pivotschritt erhalten wird.Sei B eine effiziente Basis, dann heißt xj effiziente Nichtbasisvariable, wenn ein λ ∈ (RQ+)

existiert, sodass λTR ≥ 0 und λT r(j) = 0, wobei r(j) die j-te Spalte von R ist.Sei B eine effiziente Basis und xj eine effiziente Nichtbasisvariable bzgl. B. Ein zulassigerPivotschritt mit xj als neuer Basisvariable heißt effizienter Pivotschritt bzgl. B und xj .

Page 95: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 94

Lemma 3.6.10. Sei B eine effiziente Basis und xj eine effiziente Nichtbasisvariable bzgl. B.Jeder Pivotschritt bzgl. B und xj fuhrt zu einer neuen effizienten Basis B′ (adjazent zu B).

Bemerkung. Das System λTR ≥ 0, λT rj = 0 ist die allgemeine Form der Gleichungen, diezur Bestimmung der

”relevanten “ Werte von λ verwendet werden.

Wenn xB und xB pareto-optimale Losungen sind, die zu den effizienten Basen B und B assozi-iert werden, dann sind xB und xB die optimalen Losungen desselben LP (λ) und conv(xB, xB) ⊆Xpar (konvexe Kombinationen).

Frage: Wie uberprufen wir, ob xj bzgl. einer effizienten Basis B eine effiziente Nichtbasisva-riable ist?

Satz 3.6.11. Evans, Steuer, 1973: Sei B eine effiziente Basis und xj eine Nichtbasisvariable.Alle zulassigen Pivots mit xj als neue Basisvariable sind effizient ⇔ die linearen Programme

max{eT v | Ry − rjδ + Iv = 0 : y, δ, v ≥ 0

}einen optimalen Wert gleich 0 besitzen.

Bemerkung. Dieses lineare Programm ist entweder unbeschrankt oder es ist beschrankt undhat als optimalen Wert 0. Im unbeschrankten Fall ist xj keine effiziente Nichtbasisvariable.

Satz 3.6.12. Steuer, 1985: Alle effizienten Basen sind zusammenhangend, das heißt man kannvon jeder effizienten Basis zu jeder anderen effizienten Basis durch eine Reihe von zulassigenPivots kommen.

3.6.3 Ein multikriterieller Simplex-Algorithmus

Fur ein MCLP gibt es 3 Falle

1.) MCLP unzulassig, d.h. X = ∅,

2.) Xpar = ∅ und X = ∅ und

3.) Xpar 6= ∅.

Phase 1: Bestimme einen 1. Extrempunkt (zulassige Basis) oder terminiere mit X = ∅.Die Zielfunktion ist irrelevant. (Dies entspricht der Phase 1 des herkommlichen Simplex-Algorithmus.)Phase 2: Bestimme einen pareto-optimalen Extrempunkt (effiziente Basis) oder terminieremit Xpar = ∅.Phase 3: Pivotiere entlang der effizienten Basen um die pareto-optimalen Extrempunkte bzw.Extremstrahlen zu bestimmen.

ad Phase 2:

• Wenn X 6= ∅ nach Phase 1, dann ∃x0 ∈ X →. Uberprufe ob x0 ∈ Xpar.

• Wenn es unbeschrankt ist: Xp−par = ∅,Xpar = Xp−par = ∅ .

Page 96: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 95

• Falls (P ) beschrankt ist und (x∗, y∗) die optimale Losung von (P ) ist, dann ist X∗ ∈Xpar, aber x∗ muss kein Extrempunkt sein.In Lemma 3.6.2 wurde gezeigt, dass die optimale Losung (u∗, w∗) des Problems (D) dieGleichung

u∗T b+ w∗Tx0 = 0

erfullt. Daraus folgt, dass u∗ eine optimale Losung von (P2) ist.Das duale Problem (D2) von (P2) ist aquivalent zu

min{w∗TCx | Ax = b, x ≥ 0

}.

Aus Satz 3.6.4 wissen wir, dass (D2) eine optimale Losung besitzt, die pareto-optimalist und ein Extrempunkt fur MCLP ist.

Page 97: Skriptum Operations Research - Graz University of Technologycela/Vorlesungen/OR/Skri... · 2013. 10. 17. · Skriptum Operations Research verfasst nach der Vorlesung von Frau Prof

Literaturverzeichnis

[1] Michal Tzur: A Simple Forward Algorithm to Solve General Dynamic Lot Sizing Modelswith n Periods in 0(n log n) or 0(n) Time

[2] Donald Lee Iglehart: Optimality of (s, S)-policies in the infinite horizon dynamicinventory model, Management Science, 259-267

[3] Donald Lee Iglehart: Dynamic programming and stationarity analysis of investoryproblems, Standfort University Press

[4] Margesarian: Nonlinear programming, NY 1969

[5] V. Chankong, Y.Y. Haimes: Multiobjective decision making Theory and Methodology,Elsenier, Science Publishing Co., New York, 1983

[6] Dantzig und Thapa: Linear Programming: Theory and Extensions, Band 2, Springer,NY, 2003

96