skriptum operations research - graz university of technologycela/vorlesungen/or/skri... · 2013....
TRANSCRIPT
Skriptum
Operations Research
verfasst nach der Vorlesung von
Frau Prof. Dragoti-Cela
im Wintersemester 2011/2012 von
Judith Kloas
Institut fur Optimierung und Diskrete Mathematik
Techische Universitat Graz
Inhaltsverzeichnis
1 Dynamische Optimierung 31.1 Einfuhrende Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Das endlich-stufige deterministische dynamische
Optimierungsproblem-ESDDOP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3 Das endlich-stufige stochastische dynamische
Optimierungsproblem-ESSDOP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.3.1 Die Optimalitatsgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.3.2 Ein Kontrollmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 ESDDOP mit nicht diskretem Zustands- bzw. Aktionenraum . . . . . . . . . . . . . . 211.4.1 Losbarkeit von (D) und Eindeutigkeit der Losung . . . . . . . . . . . . . . . . 22
1.5 Das unendlich-stufige deterministische dynamische Optimierungsproblem . . . . . . . . 241.5.1 Losungsverfahren fur das Problem (U): Wertiteration vs. Politikiteration . . . 27
2 Lagerhaltungsprobleme 292.1 Das grundlegende Lagerhaltungsmodell . . . . . . . . . . . . . . . . . . . . . . . . . . 302.2 Ein deterministisches dynamisches Lagerhaltungsmodell . . . . . . . . . . . . . . . . . 352.3 Ein serielles zweistufiges Lagersystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402.4 Mehrstufige Lagersysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.5 Ein stochastisches Ein-Periodenmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . 492.6 Stochastische stationare Mehrperiodenmodelle . . . . . . . . . . . . . . . . . . . . . . . 542.7 Unendlich-periodische stochastische stationare Lagerhaltungsprobleme . . . . . . . . . 57
3 Multikriterielle Optimierung 603.1 Einleitung und Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603.2 Schwache und strikte pareto-optimale Losungen . . . . . . . . . . . . . . . . . . . . . . 673.3 Eigentliche Pareto-Optimialitat und eigentliche Effizienz . . . . . . . . . . . . . . . . . 683.4 Die Skalarisierungsmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4.1 Die Skalarisierung und die schwache Effizienz . . . . . . . . . . . . . . . . . . . 743.4.2 Die Skalarisierung und die eigentliche Pareto-Optimalitat . . . . . . . . . . . . 76
3.5 Andere Methoden der Pareto-Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . 773.5.1 Die ε-Constraint-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773.5.2 Methode von Benson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 793.5.3 Methode des Compromise Programming (CP) . . . . . . . . . . . . . . . . . . . 82
3.6 Multikriterielle lineare Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 883.6.1 Parametrische lineare Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . 903.6.2 Theorie der MCLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 933.6.3 Ein multikriterieller Simplex-Algorithmus . . . . . . . . . . . . . . . . . . . . . 94
2
Kapitel 1
Dynamische Optimierung
1.1 Einfuhrende Beispiele
Beispiel (Kurzeste Wegeproblem: Stufengraph). Sei vn(s) die Lange eines kurzesten Wegesvom Knoten s der Stufe n nach L.
A
B
C
D
E
F
G
H
I
J
K
L
2
4 10 20
12
8
14
6
12
10
10
10
10
2
8
410
Stufen: 0 : {A} , 1 : {B,C} , 2 : {D,E, F} , 3 : {G,H, I} , 4 : {J,K} , 5 : {L}
v4(J) = 12
v4(K) = 8
v3(G) = 20 + v4(J) = 32
v3(H) = min {4 + v4(J), 6 + v4(K)} = 14
v3(I) = 2 + v4(K) = 10
v2(D) = min {10 + v3(G), 14 + v3(H)} = 24
v2(E) = 10 + v3(I) = 20
v2(F ) = min {10 + v3(H), 14 + v3(I)} = 24
v1(B) = min {4 + v2(D), 12 + v2(E)} = 28
v1(C) = min {10 + v2(D), 10 + v2(F )} = 34
v0(A) = min {2 + v1(B), 8 + v1(C)} = 30
Kurzester Weg: A-B-D-H-K-L
3
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 4
Es handelt sich hier um ein mehrstufiges Optimierungsproblem, bei dem jedes Teilproblemin jeder Stufe separat optimiert werden kann. Die Losung (optimaler Wert) des Gesamtpro-blems setzt sich aus den Losungen (optimalen Werten) der Probleme in den einzelnen Stufenzusammen.
Beispiel (Aufteilungsproblem). Man betrachtet einen Investor mit 30 Geldeinheiten undsucht ein Investitionsmodell, dass den Gesamtgewinn maximiert.
Stufe Projekt Budget Gewinn
0 1 12 71 2 6 42 3 21 103 4 8 5
Stufe i: Entscheidung, ob Projekt i+ 1 erworben wird (i = 0, . . . , 3).Sei vn(s) der maximale Gewinn, der mit den Projekten n + 1, . . . , 4 und Restkapital s zuerzielen ist.
Stufe 3: v3(s) =
{0 s < 8
5 s ≥ 8
Stufe 2: v2(s) =
{v3(s) s < 21
max {10 + v3(s− 21), v3(s)} s ≥ 21
Stufe 1: v1(s) =
{v2(s) s < 6
max {4 + v2(s− 6), v2(s)} s ≥ 6
Stufe 0: v0(s) =
{v1(s) s < 12
max {7 + v1(s− 12), v1(s)} s ≥ 12
s v3(s) v2(s) v1(s) v0(s)
0 ≤ s ≤ 5 0 0 0 06 ≤ s ≤ 7 0 0 4 48 ≤ s ≤ 11 5 5 5 512 ≤ s ≤ 13 5 5 5 714 ≤ s ≤ 17 5 5 9 918 ≤ s ≤ 19 5 5 9 1120 ≤ s ≤ 20 5 5 9 1221 ≤ s ≤ 25 5 10 10 1226 ≤ s ≤ 26 5 10 10 1627 ≤ s ≤ 28 5 10 14 1629 ≤ s ≤ 30 5 5 15 16
Welche Projekte werden ausgefuhrt?v0(30) = max {7 + v1(18), v1(30)} = max {16, 15} = 16v1(18) = max {4 + v2(12), v2(18)} = max {9, 5} = 9v2(12) = v3(12)v3(12) = 5⇒ Fuhre die Projekte 1, 2 und 4 aus.
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 5
Beispiel (Stochastische dynamische Optimierung, Stopp-Problem). Ein Hausbesitzer mussein Haus binnen 10 Wochen verkaufen und er inseriert jede Woche in der Zeitung. Jede Wochewird entschieden, ob er verkaufen oder noch abwarten soll. Das Angebot in der Woche n sei xn,xn ∈ S = {300, 350, 400, 450} in Tausend Euro. Des weiteren sei q(xn) die Wahrscheinlichkeit,mit der das Angebot xn gemacht wird.
xn 300 350 400 450
q(xn) 0.2 0.3 0.4 0.1
Vorgangsweise: Akzeptiere ein Angebot xn in Woche n nur dann, wenn der zu erwartendeErlos uber die zukunftigen Wochen niedriger als das vorliegende Angebot ist (oder gleich).Dabei ist vn(s) der maximal zu erwartende Verkaufserlos, wenn in Woche n ein Angebot derHohe s gemacht wird, wobei n = 0, . . . , 10.
v10(s) = 0
v9(s) = s ∀s (auf jeden Fall annehmen)
vn(s) = max
{s,∑s∈S
q(s)vn+1(s)
}0 ≤ n ≤ 9
Daraus ergibt sich die nachstehende Tabelle, wobei Angebote, die akzeptiert werden mit einemStern versehen sind.
300 350 400 450
v9(s) 300* 350* 400* 450*v8(s) 370 370 400* 450*v7(s) 390 390 400* 450*v6(s) 400 400 400* 450*v5(s) 405 405 405 450*v4(s) 409.5 409.5 409.5 450*v3(s) 413.5 413.5 413.5 450*v2(s) 417.2 417.2 417.2 450*v1(s) 420.5 420.5 420.5 450*v0(s) 423.4 423.4 423.4 450*
1.2 Das endlich-stufige deterministische dynamischeOptimierungsproblem-ESDDOP
Definition 1.2.1. Das ESDDOP ist ein Tupel der Form (N,S,A, z, r, vN ), wobei
(i) N ∈ N . . . die Lange des Planungshorizonts (legt Anzahl der Stufen fest),
(ii) S. . . der Zustandsraum, abzahlbare Menge: die nichtleere Teilmenge Si ∈ S stellt dieZustandsmenge der Stufe i dar, S0 = {s0},
(iii) A . . . der Aktionenraum, abzahlbare Menge, sodass An(s) ∈ A, nicht leer und endlich,die Menge der Aktionen/Entscheidungen ist, die in Stufe n bei Zustand s getroffenwerden durfen Dn := {(s, a) ∈ Sn ×A : a ∈ An(s)},
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 6
(iv) zn : Dn → Sn+1 . . . die Zustandstransformations-Funktion, ∀s ∈ Sn,∀a ∈ An(s) seiz(s, a) = s′ ∈ Sn+1,
(v) rn : Dn → R . . . die einstufige Gewinnfunktion, ist die Funktion, die den Gewinn rn(s, a)in Zustand s der n-ten Stufe bei Aktion a angibt und
(vi) vN : SN → R . . . die terminale Gewinnfunktion, beschreibt den Gewinn vN (s), der beiZustand s ∈ SN eintritt.
Definition 1.2.2. Eine Strategie (Politik) δ = (a0, . . . , aN−1) ist eine Folge zulassiger Aktio-nen a0 ∈ A0(s0), . . . , aN−1 ∈ AN−1(sN−1), wobei sn+1 = zn(sn, an) ∀n = 0, . . . , N − 1 ist. DieMenge aller Strategien ist ∆. Wir haben dabei das Ziel, diejenige Strategie zu finden, welcheden Gesamtgewinn maximiert.
Notationen. Es werden die folgenden Bezeichnungen verwendet:
• Rδ(s0) =∑N−1
n=0 rn(sn, an) + vN (sN ),
• v0(s0) = max {Rδ(s0) : δ ∈ ∆} und
• fur n = N − 1, . . . , 1 :
vn(sn) = maxan∈An(sN )
{N−1∑t=n
rt(st, at) + vN (sN )
}.
Satz 1.2.3. Optimalitatsgleichung:
(i) Fur n = 0, . . . , N − 1 und fur alle sn ∈ Sn gilt
vn(sn) = maxa∈An(sn)
{rn(sn, a) + vn+1(zn(sn, a))} . (1.1)
(ii) Sei
a∗n ∈ arg maxa∈An(sn)
{rn(sn, a) + vn+1(zn(sn, a))} ∀n = 0, . . . , N − 1,
dann ist δ = (a∗0, . . . , a∗N−1) eine optimale Strategie fur das gegebene ESDDOP.
Beweis: (i): Sei n ∈ {0, . . . N − 1} , sn ∈ Sn. Da An(sn) endlich ist (laut Problemdefinition)existieren die Maxima. Endlich viele Stufen ⇒ N endlich ⇒ es existiert eine optimale Stra-tegie. Sei a∗n, . . . a
∗N−1 eine optimale Strategie, sei s∗n, s
∗n+1, . . . s
∗N die dazugehorige optimale
Zustandsfolge, dann ergibt sich
vn(sn) =N−1∑t=n
rt(s∗t , a∗t ) + vN (s∗N )
= rn(s∗n, a∗n) +
N−1∑t=n+1
rt(s∗t , a∗t ) + vN (s∗N )︸ ︷︷ ︸
=vn+1(sn+1)
≤ rn(s∗n, a∗n) + vn+1(s∗n+1).
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 7
Somit ist
vn(sn) ≤ maxa∈An(sn)
{rn(sn, a) + vn+1(zn(sn, a))} .
Sei nun a+n eine Aktion im Zustand s+
n = sn, die die rechte Seite von der Gleichung in 1.1maximiert. Sei a+
n+1, . . . a+N−1 eine optimale Aktionsfolge fur den Anfangszustand s+
n+1 :=zn(s+
n , a+n ). Es gilt
vn(sn) ≥N−1∑t=n
rt(s+t , a
+t ) + vN (s+
N )
= rn(s+n , a
+n ) +
N−1∑t=n+1
rt(s+t , a
+t ) + vN (s+
N )
= rn(s+n , a
+n ) + vn+1(s+
n+1)
= maxa∈An(sn)
{rn(sn, a) + vn+1(zn(sn, a))} .
Insgesamt folgt somit
vn(sn) = maxa∈An(sn)
{rn(sn, a) + vn+1(zn(sn, a))} .
(ii): Summiere die Gleichung aus 1.1 fur n = 0, . . . N − 1 auf und kurze anschließend
N−1∑n=0
vn(sn) =N−1∑n=0
rn(sn, a∗n) +
N−1∑n=0
vn+1(zn(sn, a∗n)︸ ︷︷ ︸
sn+1
)
v0(s0) =N−1∑n=0
rn(sn, a∗n) + vN (sN )
= maxδ∈∆
Rδ(s0)
⇒ a∗0, . . . a∗N−1 optimal.
2
Algorithmus. Wertiteration des ESDDOPInput: Ein ESDDOP (N,S,A, z, r, v).Begin: Setze v′(s) = vN (s) ∀s ∈ SN .
for n = N − 1 downto 0 doSetze v(s) = v′(s) ∀s ∈ Sn+1.∀s ∈ Sn berechne
v′(s) = maxa∈An(s)
{rn(s, a) + v(zn(s, a))} und
f∗n := a∗ ∈ arg maxa∈An(s)
{rn(s, a) + v(zn(s, a))} .
EndSetze v0(s0) = v′(s0).Setze δ∗ = (a∗0, . . . a
∗N−1) mit a∗0 = f∗0 (s0) und a∗n = f∗n(sn) ∀n = 1, . . . N − 1,
wobei sn = zn−1(sn−1, an−1).
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 8
Bemerkungen. Fur den Algorithmus gilt folgendes:
• Er benotigt viel Speicher: f∗n(s) muss fur jedes n und s mitgefuhrt werden (aber nur 2Werte fur v).
• Er ist exakt, effizient (fur alle n), abhangig von Maximabildung.
• Das Verfahren funktioniert generell fur seperable Gewinnfunktionen.
Definition 1.2.4. Eine Folge von Wertfunktionen v0, . . . vN heißt seperabel, wenn es Funk-tionen F0, . . . FN−1 gibt, sodass gilt
vn(s) = maxa∈An(s)
{Fn(rn(s, a), vn+1(z(s, a)))} ,
maxx,y
Fn(x, y) = maxx
maxyFn(x, y).
Beispiel. (Subset Sum Problem)Input: N ∈ N, P1, . . . PN ∈ Z+, Y ∈ Z+
Frage: ∃I ⊆ {1, . . . N}, sodass∑
i∈I Pi = Y ?Formuliere Instanz des ESDDOP:
• Horizont der Lange N ,
• Stufen: 1, . . . N ,
• Menge der zulassigen Zustande: S = {0, . . . Y },
• alle zulassigen Zustande fur Stufe n: Sn = S ∀n = 0, . . . N ,
• A = {0, 1} , An(s) =
{{0} s < PN−n+1
{0, 1} s ≥ PN−n+1
,
• Ubergangsfunktionen: zn(s, a) = s− a · PN−n+1,
• einstufige Gewinnfunktion: rn(s, a) =
{1 s = PN−n+1, a = 1
0 sonst,
• terminale Gewinnfunktion: vn(s) = maxa∈An(s) {max {rn(s, a), vn+1(zn(s, a))}}
Behauptung: v1(Y ) =
{1 (Antwort ja fur Subset Sum)
0 (Antwort nein fur Subset Sum)Beweis:
vn(s) =
{1 falls I ⊆ {1, . . . N − n+ 1}mit
∑i∈I Pi = s
0 sonstmit ∑
i∈IPi = s ∀n = 0, . . . N,∀s ∈ S
ist zu zeigen.
vN (s) =
{1 s = P1
0 sonst
Angenommen man will wissen, ob es ein I ⊆ {1, . . . n} gibt mit∑
i∈I Pi = s, dann gibt eszwei Moglichkeiten.
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 9
n ∈ I n /∈ I(1) I = {n} ⇒ Pn = s I ⊆ {1, . . . n− 1}
(2) I = {n} ∪ J, J ⊆ {1, . . . n− 1}∑
i∈I Pi = ss =
∑i∈I Pi = Pn +
∑i∈J Pi
⇒∑
i∈I Pi = s− Pn
Betrachte Gleichung fur vn(s):Fall 1:
s < PN−n+1 (kann PN−n+1 nicht nehmen)
An(s) = {0}
vn(s) = max
rn(s, 0)︸ ︷︷ ︸=0
, vn+1(zn(s, 0)︸ ︷︷ ︸=s
)
= vn+1(s)
Fall 2:
s > PN−n+1 (konnte PN−n+1 nehmen)
An(s) = {0, 1}
vn(s) = max
max
rn(s, 0)︸ ︷︷ ︸=0
, vn+1(zn(s, 0)︸ ︷︷ ︸=s
)
,max
rn(s, 1)︸ ︷︷ ︸=0
, vn+1( zn(s, 1)︸ ︷︷ ︸=s−PN−n+1
)
= max{vn+1(s), vn+1(s− PN−n+1)
}Fall 3:
s = PN−n+1 (konnte PN−n+1 nehmen)
An(s) = {0, 1}vn(s) = max
{vn+1(s), 1, vn+1(s− PN−n+1)
}= 1
Bemerkung. Wir haben gesehen, dass man mit dynamischer Optimierung auch Entschei-dungsprobleme losen kann.
1.3 Das endlich-stufige stochastische dynamischeOptimierungsproblem-ESSDOP
Bisher: sn ∈ Sn - Zustand Stufe nan ∈ An(sn) - Aktion in Stufe n⇒ deterministisch, sn+1 = zn(sn, an)
Realistischer: Zustand sn+1 ergibt sich als Realisierung einer Zufallsvariable In, die vonsn und an abhangt. Sei p(sn, an, sn+1) die Wahrscheinlichkeit des Eintretens von Zustandsn+1 in Stufe n+ 1 nach Zustand sn in Stufe n und Aktion an.∑
sn+1∈Sn+1p(sn, an, sn+1) = 1
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 10
Definition 1.3.1. Ein endlich-stufiges stochastisches dynamisches Optimierungsproblem istein Tupel (N,S,A, rn, p, vN ), wobei N,S,A, rn, vn wie in ESDDOP und dieUbergangswahrscheinlichkeiten sind wie oben definiert.
Ziel: Maximierung des Gesamtgewinns (Zufallsvariable).
Definition 1.3.2. Eine Funktion fn : Sn → An mit fn(s) ∈ An(s) ∀s ∈ Sn heißt Ent-scheidungsfunktion. Eine Folge (f0, f1, . . . fN−1) von Entscheidungsfunktionen heißt Strategie(Politik). Die Menge aller Strategien sei ∆.
Bemerkung. Hat man s0 ∈ S0, eine Strategie δ = (f0, f1, . . . fN−1) ∈ ∆ und eine Realisie-rung von Zustanden s1, . . . sN in den jeweiligen Stufen gegeben, so ist der Gesamtgewinn
Rs0,δ(s1, . . . sN ) =N−1∑i=0
ri(si, ai) + vN (sN )
Rsn,δ(sn+1, . . . sN ) =N−1∑i=n
ri(si, ai) + vN (sN ). (1.2)
Der Gesamtgewinn Rs0,δ ist eine Zufallsvariable mit den RealisierungenRs0,δ(s1, . . . sN ), ∀(s1, . . . sN ) ∈ S1 × . . .× SN .Mit der Annahme, dass die I1, . . . IN−1 unabhangig sind, folgt fur die Wahrscheinlichkeit derRealisierungen Rs0,δ(s1, . . . sN )
Ps0,δ(I1 = s1, . . . IN = sN ) =: Ps0,δ(s1, . . . sN ) =
N−1∏i=0
pi(si, fi(si), si+1) bzw.
Psn,δ(In+1 = sn+1, . . . IN = sN ) =: Psn,δ(sn+1, . . . sN ) =
N−1∏i=n
pi(si, fi(si), si+1).
Definition 1.3.3. Erwartungswert:
E(Rs0,δ) =∑
s1∈S1,...sN∈SN
Rs0,δ(s1, . . . sN ) · Ps0,δ(s1, . . . sN )
Definition 1.3.4. Die Strategie δ∗ heißt optimal, falls
Rs0,δ∗ := E(Rs0,δ∗) ≥ E(Rs0,δ) ∀δ ∈ ∆.
Maximaler erwarteter Gewinn: v0(s0) := supδ∈∆
{Rs0,δ
}Notationen.
Rsn,δ =∑
sn+1∈Sn+1,...sN∈SN
Rsn,δ(sn+1, . . . sN ) · Psn,δ(sn+1, . . . sN )
=∑
sn+1∈Sn+1
. . .∑
sN∈SN
Rsn,δ(sn+1, . . . sN ) ·N−1∏k=n
p(sk, fk(sk), sk+1)
vn(s) := supδ∈∆
{Rsn,δ
}∀n = 0, . . . N − 1 (1.3)
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 11
Es gilt fur alle n = 0, . . . N − 1,∀δ ∈ ∆, ∀sn ∈ Sn, dass
Rsn,δ =∑
sn+1∈Sn+1
. . .∑
sN∈SN
Rsn,δ(sn+1, . . . sN ) · Psn,δ(sn+1, . . . sN )
1.2=
∑sn+1∈Sn+1
. . .∑
sN∈SN
(rn(sn, fn(s)) +
N−1∑i=n+1
ri(si, fi(si)) + vN (sN )) · Psn,δ(sn+1, . . . sN )
=∑
sn+1∈Sn+1
. . .∑
sN∈SN
(rn(sn, fn(s)) +Rsn+1,δ(sn+2, . . . sN )) · Psn,δ(sn+1, . . . sN )
= rn(sn, fn(s)) ·∑
sn+1∈Sn+1
. . .∑
sN∈SN
Psn,δ(sn+1, . . . sN )
︸ ︷︷ ︸=1
+∑
sn+1∈Sn+1
. . .∑
sN∈SN
Rsn+1,δ(sn+2, . . . sN ) · Psn,δ(sn+1, . . . sN )
= rn(sn, fn(s)) +∑
sn+1∈Sn+1
. . .∑
sN∈SN
p(sn, fn(sn), sn+1)Rsn+1,δ(sn+2, . . . sN )
· Psn+1,δ(sn+2, . . . sN )
= rn(sn, fn(s)) +∑
sn+1∈Sn+1
p(sn, fn(sn), sn+1)∑
sn+2∈Sn+2
. . .∑
sN∈SN
Rsn+1,δ(sn+2, . . . sN )
· Psn+1,δ(sn+2, . . . sN )
Rsn,δ = rn(sn, fn(s)) +∑
sn+1∈Sn+1
p(sn, fn(sn), sn+1)Rsn+1,δ. (1.4)
Bemerkung. Falls S endlich ist, existieren alle obigen Erwartungswerte. Ansonsten musstenAnnahmen getroffen werden, z.B. hinreichende Bedingungen fur die Existenz aller Rsn,σ:∃b : S → (0,∞),∃0 < α ∈ R, sodass
| rn(s, fn(s)) | ≤ b(s) ∀(s, fn(s)) ∈ Dn ∀n = 0, 1, . . . , N − 1
| vN (s) | ≤ b(s) ∀s ∈ SN∑s′∈Sn+1
pn(s, fn(s), s′)b(s′) ≤ αb(s) ∀(s, fn(s)) ∈ Dn,∀n = 0, . . . N − 1.
Unter diesen Bedingungen gilt:
| Rs,δ |≤N−n∑i=0
αib(sn) <∞ ∀sn ∈ Sn, ∀n ∈ N, n < N,∀δ ∈ ∆.
Dies kann induktiv mit Hilfe von 1.4 gezeigt werden.
1.3.1 Die Optimalitatsgleichung
Satz 1.3.5. Es gilt:
(i) Fur n = 0, · · ·N − 1 und s ∈ Sn ist
vn(s) = maxa∈An(s)
rn(s, a) +∑
s′∈Sn+1
p(s, a, s′)vn+1(s′)
. (1.5)
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 12
(ii) Jede Strategie, die sich aus dem argmax der Gleichung 1.5 ergibt, ist optimal.
Beweis: (i) Sei n = N − 1. Aus 1.3 und 1.4 ergibt sich, dass fur alle s ∈ SN−1 gilt
vN−1(s) = supδ∈∆
{RsN−1=s,δ
}1.4= max
a∈AN−1(s)
rN−1(s, a) +∑s′∈SN
p(s, a, s′)vN (s′)
.
Sei f∗N−1 ∈ arg maxa∈AN−1(s)
{rN−1(s, a) +
∑s′∈SN
p(s, a, s′)vN (s′)}
, dann gilt
vN−1(s) = rN−1(s, f∗N−1(s)) +∑s′∈SN
p(s, f∗N−1(s), s′)vN (s′)
= RsN−1=s,δ∗
fur alle Strategien δ∗ = (f0, · · · fN−2, f∗N−1).
Somit ist auch (ii) fur n = N − 1 gezeigt. Sei nun n = N − 2. Aus 1.3 und 1.4 folgt
vN−2(s) = supδ∈∆
{RsN−2=s,δ
}1.4= sup
δ∈∆
rN−2(s, fN−2(s)) +∑
s′∈SN−1
p(s, fN−2(s), s′)RsN−1=s′,δ
≤ sup
δ∈∆
rN−2(s, fN−2(s)) +∑
s′∈SN−1
p(s, fN−2(s), s′)vN−1(s′)
= max
a∈An−2(s)
rN−2(s, a) +∑
s′∈SN−1
p(s, a, s′)vN−1(s′)
,
und dies geht induktiv weiter. Somit folgt insgesamt
vn(s) ≤ maxa∈An(s)
rn(s, a) +∑
s′∈Sn+1
p(s, a, s′)vn+1(s′)
. (1.6)
Sei
f∗N−2 ∈ arg maxa∈An−2(s)
rN−2(s, a) +∑
s′∈SN−1
p(s, a, s′)vN−1(s′)
,
dann gilt
vN−2(s) ≤ rN−2(s, f∗N−2(s)) +∑
s′∈SN−1
p(s, f∗N−2(s), s′)vN−1(s′)
= RsN−2=s,δ∗ ∀δ∗ = (f0, · · · fN−3, f∗N−2, f
∗N−1). (1.7)
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 13
Aus 1.3, 1.4 und 1.7 folgt
vN−2(s)1.3= sup
δ∈∆
{RsN−2=s,δ
}≥ RsN−2=s,δ∗
1.7=rN−2(s, f∗N−2(s)) +
∑s′∈SN−1
p(s, f∗N−2(s), s′)vN−1(s′)
= maxa∈AN−2(s)
rN−2(s, a) +∑
s′∈SN−1
p(s, a, s′)vN−1(s′)
,
also
vn(s) ≥ maxa∈An(s)
rn(s, a) +∑
s′∈Sn+1
p(s, a, s′)vn+1(s′)
. (1.8)
Aus 1.7 und 1.8 ergibt sich die gewunschte Gleichheit.(ii) Als optimal partielle Strategie gilt jedes δ ∈ ∆ mit δ = (f0, . . . f
∗N−2, f
∗N−1) (induktiv
ruckwarts bis Stufe 0).
2
Der folgende Algorithmus, der sogenannre Werteiteration-Algorithmus zur Losung des ESS-DOP beruht auf der obigen Optimalitatsgleichung.
Algorithmus. Wertiteration fur das ESSDOPInput: Ein ESSDOP (N,S,A, p, rn, fn, vN ).Begin: Setze v′(s) = vN (s) ∀s ∈ SN .
for n = N − 1 downto 0 doSetze v(s) = v′(s) ∀s ∈ Sn+1,∀s ∈ Sn berechne
v′(s) = maxa∈An(s)
rn(s, a) +∑
s′∈Sn+1
p(s, a, s′)v(s′)
und bestimme
f∗n(s) ∈ arg maxa∈An(s)
rn(s, a) +∑
s′∈Sn+1
p(s, a, s′)v(s′)
.
EndSetze v0(s0) = v′(s0), δ = (f∗0 , f
∗1 , . . . f
∗N−1).
Output: Optimaler erwarteter Gewinn v0(s0), optimale Strategie δ∗.
Falls die Zustandsmengen Sn, n = 0, 1, . . . , N , und die Mengen An(s) der im Zustand s derStufe n moglichen Entscheidungen, fur alle n = 0, 1, . . . , N − 1 und alle s ∈ Sn endlich sind,dann kann man das ESSDOP auch als lineares Optimierungsproblem formulieren.
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 14
Losung des dynamischen Optimierungsproblems als lineares Programm
minN∑n=0
∑s∈Sn
wn,s (1.9)
s.t. wn,s −∑
s′∈Sn+1
pn(s, a, s′)wn+1,s′ ≥ rn(s, a) ∀n = 0, . . . N − 1,∀a ∈ An(s),∀s ∈ Sn
wN,s ≥ vN (s) ∀s ∈ SN
Behauptung: Der optimale Wert von 1.9 ist der durch den Algorithmus errechnete optimaleGewinn.
Beweis: Annahme: Die Behauptung gilt nicht.Sei w∗n,s die optimale Losung von 1.9 , seien vn(s) mit s ∈ Sn die vom Algorithmus berechne-ten Werte und sei k ∈ {0, 1, . . . N} der großte Index, sodass vk(s) 6= wk,s.Beobachtung: vn(s) mit n ∈ {0, . . . N − 1} und s ∈ Sn ist zulassig fur 1.9. Es gilt
vn(s) = maxa∈An(s)
rn(s, a) +∑
s′∈Sn+1
p(s, a, s′)vn+1(s′)
⇒ vn(s) ≥ rn(s, a) +
∑s′∈Sn+1
p(s, a, s′)vn+1(s′) ⇒ 1.Restiktion erfullt
und die 2. Restriktion ist auch erfullt. Weiters gilt
w∗k,s ≥ rk(s, a) +∑
s′∈Sn+1
p(s, a, s′)w∗k+1,s′
= rk(s, a) +∑
s′∈Sn+1
p(s, a, s′)vk+1(s′) ∀a ∈ Ak(s),∀s ∈ Sn.
Dies gilt auch fur a = a∗ = f∗k (s) ⇒ w∗k,s ≥ vk(s) und mit der Annahme uber k folgtw∗k,s > vk(s).∀l = 0, . . . k − 1 kann man daher induktiv zeigen, dass
w∗l,s ≥ rl(s, a) +∑
s′∈Sl+1
p(s, a, s′) w∗l+1,s︸ ︷︷ ︸≥vl+1(s)
∀a ∈ Al(s).
Dies gilt auch fur al = a∗l = f∗l (s)
⇒ w∗l,s ≥ rl(s, a∗l ) +∑
s′∈Sl+1
p(s, a∗l , s′)vl+1(s) = vl(s).
Eingesetzt in die Zielfunktion liefert vn(s), n ∈ {0, . . . N} ,∀s ∈ Sn einen besseren Wert alsdie Optimallosung w∗n,s ⇒ Widerspruch!
2
Optimale Strategie: ∀n ∈ {0, . . . N − 1} ,∀s ∈ Sn ∃a ∈ An(s), sodass die dazugehorigeRestriktion mit Gleichheit erfullt ist. Werde dieses a mit a∗n(s) =: f∗n(s) bezeichnet, so bildet(f∗0 , . . . f
∗N−1) die optimale Strategie.
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 15
1.3.2 Ein Kontrollmodell
Oft ist eine exogene Zufallsvariable mitbestimmend fur die optimale Strategie bzw. den opti-malen Gewinn (Kosten) eines ESSDOP (z.B. die Nachfrage bei einem Lagerhaltungsproblem).Seien Y0, . . . YN−1 exogene, unabhangige Zufallsvariablen mit Verteilungsdichten
qn(x) = P (Yn = x) ∀x ∈ Xn
und sei
sn+1 = gn(sn, a, xn) ∈ Sn+1 und
gn :Dn ×Xn → Sn+1.
Input: (N,S,A,X , q, g, r, vN ) mit N,S,A, r, vN wie beim Basismodell und
• X . . . Wertebereich der exogenen Variablen Y0, . . . YN−1 (abzahlbar), Xi,⊆ X ist dernichtleere Wertebereiche von Yi, i =, 1, . . . , N − 1 ,
• qn : Xn → [0, 1]. . . die Verteilungsdichte von Yn,n = 0, 1, . . . N − 1,
• gn : Dn ×Xn → Sn+1 . . . die Ubergangsfunktion.
Durch
pn(s, a, s′) =∑
x∈Xn:g(s,a,x)=s′
qn(x) ∀s ∈ Sn,∀a ∈ An(s), ∀s′ ∈ Sn+1
ergibt sich folgende Optimalitatsgleichung:
vn(s) = maxa∈An(s)
{rn(s, a) +
∑x∈Xn
qn(x)vn+1(g(s, a, x))
}∀n = 0, . . . N − 1.
Als nachstes betrachten wir Beispiele von Kontrollmodellen, in denen die optimale Strategiegewisse Struktureigenschaften aufweist.
Beispiel. Ein Hausbesitzer verkauft sein Haus. Zu den Zeitpunkten n = 0, . . . N − 1 erhalter ein Angebot der Hohe xn, wobei xn als Realisierung einer Zufallsvariable Yn mit Wertenzwischen 0 und M aufgefasst wird. Y0, . . . YN−1 sind iid mit P (Yn = x) = q(x) ∀x = 0, . . .M ,∀n = 0, 1, . . . , N − 1. Falls ein Angebot abgelehnt wird, entstehen Kosten c.Kontrollproblem:
• N . . . Entscheidungshorizont,
• S = Sn = {0, . . .M} ∪ {∞} , n = 0, . . . N − 1 . . . Menge der Angebote, bzw. Verkaufbereits getatigt,
• A = An(s) = {0, 1} . . . Ablehnung/Annahme, fur s =∞ sind die Aktionen bedeutungs-los,
• X = Xn = {0, . . .M},
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 16
• qn(x) = q(x) ∀x ∈ X , ∀n = 0, 1, . . . , N − 1,
• gn(s, a, x) =
{x s ≤M,a = 0 lehne ab
∞ s =∞∨ a = 1 nehme an,
• r(s, a) =
−c s ≤M ∧ a = 0 lehne ab
s s ≤M ∧ a = 1 nehme an
0 sonst hab schon Gewinn gemacht
• vN (s) = 0 ∀s ∈ S, vn(∞) = 0 ∀n ≤ N (schon verkauft)
⇒ Optimalitatsgleichung
vn(s) = max
{s,−c+
M∑x=0
q(x)vn+1(x)
}
Sei s∗n = −c+∑M
x=0 q(x)vn+1(x) ∀n = 0, . . . N , dann ist
f∗n(s) =
{1 s ≥ s∗n0 s < s∗n
die optimale Entscheidungsfunktion. Diese optimale Strategie bestatigt die Intuition: Eingutes Angebot wird angenommen, ein schlechtes nicht. s∗n prasentiert, was gut bzw. schlechtheißt.
Satz 1.3.6. Die Schwellen s∗0, s∗1, . . . s
∗N−1 lassen sich rekursiv berechnen
s∗n =
{−c n = N − 1
−c+∑M
x=0 q(x) max{x, s∗n+1
}0 ≤ n < N − 1
und es gilt s∗0 ≥ s∗1 ≥ . . . s∗N−1.
Beweis: Mit vollstandiger Induktion von N − 1 bis 0 beweisen wir
vn(s) = max {s, s∗n} ∀n = 0, . . . N − 1, ∀s = 0, . . .M.
Da vN (s) = 0 ∀s, gilt vN−1(s) = max {s,−c} = max{s, s∗N−1
}∀s = 0, . . .M .
Annahme: vn+1(s) = max{s, s∗n+1
}Aus der Optimalitatsgleichung folgt
vn(s) = max
{s,−c+
M∑x=0
q(x) max{x, s∗n+1
}}= max {s, s∗n} ,
wobei
s∗n = −c+M∑x=0
max{x, s∗n+1
}.
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 17
Monotonie:Basis: s∗N−2 ≥ s∗N−1, da
s∗N−1 = −c ≤ −c+
M∑x=0
q(x) max {x,−c}︸ ︷︷ ︸≥0
.
Unter der Annahme, dass s∗n+1 ≥ s∗n+2 folgt
s∗n = −c+M∑x=0
q(x) max{x, s∗n+1
}≥ −c+
M∑x=0
q(x) max{x, s∗n+2
}= s∗n+1.
2
Beispiel. (Stopp-Problem) Ein Investor hat die Option zum Kauf einer Aktie um Preis c.Das Optionsrecht kann zu den Zeitpunkten n = 0, . . . N−1 ausgeubt werden. Der Borsenkursder Aktie zum Zeitpunkt n ist
In = S0 + Y0 + Y1 + . . . Yn−1,
wobei Y0, . . . Yn−1 iid-verteilt sind mit diskreter Verteilungsdichte
P (Yi = x) = q(x) ∀x ∈ Z, i = 0, . . . N − 1.
Gesucht: Ausubungsstrategie, die den erwarteten Gewinn maximiert.Kontrollmodell:
• N ∈ N (n = 0, . . . N − 1) . . . Planungshorizont,
• Zustand ≡ Borsenkurs der Aktie, S = Sn = Z∪{∞} (letzteres entspricht der Situation,dass das Optionsrecht bereits ausgeubt wurde),
• A = An(s) = {0, 1} = (Nichtausubung, Ausubung),
• X = Xn = Z ∀n = 0, . . . N − 1,
• qn(x) = q(x) ∀n = 0, . . . N − 1,
• gn(s, a, x) =
{s+ x s <∞, a = 0 Nichtausubung
0 s =∞∨ a = 1 Ausubung oder bereits ausgeubt,
• rn(s, a) =
{s− c s <∞, a = 1 Ausubung, Gewinn
0 s =∞∨ a = 0 Nichtausubung oder bereits ausgeubt,
• vN (s) = 0 ∀s ∈ S
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 18
Optimalitatsgleichung:
vn(s) = max {s− c, Jn(s)} (maximal erwarteter Gewinn),
wobei
Jn(s) =∑x∈Z
q(x)vn+1(s+ x).
der erwartete zukunftige Gewinn bei Nichtausubung und s−c der erzielte Gewinn bei Ausubungist.
Satz 1.3.7. Fur alle n < N und alle s ∈ Z gilt
(i) 0 ≤ Jn(s+ 1)− Jn(s) ≤ 1 (Gewinne steigen langsamer als die Preise) und
(ii) 0 ≤ vn(s+ 1)− vn(s) ≤ 1 (”There is no free lunch”).
Beweis: Vollstandige Induktion von n+ 1 auf n:Basis: Da vN (s) = 0 ∀s ist, gilt JN−1(s) = 0 ∀s.
vN−1(s) = max {s− c, JN−1(s)} = s− c ∀s ∈ S
Somit erfullen JN−1 und vN−1 die gewunschten Gleichungen.Annahme: Jn+1 und vn+1 erfullen (i) bzw. (ii)Zu zeigen: Jn, vn erfullen (i) bzw. (ii)Es gilt
0 ≤ Jn(s+ 1)− Jn(s)
=∑,x∈Z
q(x)(vn+1(s+ 1− x)− vn+1(s− x))
≤ 1 ·∑x∈Z
q(x) = 1
⇒ (i)√
vn(s+ 1)− vn(s) = max {s+ 1− c, Jn(s+ 1)} −max {s− c, Jn(s)} .
Fallunterscheidung uber die Annahme des Maximums:
• Zwei triviale Falle:a) Maximum wird bei s+ 1− c und s− c angenommen: 0 ≤ s+ 1− c− (s− c) = 1 undb) Maximum wird bei Jn(s+ 1) und Jn(s) angenommen: 0 ≤ Jn(s+ 1)− Jn(s) ≤ 1.
• Nichttriviale Falle: a) Maximum wird bei s+ 1− c und Jn(s) angenommen:
vn(s+ 1)− vn(s) = s+ 1− c− Jn(s) ≤ s+ 1− c− (s− c) = 1
und b) Maximum wird bei Jn(s+ 1) und s− c angenommen:
vn(s+ 1)− vn(s) = Jn(s+ 1)− (s− c) ≤ Jn(s+ 1)− Jn(s) ≤ 1
Analog zeigen wir, dass 0 ≤ vn(s+ 1)− vn(s):
a)vn(s+ 1)− vn(s) = s+ 1− c− Jn(s) ≥ Jn(s+ 1)− Jn(s) ≥ 0
b)vn(s+ 1)− vn(s) = Jn(s+ 1)− (s− c) ≥ s+ 1− c− (s− c) = 1 ≥ 0
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 19
⇒ (ii)√
2
Bemerkung. Aus diesem Satz folgt, dass die erwarteten (zukunftigen) Gewinne langsamerals der Preis s steigen. Sei Mn := {s ∈ Sn | s− c ≥ Jn(s)}, dann gilt
s∗n = minMn und δ∗ = (f∗0 , . . . f∗N−1)
ist die optimale Strategie, wobei f∗n(s) =
{1 s ≥ s∗n0 s < s∗n
, das heißt es wird nur ausgeubt, wenn
der Preis s den Wert s∗n erreicht oder ubersteigt.
Beispiel. Ersetzungsmodell
• Zustand der Maschine s ∈ {0, . . .M} ,M ∈ N,
• Maschine wird zum Zeitpunkt n = 0, . . . N − 1 inspiziert, dabei fallt die Entscheidung :ersetze oder nicht,
• der Preis einer neuen Maschine sei K,
• Betriebskosten c(zn), zn . . . Zustand der Maschine unmittelbar nach der Entscheidung,
• zn = sn(1− an) (sn Zustand unmittelbar vor der Entscheidung),
• q(zn, sn+1). . . Wahrscheinlichkeit, dass der Zustand der Maschine sich von zn auf sn+1
verandert (Verschleiß)
Optimalitatsgleichung:
vn(s) = max
−c(s) +M∑s′=0
q(s, s′)vn+1(s′)︸ ︷︷ ︸nicht ersetzen
,−K − c(0) +M∑s′=0
q(0, s′)vn+1(s′)︸ ︷︷ ︸ersetzen
Die minimalen erwarteten Gesamtkosten ausgehend vom Zustand n im Zeitpunkt n sindGn(s) = −vn(s).
Gn(s) = min {Yn(s),K + Yn(0)} , wobei
Yn(s) :=
M∑s′=0
q(s, s′)Gn+1(s′).
Es ist
−vn(s) = −max
{−c(s) +
M∑s′=0
q(s, s′)vn+1(s′),−K − c(0) +M∑s′=0
q(0, s′)vn+1(s′)
}
= min
{c(s)−
M∑s′=0
q(s, s′)vn+1(s′),K + c(0)−M∑s′=0
q(0, s′)vn+1(s′)
}.
Annahmen:
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 20
(A1) c(s) ≤ c(s + 1) ∀s = 0, . . .M − 1 entspricht hoheren Betriebskosten bei einer alterenMaschine.
(A2) vN (s) ≥ vN (s + 1) entspricht dem Restwert der Maschine in Zustand s (= terminalerGewinn).
(A3)∑M
s′=i q(s, s′) ≤
∑Ms′=i q(s+ 1, s′) ∀s = 0, . . .M − 1,∀i = 0, . . .M .
Lemma 1.3.8. Sei v : {0, . . .M} → R monoton wachsend. Wenn (A3) erfullt ist, dann gilt
M∑s′=0
q(s, s′)v(s′) ≤M∑s′=0
q(s+ 1, s′)v(s′).
Beweis:
M∑s′=0
q(s, s′)v(s′) =
M∑s′=0
q(s, s′)v(0) +
M∑s′=1
q(s, s′)(v(1)− v(0))
+
M∑s′=2
q(s, s′)(v(2)− v(1)) + . . .+
M∑s′=M
q(s, s′)(v(M)− v(M − 1))
= v(0) +
M∑s′=1
(v(s′)− v(s′ − 1))
M∑s′′=s′
q(s, s′′)
A3≤v(0) +
M∑s′=1
(v(s′)− v(s′ − 1))
M∑s′′=s′
q(s+ 1, s′′)
= . . .
=
M∑s′=0
q(s+ 1, s′)v(s′)
2
Satz 1.3.9. Seien die Annahmen (A1)-(A3) erfullt,dann gilt ∀n = 0, . . . N − 1,∀s = 0, . . .M − 1
(i) Yn(s) ≤ Yn(s+ 1) und
(ii) Gn(s) ≤ Gn(s+ 1).
Beweis: Vollstandige Induktion von n+ 1→ n:
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 21
Basis: Aus GN = −vN , aus (A1) und (A2) und dem vorhergehenden Lemma folgt
YN−1(s) := c(s) +M∑s′=0
q(s, s′)GN (s′)
= c(s)−M∑s′=0
q(s, s′)vN (s′)
≤ c(s+ 1)−M∑s′=0
q(s+ 1, s′)vN (s′) (Lemma, (A1))
= YN−1(s+ 1) ∀s,GN−1(s) = min {YN−1(s),K + YN−1(0)}
≤ min {YN−1(s+ 1),K + YN−1(0)} (wegen (i))
= GN−1(s+ 1).
Annahme: (i) und (ii) gelten fur Yn+1 und Gn+1.Zu zeigen: (i) und (ii) gelten auch fur Yn und Gn.
Yn(s) = c(s)−M∑s′=0
q(s, s′)vn+1(s′)
≤ c(s+ 1)−M∑s′=0
q(s+ 1, s′)vn+1(s′)
= Yn(s+ 1)
Gn(s) = min {Yn(s), k + Yn(0)}≤ min {Yn(s+ 1), k + Yn(0)}= Gn(s+ 1) ∀s
2
Mn := {s ∈ {0, . . .M} | Yn(s) ≥ K + Yn(0)} ∀n = 0, . . . N − 1
S∗n :=
{minMn Mn 6= ∅∞ Mn = ∅
Die optimale Strategie δ∗ = (f∗0 , . . . f∗N−1) erfullt f∗n(s) =
{1 s ≥ s∗n0 s < s∗n
.
1.4 ESDDOP mit nicht diskretem Zustands- bzw. Aktionen-raum
Situation: S ⊆ Rm Zustandsraum, Sn ⊆ Rm ∀n = 0, . . . N − 1,A ⊆ Rr, An(sn) ⊆ Rr∀n = 0, . . . N − 1,
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 22
s =
s1
··sm
, a =
a1
··ar
Anfangszustand: s0 ∈ RmEinstufige Gewinne: rn : Dn → R : (s, a)→ rn(s, a), Dn = {(s, a) | s ∈ Sn, a ∈ An(s)}Zustandstransformationsfunktion: zn : Dn → R : (s, a)→ zn(s, a) ∈ Sn+1
Terminaler Gewinn: vN : SN → R
(D) : maxN−1∑n=0
rn(sn, an + vN (sN ))
s.t. sn+1 = zn(sn, a) (sn, a) ∈ Dn ∀n = 0, . . . N − 1
s0 ∈ S, a ∈ An(sn) ∀n = 0, . . . N − 1
1.4.1 Losbarkeit von (D) und Eindeutigkeit der Losung
Satz 1.4.1. Wenn die folgenden Bedingungen erfullt sind, dann besitzt (D) eine optimaleLosung.
(D1) Das Problem (D) besitzt mindestens eine zulassige Losung,
(D2) ∀n = 0, . . . N − 1 sind rn und zn stetig auf Dn,
(D3) Sn ist abgeschlossen fur n = 0, . . . N − 1,
(D4) An(sn) ist kompakt ∀sn ∈ Sn und
(D5) die Abbildungen An : Sn → R+ : sn 7→ An(sn) sind stetig im Sinne der Hausdorff-Metrik.
Bemerkung. Hausdorff-Metrik: A,B ∈ Rr : d(A,B) = sup {supa∈A d(a,B), supb∈B d(b, A)},mit d(a,B) = infb∈B d(a, b)
Beweis: Sei
G :=N−1∑n=0
rn(sn, an),
G : M → R,
wobei M ⊆ R(m+r)N die Menge der zulassigen Losungen von (D) ist. Da die rn alle stetigsind, folgt G ist stetig auf M . Wenn M kompakt ist, dann sind wir fertig. Wir zeigen daher,dass M abgeschlossen und beschrankt ist.Sei S+
n die Menge der erreichbaren Zustande mit
S+n = {sn ∈ Sn | ∃sn−1 ∈ Sn−1 ∧ ∃a ∈ An−1(sn−1), sn = zn−1(sn−1, a)}S+
0 = {s0}D+n =
{(s, a) | s ∈ S+
n , a ∈ An(s)}∀n = 0, . . . N − 1.
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 23
Wir beobachten M ⊆ D+0 ×D
+1 × . . .×D
+N−1, {s0, a0, s1, a1, . . . sN−1, aN−1} ∈M .
1.) Beschranktheit von M :Wir zeigen D+
n kompakt ⇒ D+n beschrankt ⇒M beschrankt:
Wir zeigen induktiv die Kompaktheit von Sn und somit auch von Dn.Induktion uber n:n = 0 : S+
0 = {s0} kompakt ⇒ D+0 kompakt
Sei nun S+n kompakt. Zu zeigen ist, dass S+
n+1 kompakt ist.
S+n+1 =
⋃s∈S+
n
zn(s,An(s))
D+n =
{(s, a) | s ∈ S+
n , a ∈ An(s)}
D+n abgeschlossen: Sei ((sk, ak))k∈N eine Folge in D+
n mit
limk→∞
(sk, ak) = (s, a)
⇒ limk→∞
sk = s ∧ S+n kompakt
⇒ s ∈ S+n .
∀k ∈ N : ak ∈ An(sk) und fur An Hausdorff-stetig folgt
a = limk→∞
ak ∈ limk→∞
An(sk) = An(s)
und somit (s, a) ∈ D+n .
D+n beschrankt:
D+n =
⋃s∈S+
n
({s} ×An(s)) ⊆ S+n︸︷︷︸
beschrankt, weil kompakt
× An(S+n )︸ ︷︷ ︸
beschrankt, weil An Hausdorff-stetig undS+n kompakt
Kompaktheit von S+n+1:
S+n+1 =
{z(s, a) | (s, a) ∈ D+
n
}= zn(D+
n )
ist kompakt, weil D+n kompakt und zn stetig ist
⇒M beschrankt. (Daraus folgt wieder die Kompaktheit von D+n+1 usw.)
2.) Abgeschlossenheit von M:
(s(k)0 a
(k)0 , . . . s
(k)N−1a
(k)N−1) ∈M ∀k ∈ N
Dies strebt fur k →∞ gegen (s0a0, . . . sN−1aN−1).Zu zeigen ist, dass dieser Grenzwert auch in M liegt.Es ist
a(k)0 ∈ A0(s
(k)0 ), . . . a
(k)N−1 ∈ AN−1(s
(k)N−1) ∀k ∈ N.
Da An Hausdorff-stetig fur alle n = 0, . . . N − 1 und s(k)n ∈ S+
n kompakt ist, folgt
a0 ∈ A0(s0), . . . aN−1 ∈ AN−1(sN−1)
⇒ (s0a0, . . . sN−1aN−1) ∈M
⇒M ist kompakt ⇒ Maximum wird angenommen.
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 24
2
Notationen. Es sei vn der optimale Gewinn eines Prozesses, der in Stufe n startet und
ϕ : Dn → R,ϕn(s, a) := rn(s, a) + vn+1(zn(s, a))
vn(s) = maxa∈An(s)
ϕn(s, a).
Satz 1.4.2. Unter den Voraussetzungen (D1)-(D5) sind ϕn und vn stetig auf Dn bzw.Sn ∀n = 0, . . . N − 1.
Satz 1.4.3. Sei zusatzlich zu (D1)-(D5) auch die Konvexitat von Sn und An(sn) gegeben∀n = 0, . . . N − 1 und seien weiters die rn (streng) konvex und zn linear auf Dn, dann sindϕn und vn (streng) konvex ∀n = 0, . . . N − 1.
Satz 1.4.4. Unter den Voraussetzungen vom vorhergehenden Satz mit der strengen Konve-xitat besitzt (D) genau eine optimale Losung und die Funktionen
fn(s) = arg maxa∈An(s)
ϕn(s, a)
sind eindeutig und stetig.
1.5 Das unendlich-stufige deterministische dynamische Opti-mierungsproblem
Situation: Die Perioden seien abzahlbar unendlich, die Einteilung des Planungshorizonts seiso, dass die problemdefinierenden Großen innerhalb jeder Periode konstant bleiben.Annahmen:
1) zn = z, rn = r, Sn = S,An(s) = A(s) ∀n ∈ N, ∀s ∈ S,
2) Diskontierungsfaktor α = 11+p ∈ (0, 1), p . . . Zinssatz,
3) kein terminaler Gewinn vorhanden
(U) max
∞∑n=0
αnr(sn, an)
s.t. sn+1 = z(sn, an) ∀n ∈ Nsn ∈ S, s0 ∈ S ∀n ∈ Nan ∈ A(sn) ∀n ∈ N
Es seien folgende Voraussetzungen erfullt:
(U1) S ⊆ Rm, S 6= ∅, S ist abgeschlossen, (U1) . . . kompakt,
(U2) ∀s ∈ S : A(s) 6= ∅, kompakt und A : S → ϕ(Rr) : s 7→ A(s) ist Hausdorff-stetig, wobeiϕ(Rn) die Menge der kompakten Teilmengen von Rr ist,
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 25
(U3) z ist stetig auf D = {(s, a) | s ∈ S, a ∈ A(s)},
(U4) r ist stetig und beschrankt auf D und
(U5) ∀s ∈ S ∃a ∈ A(s) : z(s, a) ∈ S (garantiert Existenz einer zulassigen Losung von (U)).
Anmerkung: Aus (U4) folgt ∃d′ = inf(s,a)∈D r(s, a), d′′ = sup(s,a)∈D r(s, a) :
∞∑n=0
d′αn ≤∞∑n=0
r(s, a)αn ≤∞∑n=0
d′′αn
⇒ d′
1− α≤∞∑n=0
r(s, a)αn ≤ d′′
1− α.
Notationen. Betrachte das endlich-stufige Problem mit n = 0, . . . N − 1 und
rn(s, a) = αnr(s, a) ∀(s, a) ∈ D.
Seien v∗n die Losungen der Optimalitatsgleichung
vn(s) = maxa∈An(s)
{rn(s, a) + vn+1(z(s, a))} n = 0, . . . N − 1. (1.10)
Betrachte Perioden j, j + 1 . . . n als Perioden 0, . . . n− j eines n− j + 1-stufigen Problems P ,das in Periode j startet.Sei v∗j (s) der maximale Gewinn mit Anfangszustand s.
Es gilt
v∗j (s) = αj v∗j (s) ∀j ∈ N.
Setze dies in 1.10 ein und erhalte damit
αj v∗j (s) = maxa∈An(s)
{αjr(s, a) + αj+1vj+1(z)
}/ : αj
v∗j (s) = maxa∈An(s)
{r(s, a) + αvj+1(z)} ∀j ∈ N (1.11)
v∗n(s) = 0.
Setze v∗j+1(s) :=∞ ∀s ∈ Rm \ S. Aufgrund von (U4) und (U5) gilt
−∞ < v∗j (s) <∞ ∀s ∈ S.
Sei χ∗j = v∗n−j+1 ein Problem, das bei Stufe n − j + 1 startet und in Stufe n endet (j =0, . . . N − 1). χ∗0(s) = v∗n(s) und χj(s) ist der maximale Gewinn eines j-stufigen Problems mitAnfangszustand s ∀s ∈ S,∀j ∈ N. Setze χ∗j in 1.11 ein und erhalte somit
χ∗j (s) = maxa∈A(s)
{r(s, a) + αχ∗j−1(z(s, a))
}∀j = 0, . . . n,∀n ∈ N(⇔ j ∈ N). (1.12)
Sei
ϕ∗j : D+ → R : (s, a) 7→ r(s, a) + αχ∗j−1(z(s, a)) ∀j ∈ N,D+ = {(s, a) | s ∈ S, a ∈ A(s), z(a, s) ∈ S}
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 26
mit χ∗0(s) = 0 ∀s ∈ S.Somit gilt
χ∗j (s) = maxa∈A(s)
ϕ∗j (s, a).
Annahme o.B.d.A.: r(s, a) ≤ 0, sonst r′ = r− d′′ und die Gesamtkosten des unendlichen Pro-blems mit r′ sind nun
∑∞j=0 α
jd′′ = d′′
1−α kleiner als die Gesamtkosten des ursprunglichen Pro-
blems. Da d′′
1−α konstant und unabhangig von der Politik ist, sind beide Probleme aquivalent.
Satz 1.5.1. Unter den Voraussetzungen (U1)-(U5) und mit der obigen Annahme existierenFunktionen χ∗ = limj→∞ χ
∗j und ϕ∗ = limj→∞ ϕ
∗j und sind stetig auf S bzw. D+. χ∗j und ϕ∗j
konvergieren gleichmaßig gegen χ∗ bzw. ϕ∗ auf S bzw. D+ (ohne Beweis).
Vorgehensweise: Bilde den Limes auf beiden Seiten von 1.12 und erhalte
χ∗(s) = maxa∈A(s)
{r(s, a) + αχ∗(z(s, a))} Bellman’sche Funktionalgleichung, (1.13)
wobei χ∗ der optimale Gewinn des unendlich-stufigen Problems ist.
Satz 1.5.2. Unter den Voraussetzungen (U1)-(U5) und der obigen Annahme besitzt dieBellman’sche Funktionalgleichung
w(s) = maxa∈A(s)
{r(s, a) + αw(z(s, a))} (1.14)
nur eine beschrankte Losung.
Notationen.
f∗j ∈ arg maxa∈A(s)
{ϕ∗j (s, a)
}∀s ∈ S, ∀j ∈ N
f∗(s) ∈ arg maxa∈A(s)
{r(s, a) + αχ∗(z(s, a))} ∀s ∈ S (optimale Politik)
Bemerkung. Im Allgemeinen sind f∗j und f∗ nicht eindeutig.
Satz 1.5.3. Unter den Voraussetzungen (U1)-(U5) und der obigen Annahme ist jeder Haufungspunktder Folge f∗j (s) gleich dem Funktionswert einer optimalen Politik f∗ des unendlich-stufigenProblems (U) ∀s ∈ S.
Hat beispielsweise f∗j (s0) 2 Haufungspunkte a, b, dann existieren f∗1 , f∗2 als Optimallosungen/Politik
von (U), sodass f∗1 (s0) = a, f∗2 (s0) = b.
Bemerkung. Analog wie bei endlichstufigen Problemen gilt wenn D konvex, z auf D strengkonvex und r linear ist, dann sind f∗j und f∗ eindeutig. In diesem Fall gilt limj→∞ f
∗j (s) =
f∗(s) ∀s ∈ S0.
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 27
1.5.1 Losungsverfahren fur das Problem (U): Wertiteration vs. Politikite-ration
Wertiteration: Konstruiere Folgen χ∗j und f∗j mittels sukzessiver Auswertung der Funktio-nalgleichung 1.14. Lose beginnend mit χ∗0(s) = 0 ∀s ∈ S
χ∗1(s) = maxa∈A(s)
{r(s, a) + α · 0}
f∗1 (s) ∈ arg maxa∈A(s)
{r(s, a)}
χ∗2(s) = maxa∈A(s)
{r(s, a) + αχ1(z(s, a))}
f∗2 (s) ∈ arg maxa∈A(s)
{r(s, a) + αχ1(z(s, a))}
. . .
und die weiteren j ∈ N bis ein Stoppkriterium∣∣∣∣∣χ∗j (s)− χ∗j−1(s)
χ∗j−1(s)
∣∣∣∣∣ < ε
fur ein vorgegebenes ε > 0 erfullt ist.Setze χ∗ = χ∗j , f
∗ = f∗j fur das letzte j.
Politikiteration: Fur alle s setze f+1 (s) ∈ arg maxa∈A(s) r(s, a). Sei χ+
1 eine Losung fol-gender Funktionalgleichung
χ1(s) = r(s, f+1 (s)) + αχ1(z(s, f+
1 (s)))
und sei ϕ+j : D+ → R, sodass
ϕ+j (s, a) = r(s, a) + αχ+
j−1(z(s, a)) ∀2 ≤ j ∈ N
mit χ+0 (s) = 0 ∀s.
Sei
f+j (s) ∈ arg max
a∈A(s)ϕ+j (s, a), (1.15)
dann bestimme eine Losung χ+j der Funktionalgleichung
χj(s) = r(s, f+j (s)) + αχj(z(s, f
+j (s))) (1.16)
solange bis ein Stoppkriterium ∣∣∣∣∣χ+j (s)− χ+
j−1(s)
χ+j−1(s)
∣∣∣∣∣ < ε
fur ein vorgegebenes ε > 0 erfullt ist.
KAPITEL 1. DYNAMISCHE OPTIMIERUNG 28
Bemerkung. Wir tun so als ob f+j (s) die beste Politik ware. Es ist eine Approximation.
Satz 1.5.4. Unter den Voraussetzungen (U1)-(U5) und der obigen Annahme hat die Funktio-nalgleichung 1.16 genau eine beschrankte Losung χ∗j fur jede gemaß 1.15 festgelegte Funktion
f+j ∀j ∈ N.
Satz 1.5.5. Mit den gleichen Voraussetzungen wie im vorhergehenden Satz und erfulltenAnnahmen konvergiert die Folge der (eindeutigen) beschrankten χ+
j gleichmaßig gegen χ∗,wobei χ∗ die eindeutig beschrankte Losung von (U) ist. Weiters ist jeder Haufungpunkt derFolge f+
j (s) der Wert einer optimalen Politik f∗ an der Stelle s ∀s ∈ S.
Vergleich:
• Die Wertiteration ist leichter umsetzbar als die Politikiteration. Bei der Politikiterationmuss in jeder Iteration eine im Allgemeinen nicht triviale Funktionalgleichung gelostwerden.
• Wenn f+j = f+
j+1 fur j ∈ N, dann sind die Folgen f+i und χ+
i , i ≥ j konstant. Deroptimale Gewinn liegt vor
χ∗ = limi→∞
χ+i = χ+
j .
• Die Politikiteration ist sinnvoll, falls eine gute bekannte Politik verbessert werden soll.
• Wertiteration:
χ∗j → χ∗ =
∞∑j=0
αjr(s, f∗j (s))
Die Konvergenzgeschwindigkeit hangt von α ab.Politikiteration: Die Konvergenzgeschwindigkeit ist i.A. unabhangig von α, daher ist essinnvoll fur α ≈ 1 die Politikiteration zu wahlen (entspricht einem niedrigen Zinssatz p,denn α = 1
1+p).
Kapitel 2
Lagerhaltungsprobleme
Funktion: Ein Lager dient zur Entkopplung der Bedarfserfullung (Verkauf) von dem Produktions-bzw. Bestellungsprozess.
Typen: Ein-Produkt-Lager, Mehr-Produkt-Lager, Just-in-time-Systeme (moglichst kleinesLager), Multi-echelon-systems (Lager bekommt halbfertige Produkte und muss noch Produk-tionsschritte durchfuhren), Supply-chain-management, Material-replanishment-planing
Wir betrachten Ein-Produkt-Lager und treffen die folgenden Annahmen:
• das Produkt wird nur an einem Standort gelagert und hat kein Ablaufdatum,
• die Nachfrage ist konstant uber die Zeit,
• es sind keine Fehlmengen erlaubt,
• das Lager produziert nicht selbst, es existiert nur ein vordefinierter Lieferant,
• es gibt keine Mengenrabatte,
• es existiert keine Lieferzeit,
• der Planungshorizont ist unendlich,
• alle Parameter des Modells sind konstant im Zeitablauf (stationar),
• die Bestellgroße ist konstant uber die Zeit und
• man hat folgende Kosten:
– Lagerungskosten h pro Produkt- und Zeiteinheit,
– fixe Bestellkosten K pro Bestellung, unabhangig von der bestellten Menge und
– variable Bestellkosten c pro Produkteinheit.
Frage: Wann und wie viel soll bestellt werden?
29
KAPITEL 2. LAGERHALTUNGSPROBLEME 30
2.1 Das grundlegende Lagerhaltungsmodell
Bemerkung. Es wird auch als Sagezahnmodell bezeichnet und im Englischen redet man vomEconomic Order Quality Modell (EOQ).
T 2T 3T
Lagerbestand
Zeit
Q
L = Q− rt im Intervall [0, T ] (Lagerbestand) Q . . . Bestellmenger . . . Lagerabgangsrate (konstant, dadurch ist die Nachfrage beschrieben)T = Q
r . . . Zykluslange
Aufgabe: Bestimme Q (bzw. T ), sodass die Gesamtkosten pro Zeiteinheit minimiert wer-den!
Lagerhaltungskosten:h. . . Kosten fur das Lagern einer Produkteinheit uber eine ZeiteinheitQ2 . . . mittlerer Lagerbestand im Laufe eines Zyklus
hQ2 . . . mittlere Lagerungskosten je Zeiteinheit
hQ2 T = hQ2
2r . . . Lagerungskosten pro ZyklusBestellkosten uber einen Zyklus:
Kδ(Q) + cQ
mit δ(Q) als IndikatorfunktionGesamtkosten pro Zyklus:
Kδ(Q) + cQ+hQ2
2r
Gesamtkosten pro Zeiteinheit:
C(Q) =Kδ(Q)
Qr
+cQQr
+hQ2
2rQr
=Krδ(Q)
Q+ cr +
hQ
2
Minimum bestimmen:
C(Q)′ = −KrQ2
+h
2= 0⇔ Q∗ =
√2Kr
h(2.1)
C(Q)′′ =2Kr
Q3> 0
KAPITEL 2. LAGERHALTUNGSPROBLEME 31
⇒ Minimum eindeutig, optimale LosgroßeOptimale Zykluslange:
T ∗ =Q∗
r=
√2K
hr(2.2)
Minimale Kosten je Zeiteinheit:
C(Q∗) =Kr√
2Krh
+ cr +h
2
√2Kr
h
=
√hKr
2+ cr +
√hKr
2
= 2
√hKr
2+ cr
=√
2hKr + cr
Beobachtung: Q∗ und T ∗ hangen nicht von den variablen Bestellkosten c ab.
1. Erweiterung des Modells: Fehlmengen sind erlaubt.
• p. . . Fehlmengenkosten pro Produkt- und Zeiteinheit,
• S und s (s < 0) . . . sind die Lagerbestande zu Beginn bzw. am Ende eines Zyklus,
• S. . . Lagerbestand unmittelbar nach Eintreffen einer Bestellung,
• s. . . Lagerbestand unmittelbar vor Eintreffen einer Bestellung,
• Q. . . Bestellmenge (Losgroße),
• s = S −Q (maximale Fehlmenge)
S
sT 2T 3T
Zeit
Lagerbestand
L = S − rt im Intervall [0, T ]
Aufgabe: Q,S bestimmen, sodass die Gesamtkosten je Zeiteinheit minimal sind.
Lagerungskosten in [0, T ]: fallen in [0, Sr ] an
• mittlerer Lagerbestand: S2 ,
KAPITEL 2. LAGERHALTUNGSPROBLEME 32
• mittlere Lagerungskosten je Zeiteinheit: hS2 ,
• Lagerungskosten je Zyklus: hS2Sr = hS2
2r
Fehlmengen im Zyklus [0, T ]: fallen in [Sr , T = Qr ] an (Intervalllange Q−S
r )
• mittlere Fehlmenge: s2 = S−Q
2 < 0,
• mittlere Fehlmengenkosten je Zeiteinheit: pQ−S2 ,
• Fehlmengenkosten je Zyklus: pQ−S2Q−Sr = p(Q−S)2
2r
Bestellkosten:
Kδ(Q) + cQ
Gesamtkosten je Zyklus:
Kδ(Q) + cQ+hS2
2r+p(Q− S)2
2r
Gesamtkosten je Zeiteinheit:
C(Q,S) =Kδ(Q)r
Q+ cr +
hS2
2Q+p(Q− S)2
2Q
Minimum bestimmen:
∂C
∂Q=−2rK + p(Q2 − S2)− hS2
2Q2= 0
∂C
∂S=hS − p(Q− S)
Q= 0
Die Hessematrix ist positiv definit und wir erhalten wie gewunscht ein Minimum. Es werdenfolgende optimale Großen angenommen:
S∗ =
√2rK
h·√
p
p+ hoptimaler hochster Lagerbestand
Q∗ =h+ p
pS =
√2rK
h·
√h+ p
poptimale Losgroße
s∗ = S∗ −Q∗
=
√2rK
h·
(√p
p+ h−
√h+ p
p
)
=
√2rK
h·
(p− (p+ h)√p(p+ h)
)
=
√2rKh
p(p+ h)
=
√2rK
p·√
1− p
p+ hoptimale negative Fehlmenge
T ∗ =Q∗
r=
√2K
hr·
√h+ p
poptimale Zykluslange
KAPITEL 2. LAGERHALTUNGSPROBLEME 33
Minimale Kosten je Zeiteinheit:
C∗ = C(Q∗, S∗) = rc+√
2rKh ·√
p
p+ h
Beobachtung:
• S∗/rQ∗/r = S∗
Q∗ = pp+h ist unabhangig von K und c.
• Fur p→∞ erhalt man die Losung eines Basismodells ohne Fehlmengen.
• Die optimale Losung ist eine sogenannte (s, S)-Politik mit Bestellpunkt s (Hohe desLagerbestands, zu der eine Bestellung abgegeben wird) und Bestellgrenze S (bis zuwelcher Grenze wird Lager gefullt).
2. Erweiterung des Modells: Lieferzeiten vorhandenHier gibt es eine Lieferzeitkonstante λ.Fallunterscheidung:
1.) λ < T ∗: Wahle den Bestellzeitpunkt so, dass die Bestellung zum Bestellpunkt eintrifft.Bestellzeitpunkte: T ∗ − λ, 2T ∗ − λ, . . .,
2.) λ ≥ T ∗ : l := b λT ∗ c ⇒ λ = lT ∗ +R, 0 ≤ R < T ∗
Bestellzeitpunkte: T ∗ − λ, 2T ∗ − λ, . . .⇒ T ∗ −R, 2T ∗ −R, . . .
3. Erweiterung: Lager produziert selbst mit konstanter Produktionsrate ρ > 0
• wenn ρ > r, dann sind Fehlmengen nicht erlaubt,
• die Anlaufzeit fur die Produktion sei gleich 0,
• Q. . . ist der maximale Lagerbestand,
• Q. . . produzierte Menge je Zyklus
T T
Lagerbestand
Zeit
Q
1
Es gilt
L =
{t(ρ− r) 0 ≤ t ≤ T1(produziere und verkaufe)
−tr +Q T1 ≤ t ≤ T (verkaufe nur)T1 =
Q
ρ− r
Q = ρT1 = Tr
⇒ T1 =Tr
ρ=Q
ρ.
KAPITEL 2. LAGERHALTUNGSPROBLEME 34
Mittlerer Lagerbestand je Zyklus:
Q
2=
(ρ− r)T1
2=
(ρ− r)Q2ρ
Mittlere Lagerungskosten je Zeiteinheit:
h(ρ− r)Q
2ρ
Lagerungskosten je Zyklus:
h(ρ− r)Q
2ρT = h
(ρ− r)Q2ρ
Q
r
= h(ρ− r)Q2
2rρ
Produktionskosten je Zyklus: K + cQGesamtkosten je Zyklus:
K + cQ+ h(ρ− r)Q2
2rρ
Gesamtkosten je Zeiteinheit:
C(Q) =Kr
Q+ cr +
h(ρ− r)Q2ρ
Bemerkung. Das ist das Minimierungsproblem des grundlegenden Lagerhaltungsproblems(EOQ) mit hEOQ = hρ−rρ .
Daraus folgen die nachstehende optimalen Großen:
Q∗ =
√2rK
h(1− rρ)
T ∗ =
√2K
h(1− rρ)r
C∗ =
√2rh
(1− r
ρ
)K + cr.
4. Erweiterung: Mengenrabatte.
• variable Produktionskosten abhangig von Q, es ist fur 0 < c′′ < c′
c(Q) =
{c′ 0 ≤ Q < Q
c′′ Q ≥ Q,
• keine Fehlmengen, keine Anlaufzeit
KAPITEL 2. LAGERHALTUNGSPROBLEME 35
Gesamtkosten je Zeiteinheit:
C(Q) =rK
Q+ rc(Q) +
hQ
2
C1(Q) =rK
Q+ rc′ +
hQ
2
C2(Q) =rK
Q+ rc′′ +
hQ
2
Sei Q+ die minimale Stelle von C1(Q) und C2(Q). Dann ist fur
1.) Q > Q+ : Q∗ =
{Q+ C1(Q+) ≤ C2(Q)
Q sonstund
2.) Q ≤ Q+ : Q∗ = Q+.
Q Q_
+ Q
C (Q)
C (Q)
1
2
QQ_
+ Q
C (Q)
C (Q)
1
2
2.2 Ein deterministisches dynamisches Lagerhaltungsmodell
Annahmen:
• endlicher Zeithorizont, Perioden 1, . . . n,
• Nachfrage je Periode rj bekannt im Voraus j = 1, . . . n,
• fixe Bestellkosten K konstant im gesamten Zeithorizont,
• Stuckpreise c pro Produkteinheit, konstant in der Zeit,
• Lagerhaltungskosten h pro Zeit- und Mengeneinheit konstant in der Zeit,
• Bestellmenge uj , j = 1, . . . n
Gesucht: Bestellpolitik, die die Gesamtkosten minimiert.
Es gilt o.B.d.A. folgendes
• rj > 0 ∀j = 1, . . . n, wenn ein rk = 0, dann lege 2 Perioden zusammen.
KAPITEL 2. LAGERHALTUNGSPROBLEME 36
• Der Bedarf wird sofort nach der Bestellung zu Beginn der Periode erfullt. Die Lager-haltungskosten werden bzgl. des Lagerbestands am Ende der Periode berechnet. (zuBeginn x0, bestelle u1, Abgang −r1 und habe dann x1 am Ende von der 1. Periode bzw.am Anfang der 2. Periode (vor Bestellung) usw.)
• x0 = xn = 0
Es ist
xj = xj−1 + uj − rj ∀j = 1, . . . n Lagerhaltungsgleichung. (2.3)
Die variablen Bestellkosten c∑n
j=1 rj sind unabhangig von der Bestellpolitik und daher furdie Optimierung irrelevant. Sie werden daher fur die Bestimmung der optimalen Losung ver-nachlassigt.Die minimalen Kosten des Problems fur die Perioden 1, . . . j sind C∗j (xj), wobei xj der La-gerbestand am Ende von Periode j ist. Es ergibt sich
C∗j (xj) = min0≤uj≤xj+rj
δ(uj)K + hxj + C∗j−1( xj−1︸︷︷︸=xj−uj+rj
)
∀j = 1, . . . n, (2.4)
wobei C0(x) =
{0 x = 0
∞ x < 0und C∗j (x) =∞ ∀x < 0.
Bemerkung. Die Grenzen fur uj beim Minimum sind aus 2.3 zu folgern. Das Problem wirdmit Wertiteration gelost.
Lemma 2.2.1. Sei x∗, u∗ eine optimale Losung des obigen Problems, dann gilt fur alle j =1, . . . n, dass
x∗j−1 = 0 ∧ u∗j > 0 oder x∗j−1 > 0 ∧ u∗j = 0.
Beweis: Annahme: Es existieren optimale Losungen x∗, u∗ und j0 ∈ [1, . . . n] mit x∗j0−1 >0 ∧ u∗j0 > 0. Sei
x+j0−1 = 0
u+j0
= u∗j0 + x∗j0−1 ≥ u∗j0 > 0
x+j0
= x+j0−1 + u+
j0− rj0
= 0 + u+j0− rj0
= x∗j0−1 + u∗j0 − rj0 = x∗j0 .
Die neue Losung sieht ab j0 wie folgt aus
. . . x+j0−1 = 0, u+
j0, x+
j0= x∗j0 , u
+j0+1 = u∗j0+1, . . .
Sei P (j0) ein (j0−1)-stufiges Problem mit gleichem Input wie das ursprungliche Problem undsei xj0−1 = 0 (leeres Lager am Ende). Sei x+(j0), u+(j0) eine optimale Losung und seien C+(j0)
die minimalen Kosten von P (j0) . Dann gilt
C+(j0) ≤ C∗j0−1(xj0−1),
KAPITEL 2. LAGERHALTUNGSPROBLEME 37
da man ausgehend von x∗i−1, u∗i fur i = 1, . . . j0 − 1 eine Losung von P (j0) konstuieren kann,
indem die bestellte Menge u∗i dementsprechend verringert wird, da man bei P (j0) ein leeresLager am Ende hat. Es gilt sogar ”<”, da xj0−1 > 0 nach Voraussetzung und somit fallenLagerkosten an (rechte Seite).Seien C+ die Kosten der +-Losung, dann ist
C+ = C+(j0) +n∑
j=j0
[Kδ(u+j ) + hx+
j ]
< C∗j0−1(xj0−1) +K δ(u+j0
)︸ ︷︷ ︸δ(u∗j0
)
+hx+j0︸︷︷︸
hx∗j0
+n∑
j>j0
[Kδ(u∗j ) + hx∗j ]
= C∗.
Dies ist ein Widerspruch zur Optimalitat von C∗ und somit folgt die Aussage des Lemmas.
2
Folgerung:
• u∗j > 0⇒ x∗j−1 = 0⇒ u∗j ≥ rj .
• Falls u∗j > rj ⇒ x∗j > 0⇒ u∗j+1 = 0⇒ u∗j ≥ rj + rj+1 usw.
• Es gilt
u∗j ∈ {rj , rj + rj+1, . . . , rj + . . . rj+n} , (2.5)
das heißt, sobald ich weiß wann ich bestelle, weiß ich auch wie viel.
Weiters gilt: Sei j so, dass x∗j = 0 (dieses existiert, da x∗n = 0) und sei k ∈ {0, . . . j − 1} sogewahlt, dass x∗k = 0, x∗k+1 > 0, . . . x∗j−1 > 0, das heißt k ist der großte Periodenindex kleinerj mit leerem Lager am Ende vor Periode j (existiert, da x∗0 = 0) . Aus 2.5 folgt
u∗k+1 = rk+1 + . . .+ rj
u∗k+2 = u∗k+3 . . . u∗j = 0
x∗k+1 = rk+2 + . . .+ rj
x∗k+2 = rk+3 + . . .+ rj
. . .
x∗j−1 = rj .
Minimale Kosten uber die Perioden k + 1, . . . j:
K + h(x∗k+1 + . . .+ x∗j−1) = K + h(rk+2 + 2rk+3 + . . .+ (j − 1− k)rj)
⇒ C∗j (x∗j = 0) = min0≤k≤j−1
{K + h(rk+2 + 2rk+3 + . . .+ (j − 1− k)rj + C∗k(x∗k = 0)} (2.6)
(Ruckwartsrekursion, rk+1 geht sofort wieder weg - keine Lagerkosten)
KAPITEL 2. LAGERHALTUNGSPROBLEME 38
Sei
Ij(k) := K + h(rk+2 + 2rk+3 + . . .+ (j − 1− k)rj) + C∗k(x∗k = 0)
∀j = 1, . . . n,∀k = 0, . . . j − 1 (2.7)
C∗j (0) = min0≤k≤j−1
Ij(k) =: I∗j (2.8)
k∗j := max
{arg min0≤k≤j−1
Ij(k)
}
Aus 2.6 - 2.8 folgt fur k ≤ j − 2
Ij(k) = K + h(rk+2 + 2rk+3 + . . .+ (j − 2− k)rj−1 + (j − 1− k)rj) + C∗k(x∗k = 0)
= K + h(rk+2 + 2rk+3 + . . .+ ((j − 1)− 1− k)rj−1) + C∗k(x∗k = 0) + h(j − 1− k)rj
= Ij−1(k) + h(j − 1− k)rj . (2.9)
und fur k = j − 1
Ij(k) = Ij(j − 1) = K + I∗j−1. (2.10)
Algorithmus. Wagner und WhitinSchritt 1: Vorwarts: I∗1 = I1(0) = K und k∗1 = 0
Fur j = 2, 3, . . . n bestimme
Ij(k) =
{Ij−1(k) + (j − 1− k)hrj 0 ≤ k ≤ j − 2
I∗j−1 +K k = j − 1(bestelle nur f. eine Periode)
I∗j = min0≤k≤j−1
Ij(k)
k∗j = max
{arg min0≤k≤j−1
Ij(k)
}.
Setze C∗ = I∗n + c(r1 + . . .+ rn).Schritt 2: Ruckwarts: Setze
l = k∗n
u∗l+1 = rl+1 + . . .+ rn
u∗l+2 = u∗l+3 = . . . = u∗n = 0.
Solange l > 1, setze
m = k∗l
u∗m+1 := rm+1 + . . .+ rl
u∗m+2 = u∗m+3 = . . . = u∗l = 0
l := m.
Output: ui fur i = 1, . . .m und C∗.
KAPITEL 2. LAGERHALTUNGSPROBLEME 39
Satz 2.2.2. Der Algorithmus liefert eine korrekte Losung des dynamischen Lagerhaltungspro-blems aus diesem Abschnitt. Eine triviale Implementierung liefert eine Laufzeit von O(n2).Unter Verwendung von
”balanced binary trees“ kann der Algorithmus in O(n) implemen-
tiert werden. Bei zeitabhangigen fixen Bestellkosten Ki, variablen Bestellkosten ci und La-gerungskosten hi, i = 1, . . . n lasst sich der Algorithmus in O(n log n) Zeit implementieren,vorausgesetzt K1 ≤ K2 ≤ . . . ≤ Kn.
Beweis: Die Korrektheit folgt aus 2.9-2.10. Die Laufzeit von O(n) ist trivial. Bei weiteremInteresse siehe [1].
Beispiel. K = 2 · 106 = 2 Mio, h = 2 · 105 = 0.2 Mio
Winter j = 1 Fruhling j = 2 Sommer j = 3 Herbst j = 4
3 2 3 2
• Start:
I∗1 = I1(0) = K = 2
k∗1 = 0
• j = 2:
I∗2 = mink∈{0,1}
I2(k) = 2.4
k∗2 = 0, weil
I2(k) =
{I1(0) + 1 · 0.2 · 2 = 2.4 k = 0
K + I∗1 = 4 k = 2
• j = 3:
I∗3 = 3.6
k∗3 = 0, weil
I3(k) =
{I2(k) + (2− k) · 0.2 · 3 k = 0, 1
K + I∗2 k = 2
=
2.4 + 1.2 = 3.6 k = 0
4 + 0.6 = 4.6 k = 1
2 + 2.4 = 4.4 k = 2
KAPITEL 2. LAGERHALTUNGSPROBLEME 40
• j = 4:
I∗4 = 4.8
k∗3 = 2, weil
I4(k) =
{I3(k) + (3− k) · 0.2 · 2 k = 0, 1, 2
K + I∗3 k = 3
=
4.8 k = 0
5.4 k = 1
4.8 k = 2
5.6 k = 3
Die letzte Bestellung, die bis zum Ende der Zeit reicht, wird nach Periode 2 getatigt, dennk∗4 = 2. Betrachte nun k∗2 = 0, und folgere, dass die letzte Bestellung fur bis zum Ende vonPeriode 2 zum Zeitpunkt 0, also am Anfang gemacht wird.
u∗1 = 3 + 2 = 5 Bedarf Winter und Fruhling
u∗3 = 3 + 2 = 5 Bedarf Sommer und Herbst
C∗ = I∗4 + c(r1 + r2 + r3 + r4) minimale Kosten
2.3 Ein serielles zweistufiges Lagersystem
Situation:1. Stufe: Teilproduktions- und Lagerstatte2. Stufe: Fertigstellungs- und Lagerstatte
Annahmen:
• EOQ-Annahmen gelten in Stufe 2 (konstante Abgangsrate, keine Fehlmengen, Bestel-lung, wenn Lager leer),
• fixe Bestellkosten im Zeitablauf Ki in Stufe i = 1, 2,
• Stufe 1 verwendet das Lager ausschließlich um Stufe 2 zu beliefern, Lieferzeit ist ver-nachlassigbar,
• fixe Lagerungskosten hi pro Mengen- und Zeiteinheit in Stufe i = 1, 2 und h1 < h2,
• eine Einheit des unfertigen Produkts in Stufe 1 wird benotigt um ein fertiges Produktin Stufe 2 zu erzeugen und
• fixe Bestellgroße Qi in Stufe i = 1, 2.
Ziel: Minimierung der Gesamtkosten beider Stufen.
Bemerkung. h1 < h2 ist sinnvoll, da Produkt in Station 2 mehr Wert hat als in Stufe 1 undfalls h1 > h2 ist, dann verschicke das Teilprodukt sofort.
KAPITEL 2. LAGERHALTUNGSPROBLEME 41
Q
Q
Lagerbestand
Zeit
1
2
Notationen. Echelon-Lagerbestand in Stufe 1 in Zeitpunkt t ist der physikalische Lagerbe-stand im Lager 1 zum Zeitpunkt t zusammen mit dem physikalischen Lagerbestand im Lager2 zum Zeitpunkt t.
Gesamtkosten je Zeiteinheit: C1 + C2 (exklusive variable Bestellkosten)Sei M1 der mittlere Lagerbestand im Lager 1, dann ist
Q1 = nQ2
T1 = nT2
T2 =Q2
r
C1 =K1
T1+ h1 ·M1
=K1
nT2+ h1 ·M1 (fixe Bestellkosten und Lagerungskosten je Zeiteinheit)
C2 =rK2
Q2+h2Q2
2(2.11)
Der mittlere Lagerbestand M1 berechnet sich aus:
T2(n− 1)Q2 + T2(n− 2)Q2 + . . . T2Q2 + T2 · 0 = nT2M1
⇒M1 = Q2n(n− 1)
2n= Q2
n− 1
2.
Daraus folgt
C1 =K1
nQ2
r
+ h1n− 1
2Q2
=rK1
nQ2+Q2h1
n− 1
2
⇒ C(Q2, n) =rK1
nQ2+Q2h1
n− 1
2+rK2
Q2+h2Q2
2
=r
Q2
(K1
n+K2
)+Q2
2(h2 − h1︸ ︷︷ ︸
e2
+n h1︸︷︷︸e1
), (2.12)
wobei e1, e2 die Echelon-Lagerungskosten je Mengen- und Zeiteinheit sind. Man kann diese alsLagerungskosten fur den Mehrwert der Produkte, der in Stufe 2 erzeugt wird, interpretieren.
KAPITEL 2. LAGERHALTUNGSPROBLEME 42
Minimum bestimmen:
∂C
∂Q= − r
Q22
(K1
n+K2
)+ne1 + e2
2= 0
⇔ Q∗2 =
√2r(K1
n +K2)
ne1 + e2
Dies ist eine Minimum.Wir setzen dies in 2.12 ein und erhalten
C(n) =√
2r ·√K1
n+K2 ·
√ne1 + e2 (2.13)
Um nun das n zu finden, welches unsere Kosten minimiert, betrachten wir
arg minC(n) = arg minC2(n)
∂C2(n)
∂n= 2rK2e1 −
2rK1e2
n2= 0
⇔ n2 =K1e2
K2e1
n∗ =
√K1e2
K2e1.
Falls n∗ ∈ N ist, dann kann C problemlos berechnet werden. Ansonsten vergleiche die Kostenund beachte, dass nur C1 abhangig von n ist
C(bn∗c) ≶ C(dn∗e) = C(bn∗c+ 1)
⇔ C1(bn∗c) ≶ C1(bn∗c+ 1)
⇔ K1r
bn∗cQ2+h1(bn∗c − 1)Q2
2≶
K1r
(bn∗c+ 1)Q2+h1bn∗cQ2
2
⇔ K1r
Q2
(1
bn∗c− 1
(bn∗c+ 1
)≶h1Q2
2
⇔ 1
bn∗c(bn∗c+ 1)≶h1Q
22
2K1r=
1
(n∗)2
⇔ n∗
bn∗c≶bn∗c+ 1
n∗
und runde n∗ auf falls”>“ bzw. ab falls
”<“ in der letzten Ungleichung gilt (somit sind die
Kosten minimal).Wir zeigen noch, dassh1Q2
22K1r
= 1(n∗)2 ist. Es gilt
C(Q∗2, n) = C1(n,Q∗2) + C2(n,Q∗2)︸ ︷︷ ︸C2(Q∗2)
arg minn
C(Q∗2, n) = arg minn
C1(n,Q∗2)
∂C1(n,Q∗2)
∂n=
∂
∂n
(K1r
nQ∗2+h1(n− 1)Q∗2
2
)=−K1r
n2Q∗2+h1Q
∗2
2= 0
⇔ (n∗)2 =2K1r
h1(Q∗2)2.
KAPITEL 2. LAGERHALTUNGSPROBLEME 43
2.4 Mehrstufige Lagersysteme
Situation: N Stufen, Qi. . . Losgroße in Stufe i, Ti. . . Zykluslange in Stufe i, Rest wie ebenmit folgenden
Annahmen:
• Ki, i = 1, . . . N . . . fixe Bestellkosten,
• hi . . . Lagerungskosten mit h1 ≤ h2 ≤ . . . ≤ hN ,
• EOQ in der letzten Stufe,
• eine Produkteinheit von Stufe i wird benotigt um eine Produklteinheit in Stufe i+ 1 zuproduzieren ∀i = 1, . . . N − 1,
• Qi = niQi+1, ni ∈ N und
• es sind keine Fehlmengen erlaubt .
Q
Q
Lagerbestand
Zeit
Q
T
T
T
1
2
23
3
1
Gesamtkosten=fixe Bestellkosten+ variable Bestellkosten+Lagerkosten, wobei die variablenKosten fur die Optimierung irrelevant sind.
Fixe Bestellkosten je Zeiteinheit: Ki in Stufe i fur eine Periode der Lange Ti, also KiTi
jeZeiteinheit. Weil
Ti =Qir, Ti+1 =
Qi+1
rund
Qi = niQi+1 ni ∈ N,
KAPITEL 2. LAGERHALTUNGSPROBLEME 44
folgt
Tir = Qi = niQi+1 = niTi+1r
⇔ Ti = niTi+1
= nini+1Ti+2
= . . .
= ni · · ·nN−1TN
= piTN ,
wobei pi = nini+1 · · ·nN−1 ∀i = 1, . . . N − 1, pN = 1. Fur alle Stufen ergeben sich die Bestell-kosten je Zeiteinheit aus
N∑i=1
Ki
Ti=
N∑i=1
Ki
piTN
=1
TN
N∑i=1
Ki
pi.
Lagerkosten je Zeiteinheit: In Stufe i gibt es einen mittleren Lagerbestand in [0, Ti] von
Mi =(ni − 1)Qi+1Ti+1 + (ni − 2)Qi+1Ti+1 + . . .+Qi+1Ti+1
Ti
= Ti+1(ni − 1) + (ni − 2) + . . .+ 1
TiQi+1
=Ti+1niTini
· ni − 1
2· niQi+1
=ni − 1
2Qi+1.
Mit
Qi = niQi+1
= nini+1Qi+2
= . . .
= ni · · ·nN−1QN
= piQN ,
erhalt man die Lagerkosten je Zeiteinheit in Stufe i durch
hini − 1
2Qi+1 = hi
ni − 1
2pi+1QN .
KAPITEL 2. LAGERHALTUNGSPROBLEME 45
Betrachtet man nun die Lagerkosten je Zeiteinheit fur alle Stufen, so ergibt sich
QN
N−1∑i=1
hini − 1
2pi+1 + CN
= QN
(h1n1 − 1
2n2 · · ·nN−1 + h2
n2 − 1
2n3 · · ·nN−1 + . . .+ hN−1
nN−1 − 1
2+ hN
1
2
)= QN
(h1p1
2− h1
p2
2+ h2
p2
2− h2
p3
2+ . . .+ hN−1
pN−1
2− hN−1
1
2+ hN
1
2
)= QN
(h1p1
2+p2
2(h2 − h1) + . . .+
pN−1
2(hN−1 − hN−2) +
1
2(hN − hN−1)
)= QN
N∑i=1
piei2
= rTN
N∑i=1
piei2.
Gesamtkosten je Zeiteinheit:
C(p1, . . . pN−1, TN ) =1
TN
N∑i=1
Ki
pi+ rTN
N∑i=1
piei2
Diese Kosten sind zu minimieren. Wir haben somit folgendes zu losen:
(P ) minC(p1, . . . pN−1, TN )
s.t. TN ∈ R+
pi ∈ N ∀i = 1, . . . N − 1
pi ≥ pi+1 ∀i = 1, . . . N − 1.
Dies ist NP-vollstandig, daher modifizieren wir es zu
(P1) minC(p1, . . . pN−1, TN )
s.t. TN ∈ R+
pi = 2li li ∈ N0 = N ∪ {0} , ∀i = 1, . . . N − 1
pi ≥ pi+1 ∀i = 1, . . . N − 1.
Satz 2.4.1. Roundy’s 98 Prozent Approximation Property: Seien C∗1 und C∗ die optimalenZielfunktionswerte von (P1) bzw. von (P ), dann gilt C∗1 − C∗ ≤ 0.02C∗.
Relaxation von (P ) und (P1):
(P2) minC(p1, . . . pN−1, TN )
s.t. TN ∈ R+
1 ≤ pi ∈ R ∀i = 1, . . . N − 1
pi ≥ pi+1 ∀i = 1, . . . N − 1
Aus der 3. Restriktion (Monotonie der pi) folgt
Qi = piQN = fpi+1QN = fQi+1 mitf ≥ 1
⇒ Qi ≥ Qi+1.
KAPITEL 2. LAGERHALTUNGSPROBLEME 46
Dies wurde also nicht relaxiert. Die Simultanitat des Lagersystems wurde relaxiert.
Approximatives Losungsverfahren fur (P2):
Phase 1: Berechne Qi =√
2rKiei
als Losung des EOQ-Modells der Stufe i.
ci =rKi
Qi+eiQi
2
Postprocessing (optional): Falls Qi = Qi+1 fur ein i ∈ {1, . . . N − 1}, dann lege dieStufen i und i+ 1 zusammen, erzeuge eine neue Stufe (i, i+ 1) mit fixen BestellkostenKi +Ki+1 und Echelon-Lagerkosten ei + ei+1.
Phase 2: Initialisiere L = ∅ (LIFO) als Liste der zusammengelegten Lagerstufen.N = N, Ki = Ki, ei = ei ∀i = 1, . . . N
1.) Solange ∃i ∈{
1, . . . N − 1}
: Kiei< Ki+1
ei+1(Monotonieeigenschaft), lege Stufen i und
i+ 1 zusammen und setze
L := L ∪ {i} ,N := N − 1,
Ki := Ki + Ki+1,
ei := ei+1
Kj := Kj+1,
ej := ej+1 ∀j > i.
2a) Qi =√
2rKiei∀i = 1, . . . N
(nicht zusammengelegte Lager erfullen die Monotonie sicher)
2b) Setze N := N + 1 und fur ∀i ∈ L (in LIFO-Reihenfolge) und ∀j = N , . . . i+ 1
Qj = Qj−1, Qi = Qi.
Setze
Qi := Qi ∀i = 1, . . . N (zuruck umbenennen)
ci =rKi
Qi+eiQi
2∀i = 1, . . . N
C :=N∑i=1
ci.
Output: Qi und C (optimaler ZFW fur (P2)).
KAPITEL 2. LAGERHALTUNGSPROBLEME 47
Phase 3: Modifizierung der Losung aus Phase 2 um Losung fur (P1) zu erhalten.
C =N∑i=1
rKi
piQN+
N∑i=1
eipi2QN
=r
QN
N∑i=1
Ki
pi+QN2
N∑i=1
eipi
= CEOQ(QN ), (2.14)
wobei die Bestellkosten des EOQ-Modells als∑N
i=1Kipi
und die Echelon-Lagerkosten als∑Ni=1 eipi gegeben sind.
1.) Setze Q∗N = QN (aus Phase 2).
2a) ∀i = N − 1, . . . 1 betrachte Qi aus Phase 2 und bestimme m ∈ N0, sodass
2mQ∗i+1 ≤ Qi ≤ 2m+1Q∗i+1.
Falls
Qi2mQ∗i+1
≤2m+1Q∗i+1
Qi,
dann setze
m∗i = m und sonst
m∗i = m+ 1
Q∗i = 2m∗iQ∗i+1.
2b) Setze
Qi = Q∗i ∀i = 1, . . . N (ersetzt Losung der Relaxation),
pi = 2mi+mi+1+...mN−1 ∀i = 1, . . . N,
Q∗N =
√√√√2r∑N
i=1Kipi∑N
i=1 piei.
Letzteres gilt wegen 2.14. Wir optimieren hier fur feste p1, . . . pN−1 und tun so, alsob alles eine Lagerstufe ware.
3.) Wiederhole 2) solange sich ein m∗i fur i = 1, . . . N − 1 andert.
Output: Losung (p1, p2, . . . pN−1, Q∗N ) mit Kosten
C =N∑i=1
riKi
piQ∗N+
N∑i=1
eipi2Q∗N .
Dies ist eine approximierte Losung fur (P1).
KAPITEL 2. LAGERHALTUNGSPROBLEME 48
Satz 2.4.2. Das oben beschriebene heuristische Verfahren terminiert nach logN Schrittenund es gilt C − C∗ ≤ 0.06C∗ ⇒ C ≤ 1.06C∗.
Beispiel. N = 4, r = 4000
Stufe Ki hi ei1 250 0.5 0.52 6 0.55 0.053 30 3.55 34 110 7.55 4
Phase 2: Es ist
K1
e1= 500 ≥ K2
e2= 120 ≥ K3
e3= 10 <
K4
e4= 27.5,
das heißt fur i = 3 ist die Monotonieeigenschaft nicht erfullt und die Stufen 3 und 4 wer-den zusammengelegt. Berechne die neuen Werte fur Kj und ej wie in 1.). Fur diese ist dieMonotonieeigenschaft erfullt. Berechne daher Qi und ci wie in 2a.) bzw. 2b).
Stufe Ki ei Qi ci1 250 0.5 2000 10002 6 0.05 980 493 140 7 400 2800
Losung von (P2): C =∑3
i=1 ci = 3849 mit obigen Qi.Phase 3: 1. Iteration
1.) Q∗3 := Q3 = 400
2a.) i=2:
2mQ∗3 ≤ Q2 ≤ 2m+1Q∗3
2m400 ≤ 980 ≤ 2m+1400
⇔ m = 1
980
2 · 400≤ 22 · 400
980⇒ m∗2 = m = 1
Q∗2 = 2m∗2Q∗3 = 2 · 400 = 800
i=1:
2mQ∗2 ≤ Q1 ≤ 2m+1Q∗2
2m800 ≤ 2000 ≤ 2m+1800
⇔ m = 1
2000
1600≤ 3200
2000⇒ m∗1 = m = 1
Q∗1 = 1600
KAPITEL 2. LAGERHALTUNGSPROBLEME 49
2b)
p3 = 1 p2 = 21 = 2 p1 = 22 = 4
Q∗3 =
√√√√2r∑N
i=1Kipi∑N
i=1 piei= 425
2. Iteration der 3. Phase:
2a) i=2:
2mQ∗3 ≤ Q2 ≤ 2m+1Q∗3
2m425 ≤ 800 ≤ 2m+1425
⇔ m = 0
800
425≥ 2 · 425
800⇒ m∗2 = m+ 1 = 1
Q∗2 = 2m∗2Q∗3 = 2 · 425 = 850
i=1:
2mQ∗2 ≤ Q1 ≤ 2m+1Q∗2
2m850 ≤ 1600 ≤ 2m+1850
⇔ m = 0
1600
850≥ 1700
1600⇒ m∗1 = m+ 1 = 1
Da sich die m∗i nicht andern, konnen wir hier stoppen und die Qi aus der ersten Iteration vonPhase 2 bilden die optimalen Werte.
2.5 Ein stochastisches Ein-Periodenmodell
Annahmen:
• Es gibt eine Periode, fur schnell alternde/verderbliche Guter (Obst, Zeitungen)
• fixe Bestellkosten K, variable Bestellkosten c je Mengeneinheit,
• h > 0 . . . Lagerkosten je Zeit- und Mengeneinheit,
• p > c . . . Fehlmengenkosten je Zeit- und Mengeneinheit (sinnvoll, weil sonst ware esoptimal nichts zu produzieren),
• keine Lieferzeit,
• x . . . Lagerbestand zu Periodenbeginn unmittelbar vor Bestellung,
KAPITEL 2. LAGERHALTUNGSPROBLEME 50
• u > 0. . . bestellte (produzierte) Menge zu Beginn der Planungsperiode,
• y = x+u. . . Lagerbestand unmittelbar nach der Bestellung (und Eintreten der bestelltenWare),
• R . . . Zufallsvariable der Nachfrage unmittelbar nach Eintreffen der Bestellten Menge umit r als Realisierung dieserr < y = x+ u⇒ Lagerkosten h(x+ u− r) = h(y − r)r > y = x+ u⇒ Fehlmengenkosten p(r − (x+ u)) = p(r − y) und
• Πr = P (R = r) ist die Wahrscheinlichkeit, dass es eine Nachfrage der Hohe r gibt.
Ziel: Minimierung der erwarteten Gesamtkosten, bei einer Nachfrage, die durch die Zufalls-variable R gegeben ist.
Wir unterscheiden 2 Falle:Fall 1: R diskret (Stuckware), die erwarteten Gesamtkosten ergeben sich fur alle y ∈ N0 aus
L(y) = h
y∑r=0
(y − r)Πr + p∞∑
r=y+1
(r − y)Πr
= (h+ p)
y∑r=0
(y − r)Πr + p∞∑r=0
(r − y)Πr. (2.15)
Des weiteren gilt fur ∀y ∈ N0 folgendes
E(R) =∞∑r=0
rΠr (2.16)
P (R ≤ r) = Φ(r) =
brc∑i=0
Πi fur r ≥ 0
∫ y
0Φ(r)dr =
∫ y
0
brc∑i=0
Πidr
=
y−1∑k=0
∫ k+1
k
brc∑i=0
Πidr
=
y−1∑k=0
k∑i=0
Πi
= Π0 + (Π0 + Π1) + . . .+ (Π0 + . . .+ Πy−1)
= (y − 0)Π0 + (y − 1)Π1 + . . .+ (y − (y − 1))Πy−1
=
y−1∑r=0
(y − r)Πr (2.17)
=
y∑r=0
(y − r)Πr. (2.18)
KAPITEL 2. LAGERHALTUNGSPROBLEME 51
Setzt man 2.18 und 2.16 in 2.15 ein, so erhalt man
L(y) = (h+ p)
∫ y
0Φ(r)dr + p
∞∑r=0
(r − y)Πr︸ ︷︷ ︸E(R−y)
= (h+ p)
∫ y
0Φ(r)dr + p(E(R)− y). (2.19)
Fall 2: R stetig mit Dichtefunktion ϕ, es ist Φ(0) = 0. Außerdem erhalt man mit partiellerIntegration ∫ y
0(y − r)ϕ(r)dr = [(y − r)Φ(r)]y0 +
∫ y
0Φ(r)dr
=
∫ y
0Φ(r)dr. (2.20)
Somit ergeben sich die erwarteten Gesamtkosten aus
L(y) = (h+ p)
∫ y
0(y − r)ϕ(r)dr + p
∫ ∞0
(r − y)ϕ(r)dr︸ ︷︷ ︸E(R−y)
, y ≥ 0 (2.21)
2.20= (h+ p)
∫ y
0Φ(r)dr + p(E(R)− y).
Fur y < 0 setze Φ(y) = 0.
Fur beide Falle erhalten wir
L(y) =
{(h+ p)
∫ y0 Φ(r)dr + p(E(R)− y) y ≥ 0
p(E(R)− y) y < 0. (2.22)
Minimale Lagerkosten: bestimmen wir in Abhangigkeit vom anfanglichen Lagerbestand x
C∗(x) = minu≥0{δ(u)K + cu+ L(x+ u)}
= minu≥0
w(x, u).
Sei die optimale Bestellgroße z∗(x) ∈ arg minu≥0w(x, u) und sei
G(y) := cy + L(y)
⇒ w(x, u) = K +G(x+ u)− cxlim
y→−∞G(y) = lim
y→−∞cy + L(y)
= limy→−∞
cy + p(E(R)− y)
= limy→−∞
(c− p)︸ ︷︷ ︸<0
y + pE(R)→∞ (Fehlmengenkosten bei −∞)
limy→∞
G(y)→∞ (analog, Lagerkosten bei ∞).
KAPITEL 2. LAGERHALTUNGSPROBLEME 52
Da Φ monoton wachsend ist, folgt, dass∫ y
0 Φ(r)dr konvex und die erste Ableitung davon(∫ y
0 Φ(r)dr)′ = Φ(y) monoton wachsend ist. Daraus folgt, dass L(y) und somit auch G(y)konvex sind.Sei S die kleinste Minimalstelle von G auf R. S > 0, da G(y) monoton fallend und linear fury < 0 ist.
y
G(y)
G(S)+K
G(S)
Ss
Fallunterscheidung:Fall 1: Sei s die großte Zahl, fur die s ≤ S und G(s) ≥ G(S) + K gilt (nehme den nachstendiskreten Wert). Bezeichne mit C+(x, u) die erwarteten Gesamtkosten fur u > 0.
C+(x, u) := w(x, u) u > 0
C−(x, u) := C−(x, 0) = w(x, 0) = L(x) = G(x)− cx
1. Beobachtung: Fur x ≥ s gilt
C+(x, u)− C−(x, u) = (K +G(x+ u)− cx)− (G(x)− cx)
= K +G(x+ u)−G(x) ≥ 0, (2.23)
wegen folgenden Ungleichungen
x ≥ S ≥ s : x+ u ≥ x⇒ G(x+ u) ≥ G(x) weil G mon. wachsend ist fur Werte > S
s ≤ x ≤ S :
G(x) ≤ G(s) = G(S) +K
≤ G(x+ u) +K weil S der minimale Punkt von G ist.
Das heißt aus 2.23 folgt fur x ≥ s, dass C+(x, u) ≥ C−(x, u) und daher werden in diesem Falldie minimal erwarteten Gesamtkosten bei u = 0 erreicht.2. Beobachtung: Fur x < s gilt
C+(x, u0)− C−(x, u) < 0
fur u0 = S − x, weil
K − cx+G(x+ u0)︸ ︷︷ ︸C+(x,u0)
−(G(x)− cx︸ ︷︷ ︸C−(x)
) = K +G(x+ u0)−G(x) < 0,da
G(x) > G(s) = G(S) +K
= G(u0 + x) +K.
KAPITEL 2. LAGERHALTUNGSPROBLEME 53
Das heißt fur x < s werden die minimal erwarteten Gesamtkosten fur u0 = S − x erreicht.Fall 2: Sei s ≤ S so gewahlt, dass s die großte Zahl (dadurch eindeutig) kleiner S ist, fur dieG(s) = G(S) +K gilt.
Optimale Bestellpolitik: Bestellmenge und Kosten:
z∗(x) =
{S − x x ≤ s0 x > s
C∗(x) = w(x, z∗(x)) =
{K − cx+G(S) x ≤ s−cx+G(x) x > s
Berechnung von S:R stetig: Somit ist Φ stetig und auch G stetig, sowie differenzierbar und konvex, das heißtwir erhalten die Minimalstelle durch Differenzieren:
G′(S) = (cS + L(S))′
= c+ L′(S) = 0
⇔ L′(S) = −cL′(S) = (h+ p)Φ(S)− p = −c
⇔ S = Φ−1(p− ch+ p
) = q p−ch+p
(Φ) (Quantil)
R diskret: Es gilt S = min{u ∈ N0 : Φ(u) ≥ p−c
h+p
}.
Berechnung von s:s ≤ 0: Hier gilt G(s) = G(S) +K und somit
G(s) = cs+ L(s) = cs+ p(E(R)− s)= (c− p)s+ pE(R) = G(S) +K
⇔ s =G(S) +K − pE(R)
c− p.
s > 0: Hier muss man s aus der Gleichung G(s) = G(S) + K gegebenenfalls numerisch be-rechnen.Anmerkung: Wann gilt s < 0?
G(0) = c · 0 + L(0)
= p(E(R)− 0) = pE(R)
≤ G(S) +K
= G(s)
⇔ s < 0,
da G bis 0 eine linear fallende Funktion ist.
KAPITEL 2. LAGERHALTUNGSPROBLEME 54
2.6 Stochastische stationare Mehrperiodenmodelle
Bemerkung. Diese nennt man auch Amow-Harris-Warshall-Modelle=AHW-Modelle.
Annahmen:
• Wir haben einen Zeitraum von n Perioden,
• K ≥ 0 . . . fixe Bestellkosten, c ≥ 0 . . . Stuckpreise,
• h ≥ 0. . . Lagerkosten je Zeit- und Mengeneinheit,
• p ≥ 0 . . . Fehlmengenkosten,
• α ∈ (0, 1) . . . Diskontierungsfaktor,
• Nachfragen R1, . . . Rn in den Perioden 1, . . . n sind iid Zufallsvariablen mit Verteilungs-dichte ϕ (stetig, bzw. falls ϕ diskret, dann alles mit Summen statt Integralen) und
• Lager- und Fehlmengenkosten gibt es analog wie im vorherigen Abschnitt.
Notationen. Es seien
• Xj . . . eine Zufallsvariable, die den Lagerbestand am Ende von Periode j bzw. am Anfangvon Periode j + 1 (vor der Bestellung) darstellt,
• xj . . . Realisierung von Xj ,
• x0. . . deterministischer Lagerbestand zu Beginn der 1. Periode,
• uj . . . die zu Beginn von Periode j bestellte Menge,
• rj . . . Realisierung der Nachfrage in Periode j und
• xj = xj−1 + uj︸ ︷︷ ︸yj
−rj ∀j = 1, . . . n.
Erwartete Gesamtkosten:
L(y) =
{(h+ p)
∫ y0 Φ(r)dr + p(E(R)− y) y ≥ 0
p(E(R)− y) y < 0
Erwartete Kosten in Periode j:
Kδ(uj) + cuj + L(xj−1 + uj)
Zielfunktion:
n∑j=1
αj−1(Kδ(uj) + cuj + L(xj−1 + uj)), uj ≥ 0 fur j = 1, . . . n
Seien C∗j (xj) die minimalen erwarteten Kosten fur die Stufen j, j+1, . . . n diskontiert auf denBeginn der Periode j bei gegebenen Anfangsbestand xj . Sei G(y) := cy+L(y), dann sind dieerwarteten Kosten in Periode j
Kδ(uj) + cuj + L(xj−1 + uj) = Kδ(uj) +G(xj−1 + uj)− cxj−1.
KAPITEL 2. LAGERHALTUNGSPROBLEME 55
Bellmann’sche Funktionalgleichung:
C∗j (xj−1) = −cxj−1 + minuj≥0
{Kδ(uj) +G(xj−1 + uj) + α
∫ ∞0
C∗j+1(xj−1 + uj − rj)ϕ(rj)drj
}(2.24)
= −cxj−1 + minuj≥0
w(xj−1, uj) ∀j = 1, . . . n
Es ist z∗1 , . . . z∗n die optimale Bestellpolitik, wobei
z∗j (xj−1) = arg minuj≥0
w(xj−1, uj)
und C∗1 (x0) sind die minimal zu erwartenen Kosten des ursprunglichen Problems. Fur C∗n+1
gibt es 2 Falle:
A) C∗n+1 = 0 ∀x ∈ R,
B) C∗n+1 =
{−cx x > 0 Verkaufen am Markt ⇒ Gewinn
−cx x ≤ 0 mussen Produkte besorgen um Nachfrage zu erfullen ⇒ Kosten
Wir definieren
G(y) := (1− α)cy + L(y) = G(y)− αcy.
Bemerkung. Modell B ist realistischer und hat geringeren Rechenaufwand. Analog wie furG kann man zeigen, dass G konvex, linear fallend fur y < 0 und limy→±∞ G(y)→∞ ist.
Sei
C∗j (xj−1) := C∗j (xj−1) + cxj−1 − cE(R)(α+ α2 + . . .+ αn−j+1) ∀j = 1, . . . n (2.25)
C∗n+1(xn) = 0 ∀xn ∈ R
Gleichung 2.24 lasst sich mit dem Cj und G in folgende Gleichung transformieren:
C∗j (xj−1) = minuj≥0
{Kδ(uj) + G(xj−1 + uj) + α
∫ ∞0
C∗j+1(xj−1 + uj − rj)ϕ(rj)drj
}. (2.26)
Sei
Hj(y) = G(y) + α
∫ ∞0
C∗j+1(y − r)ϕ(r)dr (2.27)
Hj(y) = G(y) + α
∫ ∞0
C∗j+1(y − r)ϕ(r)dr.
Aus 2.24 bzw. 2.26 wird
C∗j (x) = −cx+ minuj≥0{Kδ(u) +Hj(x+ u)} ∀j = 1, . . . n, (2.28)
C∗j (x) = minuj≥0
{Kδ(u) + Hj(x+ u)
}∀j = 1, . . . n. (2.29)
KAPITEL 2. LAGERHALTUNGSPROBLEME 56
Losungsweg Modell A: Sei Sj und sj , sodass Sj die kleinste Minimalstelle von Hj auf Rund sj die großte Zahl kleiner Sj mit Hj(sj) = Hj(Sj) +K ist.
y
H(y)
Ss
K
j j
Analog wie im vorhergehenden Abschnitt ist
z∗j (x) =
{Sj − x x < sj
0 x ≥ sj, (2.30)
das heißt, dass sj ein optimaler Bestellpunkt und Sj eine optimale Bestellgroße in Periodej, j = 1, . . . n ist. 2.30 eingesetzt in 2.28 ergibt die optimal erwarteten Kosten
C∗j (x) =
{−cx+K +Hj(Sj) x < sj
−cx+Hj(x) x ≥ sj.
Algorithmus. Lagerhaltung: (s, S)-Politik im stochastischen Modell AInput: n,K, h, p, c, α, ϕ, x0
Schritt 1: Setze j := n,Hj(y) := G(y) = cy + L(y) ∀y ∈ R.Schritt 2: Bestimme die kleinste Minimalstelle Sj von Hj auf R und
die großte Zahl sj ≤ Sj mit Hj(sj) = Hj(Sj) +K.Schritt 3: Bestimme
z∗j (x) =
{Sj − x x < sj
0 x ≥ sjund
C∗j (x) =
{−cx+K +Hj(Sj) x < sj
−cx+Hj(x) x ≥ sj.
Schritt 4: Falls j = 1 ist, dann terminiere, sonst setze j := j − 1,bestimme Hj wie in 2.27 und gehe zu Schritt 2.
Output: C∗1 (x0), sj , Sj ∀j = 1, . . . n
Bemerkung. Wenn K = 0 ist, dann erhalt man eine (Sj , Sj)- Politik (sj = Sj). Man kannzeigen, dass S1 ≥ S2 ≥ . . . ≥ Sn.
Losungsweg Modell B: In diesem Modell konnen unabhangig vom Periodenindex j untereund obere Grenzen fur sj und Sj angegeben werden. Sei S die kleinste Minimalstelle von Gund s die großte Zahl s ≤ S : G(s) = G(S) + K. Es gilt S ≥ 0, weil G linear und monotonfallend ist fur y < 0.Sei S ≥ S die kleinste Zahl mit
G(S) = G(S) + αK. (2.31)
KAPITEL 2. LAGERHALTUNGSPROBLEME 57
Die Existenz dieser beruht auf Grund der Eigenschaften von G.Sei s ∈ [s, S] die großte Zahl mit
G(s) = G(S) + (1− α)K. (2.32)
y
G(y)
Ss
K
_ _
_
Fur α = 1 gilt s = S. Außerdem ist Sj die Minimalstelle von Hj auf [S, S] genau dann, wennSj die Minimalstelle von Hj auf R ist (Fakultativ, HU Analysis).Analog zu A sei sj die großte Zahl kleinergleich Sj , fur die Hj(sj) = Hj(Sj) + K ist. AusSj ∈ [S, S] folgt sj ∈ [s, s].
Optimale Bestellpolitik: (analog A)
z∗j (x) =
{Sj − x x < sj
0 x ≥ sj(2.33)
Minimal erwarteten Kosten:
C∗j (x) =
{K + Hj(Sj) x < sj
Hj(x) x ≥ sj(2.34)
Auch hier gilt Hn = G, Sn = S.
Aus dem Algorithmus fur Modell A erhalten wir einen Algorithmus fur Modell B, in demalle Großen durch die ·-Gegenstucke ersetzt werden und Sj , sj in [S, S] bzw. [s, s] statt in Rgesucht werden.
Bemerkung. Fur K = 0 folgt, dass sich eine (Sj , Sj)-Politik ergibt. Die Bestellpunkte sindgleich der Bestellgrenze. Es ist s = s = S = S.
2.7 Unendlich-periodische stochastische stationare Lagerhal-tungsprobleme
Frage: Warum bzw. wann betrachtet man unendlich-periodische Modelle?
1.) Ein sehr langer Planungshorizont kann mit einem unendlichen gleich gesetzt werden.
2) Als Approximation fur ein endliches Problem, wenn die Anzahl der Perioden groß ist.Ist n groß, so ist der Aufwand fur endlich-periodische Modelle sehr groß. Bei einemunendlich-periodischen Modell ist die Approximation ungenau, aber immer noch sogenau, dass sich die Approximation rentiert.
KAPITEL 2. LAGERHALTUNGSPROBLEME 58
Betrachten: Problem, dass bei Stufe n−j+1 beginnt und j Stufen/Perioden besitzt (ModellA). Seien C∗n−j+1 die minimal erwarteten Kosten uber die Perioden n− j+1, . . . n diskontiertauf den Beginn von Periode n− j + 1.Seien C+
j (x) := C∗n−j+1(x) die minimal erwarteten Kosten eines j-stufigen Problems mitAnfangszustand x diskontiert auf den Beginn der 1. Periode dieser j Perioden.
Satz 2.7.1. Sei α ∈ (0, 1) ein Diskontierungsfaktor. Die Folge C∗j (x) konvergiert gegen dieminimal diskontierten erwarteten Kosten C∗(x) des unendlich-stufigen Problems. Die Kon-vergenz ist gleichmaßig in jedem endlichen Intervall aus R. C∗ genugt der folgenden Funktio-nalgleichung:
C∗(x) = −cx+ minu≥0
{Kδ(u) +G(x+ u) + α
∫ ∞0
C∗(x+ u− r)ϕ(r)dr
}.
Bemerkung. Im Fall, dass α = 1 (keine Diskontierung) muss∑∞
j=1C+j (xj) nicht konver-
gieren. In dem Fall werden die durchschnittlichen erwarteten Kosten pro Periode minimiert(limj→∞
C+j (x)
j
).
Satz 2.7.2. Wenn α = 1 ist, dann existiert der Grenzwert limj→∞C+
j (x)
j und ist gleich denminimal durchschnittlich erwarteten Kosten je Periode im unendlich-stufigen Problem. Manhat gleichmaßige Konvergenz fur alle [a, b] ⊆ R, a, b ∈ R.
Bemerkung. Fur diesen und den vorhergehenden Abschnitt sind die Beweise in [2] und [3]zu finden.
Folgerungen:
• Aus den beiden vorhergehenden Satzen folgt, dass auch beim unendlich-stufigen Pro-blem eine optimale (s∗, S∗)-Politik existiert, sodass
z∗j (x) =
{S∗ − x x < s∗
0 x ≥ s∗, (2.35)
und s∗, S∗ den Gleichungen
s ≤ s∗ ≤ sS ≤ S∗ ≤ S
mit s, s, S, S wie beim endlich-stufigen Problem genugen.
• Fur α < 1 erhalten wir bei z∗ die minimal erwarteten Gesamtkosten, fur α = 1 erhaltenwir bei z∗ die minimal erwarteten durchschnittlichen Kosten pro Periode.
• Falls K = 0 ist, so gilt s∗ = S∗ wie beim endlich-stufigen Problem (da s = s = S = S).
• s∗ = S∗ = S ist die kleinste Minimalstelle von G mit
Φ(S) = Φ(S∗) =p− (1− α)c
p+ h, (2.36)
wobei Φ die Verteilungsfunktion der Nachfrage ist.
KAPITEL 2. LAGERHALTUNGSPROBLEME 59
• 2.36 kann auch ohne Limesprozess ermittelt werden:Sei K = 0 und es existiere eine optimale (S, S)-Bestellpolitik. Ziel ist die Bestimmungvon S. Seien Cx(S) die Gesamtkosten fur den Angangsbestand x.
T=1 T=2 T=3
Lagerbestand
Zeit
S
xr1
2 3r r
Cx(S) = c · (S − x) + L(S)︸ ︷︷ ︸1. Periode
+α(cr1 + L(S))︸ ︷︷ ︸2. Periode
+ . . .+ αi−1(cri−1 + L(S))︸ ︷︷ ︸i−te Periode
+ . . .
E(Cx(S)) = c · (S − x) + L(S)
∞∑i=0
αi + E(c
∞∑i=0
αiRi) (E(Ri) = E(R))
= c · (S − x) + L(S)1
1− α+ E(R)c
1
1− α
minS≥0
E(Cx(S)) = mins≥0
{c · (S − x) + L(S)
1
1− α+ E(R)c
1
1− α
}Da L(S) konvex und differenzierbar ist, ist auch E(Cx(S)) konvex und differenzierbarund wir erhalten durch Differenzieren die gesuchte Minimalstelle
c+ L′(S)1
1− α= 0
⇔ L′(s) = (p+ h)Φ(S)− p = −c(1− α)
⇔ Φ(S) =p− c(1− α)
p+ h(wie 2.36).
Kapitel 3
Multikriterielle Optimierung
3.1 Einleitung und Definitionen
Beispiel. Autokauf
Kriterien ↓ / Alternativen → VW Opel Ford Toyota Ziel
Preis in Tsd. Euro 31 29 30 27 ↘Verbrauch in l/100 km 7.2 7.0 7.5 7.8 ↘
Leistung in KW 65 55 58 55 ↗
Losung: Wir betrachten verschiedene Modelle:Modell 1: Gewichtung der Zielfunktionen
minλi≥0
3∑i=1
λifi
s.t.3∑i=1
λi = 1
Modell 2: Lexikographische Optimierung: Reihung der Kriterien: min {f3(x) : arg min {f2(x) : arg min {f1(x) : x ∈ X}}}
Modell 3: Pareto-Optimierung: suche x∗ ∈ X (Menge der Alternativen), sodass
@y ∈ X : fi(y) ≤ fi(x∗) i = 1, . . . 3 und
fi0(y) < fi0(x∗) fur irgendein i0 ∈ {1, 2, 3}
Notation: Fur so ein y sagen wir y dominiert x∗. x∗ ist also pareto-optimal genau dann,wenn kein y existiert, dass x∗ dominiert.Alle Autos sind pareto-optimal.Ford: Es ist zwar 30 > 27, aber es ist 7.5 < 7.8 (Toyota),es ist zwar 7.5 > 7, aber 58 > 55 (Opel)und es ist zwar 58 < 65, aber 30 < 31 (VW), das heißt Toyota, Opel und VW dominierenFord nicht.
Modell 4: Jede Alternative x hat mehrere Nachteile. Sei fi(x) das Maß der Unzufrieden-heit der Alternative x bzgl. Nachteil i, i = 1, . . . n.
60
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 61
θ : Rn → R1 bildet das Problem auf den Entscheidungsraum ab. Man betrachtet
minx∈X
max1≤i≤n
fi(x).
Definition 3.1.1. Der Input des MCOP (multicriteria opimization problem) ist eine Strukturder Form (X, f,RQ) | θ | (RP ,�), wobei
• X. . . Menge der zulassigen Losungen ist,
• X → RQ : x 7→ (f1(x), . . . fQ(x)) ist die Kriteriumsfunktion,
• RQ. . . heißt Kriteriumsraum,
• θ : RQ → RP . . . ist die Abbildung des Problems,
• RP . . . heißt Entscheidungsraum und
• �. . . ist eine reflexive und transitive Relation im RP .
Hierbei wird folgendes gesucht:
x∗ ∈ X, sodass @y ∈ X \ x∗ mit θ(f(x∗)) � θ(f(y)).
x∗ heißt optimale/minimale Losung und f(x∗) ∈ RQ heißt optimaler Wert.
Opt((X, f,RQ) | θ | (RP ,�))
ist die Menge der optimalen Losungen.
Beispiele fur Quasi-Ordnungsrelationen im Rn
Nr. Notation Definition Name
1 x� y xi < yi ∀i strikte komponentenweise Ordnung
2 x ≤ y xi ≤ yi ∀i, x 6= y komponentenweise Ordnung
3 x ≤lex y ∃k ∈ {1, . . . n} : lexikographische Ordnungxi = yi, i = 1, . . . k − 1, xk < yk
4 x ≤mo y maxxi ≤ max yi, x 6= y Maximalordnung
• Partialordnung: 1-4
• konnex: 4
• Totalordnung: 3
Zu Modell 1: (X, f,RQ) | θGS | (R,≤), GS. . . Gewichtete Summe, x ∈ RQ 7→∑Q
i=1 λixi ∈ RZu Modell 2: (X, f,RQ) | id | (RQ,�lex)Zu Modell 3: (X, f,RQ) | id | (RQ,≤) mit ≤ als die komponentenweise Ordnung
Definition 3.1.2. K ⊆ Rn
• . . . heißt Kegel, wenn x ∈ K ⇒ λx ∈ K ∀0 < λ ∈ R,
• . . . heißt trivialer Kegel, wenn K = ∅ oder K = Rn,
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 62
• . . . heißt konvexer Kegel, wenn∀x, y ∈ K,∀λ > 0,∀α ∈ [0, 1] : λx ∈ K ∧ αx+ (1− α)y ∈ K,
• . . . ist ein spitzer Kegel ⇔ K ist ein Kegel und x ∈ K \ {0} ⇒ −x 6∈ K.
Beispiel. K1 konvex, nicht trivial, spitz,K2 nicht konvex, nicht trivial, nicht spitz,K3 konvex, nicht spitz (wegen y Achse)
K1
K2
K3
Satz 3.1.3. Sei ≤ eine Ordnungsrelation auf Rn und
K≤ := {y − x | x, y ∈ Rn, x ≤ y} . (3.1)
Sei dies kompatibel mit der skalaren Multiplikation und mit der Addition, d.h.
x ≤ y ∧ λ > 0, λ ∈ R⇒ λx ≤ λy ∀x, y ∈ Rn
x ≤ y ∧ c ∈ Rn ⇒ x+ c ≤ y + c ∀x, y ∈ Rn.
Dann gilt K≤ wie in 3.1 ist ein konvexer und spitzer Kegel.
Beweis: HU
Satz 3.1.4. Sei � eine binare Relation auf Rn, die mit der skalaren Multiplikation und mitder Addition kompatibel ist. Dann gilt
1.) 0 ∈ K� (wie in 3.1) ⇔� ist reflexiv,
2.) K� ist konvex, falls � transitiv ist und
3.) K� ist spitz, falls � antisymmetrisch ist.
Beweis: HU
Bemerkung. Man kann auch einen Kegel verwenden um Ordnungsrelationen zu definieren:K . . . Kegel und
x �K x⇔ y − x ∈ K. (3.2)
Satz 3.1.5. Sei K ein Kegel im Rn,�K wie in 3.2. Dann gilt �K ist kompatibel mit derskalaren Multiplikation und der Addition in Rn und weiters
a.) 0 ∈ K ⇒ �K ist reflexiv,
b.) K konvex ⇒ �K transitiv und
c.) K spitz ⇒ �K antisymmetrisch.
Beweis: HU
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 63
Pareto-Optimalitat und Effizient: Existenzsatze und Eigenschaf-ten
Betrachten: (X, f,RQ) | id | (RP , <) mit < als die komponentenweise Ordnung, x, y ∈RQ, x < y ⇔ xi ≤ yi ∀i, x 6= y, Y := f(X) ⊆ RQ.
Definition 3.1.6. x∗ ∈ X heißt pareto-optimal, wenn
@x ∈ X : f(x) < f(x∗), das heißt
@x ∈ X : fi(x) ≤ fi(x∗) ∀i = 1, . . . Q und f(x) 6= f(x∗).
Falls x∗ pareto-optimal, dann heißt f(x∗) ∈ Y effizient. Falls f(x1) < f(x2), x1, x2 ∈ X, dannsagen wir x1 dominiert x2.
Notationen. Xpar := {x ∈ X | x ist pareto-optimal} . . . Menge der pareto-optimalen Losungen,Yeff := {f(x) | x ∈ Xpar}Aquivalente Definitionen: x∗ ist pareto-optimal ⇔
1.) @x ∈ X : fi(x) ≤ fi(x∗) ∀i = 1, . . . Q ∧ ∃j ∈ {1, . . . Q} : fj(x) < fj(x∗) oder
2.) @x ∈ X : f(x)− f(x∗) ∈ −RQ+ \ {0} = RQ− = {v ∈ RQ : vi < 0 ∀i = 1, . . . Q} oder
3.) f(x)− f(x∗) ∈ RQ \ RQ− = RQ+ \ {0} ∀x ∈ X oder
4.) f(X) ∩ (f(x∗)− RQ+) = f(x∗) oder
5.) @f(x) ∈ f(X) \ {f(x∗)} : f(x) ∈ f(x∗)− RQ+ oder
6.) ∀x ∈ X : f(x) ≤ f(x∗)⇒ f(x) = f(x∗).
Beispiel.
Q = 2,
X ⊆ R2, X = f(X) = Y,
f : R2 → R2, f1(x, y) = x,
f2(x, y) = y
x=f (x,y)1
y=f (x,y)2
x*
x0
(f(x0)− R2+) ∩X 6= {x0}
4.)⇒ x0 nicht pareto-optimal
(f(x∗)− R2+) ∩X 6= {x∗} 4.)⇒ x∗ ist pareto-optimal
Xpar = Yeff
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 64
Ziel: Analyse der Existenz und der Eigenschaften von Xpar.
Beispiel. Auch wenn X konvergiert und Y = f(X) konvergiert, konnen Xpar und Yeff leersein.
X = {(x1, x2) ∈ R2 | −1 < x1 ≤ 1 und−√
1− x21 < x2 ≤ 0 falls − 1 < x1 ≤ 0;√
1− x21 ≤ x2 ≤ 0 falls 0 < x1 ≤ 1}
Xpar = Yeff = ∅
Falls wir −√
1− x21 ≤ x2 ≤ 0 zulassen fur 0 ≤ x1 ≤ 1 ⇒ Xpar = {(0,−1)}.
Lemma 3.1.7. Yeff = (Y + RQ+)eff ={y + a | y ∈ Y, a ∈ RQ+
}.
Lemma 3.1.8. Yeff ⊆ Rd(Y ) (Rand von Y ).
Korollar 3.1.9. Y ⊆ RQ offen ⇒ Yeff = ∅.
Lemma 3.1.10. (Y1 + Y2)eff ⊆ (Y1)eff + (Y2)eff .
Beweis: y1 + y2 : y1 ∈ (Y1)eff , y2 ∈ (Y2)effAnnahme:
∃y1 ∈ (y1 − RQ+) ∩ Y1 ⇔ y1 − y1 ∈ RQ+ und
∃y2 ∈ (y2 − RQ+) ∩ Y2 ⇔ y2 − y2 ∈ RQ+
Aus diesen Annahmen folgt:
y1 + y2 − (y1 + y2) ∈ RQ+⇒ y1 + y2 ∈ (y1 + y2 − RQ+) ∩ (Y1 + Y2)
Widerspruch!
2
Lemma 3.1.11. (αY )eff = αYeff ∀α ∈ R, α ≥ 0.
Definition 3.1.12. Sei ≤ eine reflexive und transitive Relation in A. (A,≤) heißt induktivgeordnet, falls jede Kette M in A ein minimales Element mµ besitzt. Eine Kette ist eineMenge von Elementen, die in Relation zueinander stehen.mµ heißt minimal in M ⇔ ∀x ∈M,x ≤ mµ ⇒ mµ ≤ x.
Lemma 3.1.13. Lemma von Zorn: Sei ≤ eine reflexive und transitive Relation auf A, sodass(A,≤) induktiv geordnet ist. Dann gibt es ein minimales Element in A.
Satz 3.1.14. Borwein, 1983: Sei Y 6= ∅, Y ∈ RQ. Angenommen ∃y0 ∈ Y , sodass
Y 0 = {y ∈ Y | y ≤ y0} = (y0 − RQ+) ∩ Y
kompakt ist, dann gilt Yeff 6= ∅.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 65
Beweis: Wir zeigen: Y ist kompakt⇒ H Kette in Y0 besitzt untere Schranke bezuglich ≤ ⇒ (Y 0,≤) induktiv geordnetZorn⇒ es existiert ein minimales Element y∗ ∈ Y 0
⇒ y∗ ∈ Yeff .
Sei{y(α) | α ∈ A
}eine Kette in (Y 0,≤), wobei ≤ eine Ordnungsrelation ist. Wir zeigen,
dass {y(α) | α ∈ A
}eine untere Schranke besitzt. Sei
B := {a ⊆ A | a endlich}
die Menge der endlichen Teilmengen.Fur alle a ∈ B ∃y(a) als minimales Element aus
{y(α) | α ∈ a
}, y(a) ∈ Y 0.
Yα :={y(α) − RQ+
}∩ Y 0 ∀α ∈ A
(1) Y 0 ist kompakt ⇔ Y 0 ist abgeschlossen und beschrankt.(2) y(α) − RQ+ ist abgeschlossen.Aus (1) und (2) folgt, dass Yα kompakt ist, da es abgeschlossen und beschrankt ist.
∀a ∈ B gilt⋂α∈a
Yα 6= ∅
da a endlich und y(a) ∈⋂α∈a Yα.
Fur kompakte Mengen gilt: Y ist kompakt und fur (Yi)i∈I (Familie von abgeschlossenenTeilmengen von Y mit nichtleeren Schnitt
⋂i∈J Yi ∀J ⊆ I, J endlich) folgt⋂
i∈IYi 6= ∅.
(Aquivalent zur Definition von Kompaktheit: jede offene Uberdeckung enthalt eine endlicheTeiluberdeckung.)Mit Y 0 in der Rolle von Y und Yα, α ∈ A in der Rolle von (Yi)i∈I folgt⋂
α∈AYα 6= ∅.
Sei
y′ ∈⋂α∈A
Yα =⋂α∈A
[(y(α) − RQ+) ∩ Y 0]
⇒ y′ ∈ ∩(y(α) − RQ+) ∩ Y 0,
das heißt y′ ∈ Y 0 und dominiert y(α) ∀α ∈ A.⇒ y′ ist eine untere Schranke fur
{y(α) | α ∈ A
}.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 66
⇒ Jede beliebige Kette besitzt eine untere Schranke.Zorn⇒ ∃y∗ ∈ Y 0 minimales Element.Wir zeigen noch y∗ ∈ Yeff :Annahme:
y∗ 6∈ Yeff⇒ ∃y ∈ Y : y < y∗
⇒ y ∈ (y∗ − RQ+) ∩ Y ⊆ Y 0 ∩ Y = Y 0
Widerspruch zur Minimalitat von y∗ ∈ Y 0 ⇒ Yeff 6= ∅.
2
Definition 3.1.15. Y ⊆ RQ heißt RQ+-kompakt, falls jede offene Uberdeckung von Y von der
Form (y(α) − RQ+)Cα∈A eine endliche Teiluberdeckung besitzt.
Bemerkung. Dies ist weniger als kompakt. Aus Kompaktheit folgt die RQ+-Kompaktheit,aber die Umkehrung gilt nicht.
Satz 3.1.16. Corley, 1980: Falls Y 6= ∅ und Y RQ+-kompakt ist, dann folgt Yeff 6= ∅ (nichtkonstruktiv).
Definition 3.1.17. Y ⊆ RQ heißt RQ+-semikompakt, falls ∀y ∈ Y gilt, dass (y − RQ+) ∩ Ykompakt ist.
Lemma 3.1.18. Ist Y 6= ∅ und Y RQ+-semikompakt, dann folgt, dass Yeff 6= ∅.
Bemerkung. Aus Y ⊆ RQ+ ist RQ+-semikompakt folgt, dass Y RQ+-kompakt ist, da (y−RQ+)∩Ykompakt ist fur alle y.Sei ((y(α) − RQ+)C)α∈A eine offene Uberdeckung von Y . Es gilt
Y ⊆⋃α∈A
(y(α) − RQ+)C
= (y(α) − RQ+)C ∪⋃
α∈A\{α0}
(y(α0) − RQ+)C .
Außerdem sind (y(α) − RQ+) und
Y1 := Y ∩ (Y (α) − RQ+)
kompakt und (y(α) − RQ+)α∈A\{α0} ist eine Uberdeckung.
⇒ Es existiert eine endliche Teiluberdeckung fur Y1, die mit (y(α0) − RQ+)C eine endlicheTeiluberdeckung fur Y liefert.
Frage: Welche Anforderungen sollen an X bzw. f : X → RQ gestellt werden, sodass Xpar 6= ∅gilt?
Definition 3.1.19. f : Rn → RQ heißt RQ+-halbstetig, wenn
f−1(y − RQ+) = {x ∈ Rn : f(x) ≤ y} ∀y ∈ RQ
abgeschlossen ist.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 67
Beispiel. Q = 1 : f−1((−∞, y]) abgeschlossen ∀y ∈ R⇔ f linksstetig.
Lemma 3.1.20. Sei f : Rn → RQ. f ist RQ+-halbstetig ⇔ fi : Rn → R linksstetig ist∀i = 1, . . . Q, wobei f(x) = (f1(x), . . . fQ(x)) ist.
Lemma 3.1.21. Sei X ⊆ Rn, X 6= ∅ kompakt und f : Rn → RQ sei RQ+-halbstetig, dann ist
Y = f(X) RQ+-kompakt.
Satz 3.1.22. Sei X ∈ Rn, X 6= ∅ kompakt und f : Rn → RQ sei RQ+-halbstetig, dann istXpar 6= ∅.
Beweis: Aus dem vorhergehenden Lemma folgt, dass Y RQ+-kompakt ist. Y 6= ∅, weil X 6=∅ ⇒ Yeff 6= ∅, Yeff = f(Xpar)⇒ Xpar 6= ∅.
2
Bemerkung. Alle Ergebnisse dieses Abschnitts gelten analog auch fur einen konvexen, abge-schlossenen, spitzen nichttrivialen Kegel K und die dazugehorige Ordnungsrelation K≤ statt
RQ+ als Kegel mit der komponentenweise Ordnung in RQ.
3.2 Schwache und strikte pareto-optimale Losungen
Definition 3.2.1. x∗ ∈ X heißt schwach pareto-optimal
⇔ @x ∈ X : fi(x) < fi(x∗) ∀i = 1, . . . Q.
y = f(x∗) ∈ Y heißt schwach effizient.
Notationen. Xw−par := {x ∈ X | x ist schwach pareto-optimal},Yw−eff := f(Xw−par) (w. . . weakly)
Definition 3.2.2. x∗ ∈ X heißt strikt pareto-optimal
⇔ x∗ ∈ Xpar,@x ∈ X : x 6= x∗, fi(x) = fi(x∗) ∀i = 1, . . . Q.
y = f(x∗) ∈ Y heißt strikt effizient.
Notationen. Xs−par := {x ∈ X | x ist strikt pareto-optimal},Ys−eff := f(Xs−par)
Beobachtung: Strikte Pareto-Optimalitat entspricht der Eindeutigkeit der optimalen Losungfalls Q = 1. Es ist
Xs−par ⊆ Xpar ⊆ Xw−par,
Ys−eff ⊆ Yeff ⊆ Yw−eff .
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 68
3.3 Eigentliche Pareto-Optimialitat und eigentliche Effizienz
Definition 3.3.1. Geoffrion, 1968: x∗ ∈ X heißt eigentlich pareto-optimal, falls x ∈ Xpar und∃M > 0, sodass fur alle i, j ∈ {1, . . . Q} und fur alle x ∈ X, fur die gilt, dass fi(x) < fi(x
∗)und fj(x
∗) < fj(x), folgt
fi(x∗)− fi(x)
fj(x)− fj(x∗)≤M.
y = f(x∗) heißt eigentlich effizient.
Notationen. Xp−par := {x ∈ X | x ist eigentlich pareto-optimal},Yp−eff := f(Xp−par) (p . . . proper)
Beispiel.
X ={
(x1, x2) ∈ R2 | (x1 − 1)2 + (x2 − 1)2 ≤ 1, 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ x1
}f1 : R2 → R (x1, x2) 7→ x1
f2 : R2 → R (x1, x2) 7→ x2
Y = f(X) = X
Z.B. zeigen wir, dass P1 = (1, 0), P2 = (0, 1) nicht eigentlich pareto-optimal sind.
P1 = x∗ = (x∗1, x∗2) = (1, 0)
x = (1− z, z2), z ∈ (0, 1)
sind zulassig. Es ist
f1(x∗)− f1(x)
f2(x)− f2(x∗)=
1− (1− z)z2
=1
z−→z→0∞.
Wir lassen z gegen 0 gehen, damit x → x∗. Es wird jedes M uberschritten und daher giltP1 6∈ Xp−par.
P2 = (x+1 , x
+2 ) = x+ = (0, 1) und
x = (x1,√
1− x21), x1 < 1
sind zulassig. Es ist
f2(x+)− f2(x)
f1(x)− f1(x+)=
√1− x2
1 − 1
0− x1
limx1→0
√1− x2
1 − 1
0− x1= lim
x1→0
1√1−x21
(−2x1)
−1(l’Hospital)
= limx1→0
2x1√1− x2
1
→ 0
⇒ f2(x+)− f2(x)
f1(x)− f1(x+)→∞.
Es wird jedes M uberschritten und daher gilt P2 6∈ Xp−par.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 69
Satz 3.3.2. Geoffrion: Sei λi > 0 ∀i = 1, . . . Q,∑Q
i=1 = 1 und sei x∗ eine optimale Losungvon
minx∈X
{Q∑I=1
λifi(x)
},
dann ist x∗ eine eigentlich pareto-optimale Losung von
(X, f,RQ) | id | (RQ,≤).
Beweis: Wir zeigen zuerst, dass x∗ pareto-optimal ist.Annahme: x∗ ist nicht pareto-optimal.Dann ∃x ∈ X, i0 ∈ {1, . . . Q} : fi(x) ≤ fi(x∗) ∀i = 1, . . . Q, fi0(x) < fi0(x∗). Wir multiplizierendies mit den entsprechenden λi und summieren auf:
Q∑i=1
λifi(x) <
Q∑i=1
λifi(x∗).
Dies ist ein Widerspruch zur Optimalitat von x∗ ⇒ x∗ ist pareto-optimal.Wir zeigen x∗ ∈ Xp−par.Annahme: x∗ 6∈ Xp−par, das heißt ∀M > 0 ∃i, j ∈ {0, . . . Q} , ∃x ∈ X, sodass fur fi(x) <fi(x
∗) ∧ fj(x∗) < fj(x) folgt
fi(x∗)− fi(x)
fj(x)− fj(x∗)> M
fi(x∗)− fi(x) > M(fj(x)− fj(x∗). (3.3)
Sei
M := (Q− 1) max1≤i,j≤Q
λjλi≥ λjλi.
Setzen wir dies in 3.3 ein, so erhalten wir
fi(x∗)− fi(x) > (Q− 1) max
1≤i,j≤Q
λjλi
(fj(x)− fj(x∗)
fi(x∗)− fi(x) > (Q− 1)
λjλi
(fj(x)− fj(x∗) j 6= i. (3.4)
Wir multiplizieren mit λiQ−1 , Q ≥ 2 und summieren auf fur alle j 6= i:
Q∑j=1,j 6=i
λj(fj(x)− fj(x∗) <Q∑
j=1,j 6=i
λiQ− 1
(fi(x∗)− fi(x))
= (Q− 1)λi
Q− 1(fi(x
∗)− fi(x))
= λi(fi(x∗)− fi(x)) (3.5)
⇒Q∑
j=1,j 6=iλjfj(x) + λifi(x) < λifi(x
∗) +
Q∑j=1,j 6=i
λjfj(x∗)
⇒Q∑j=1
λjfj(x) <
Q∑j=1
λjfj(x∗).
Dies ist ein Widerspruch zur Optimalitat von x∗ ⇒ x∗ ∈ Xpar.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 70
2
Bemerkung. Die Bedingungen des vorhergehenden Satzes sind nicht notwendig. Wir zeigendies anhand des folgenden Beispiels.
Beispiel. f : R2 → R2, f = id(R2)P1 und P2 sind pareto-optimal und eigentlich pareto-optimal.
P
P
1
2
P
Wir suchen fur fixe λ1 > 0, λ2 > 0, λ1 + λ2 = 1
min(x1,x2)∈X
(λ1x1 + λ2x2).
fλ1λ2(x) := fλ1λ2(x1, x2)
= λ1x1 + λ2x2 = c c ∈ R
P1, P2 sind nach Geoffrion eigentlich pareto-optimal. P ∈ Xp−par aus geometrischen Uberlegungen.
Frage: Existieren (λ1, λ2), λ1, λ2 > 0, λ1 + λ2 = 1, sodass
P ∈ arg min(x1,x2)∈X
{λ1x1 + λ2x2}?
Das geht nicht, denn die Geraden konnten immer weiter geschoben werden. Problem ist dieNicht-Konvexitat der Menge (bzw. zulassigen Menge).
Satz 3.3.3. Geoffrion: Sei X ⊆ Rn konvex und fi : X → R konvex fur alle i = 1, . . . Q.Definiere A
◦als die Menge der inneren Punkte von A, dann ist
x∗ ∈ Xp−par fur (X, f,RQ) | id | (RQ,≤)
⇔ ∃λ ∈ (RQ+)◦, sodass x∗ ∈ arg min
x∈X
Q∑i=1
λifi(x).
(Die Bedingung∑Q
i=1 λi = 1 ist fur die Optimierung unerheblich und kann daher weggelassenwerden.)
Satz 3.3.4. X ⊆ Rn sei konvex und hi : Rn → R sein konvex. Wenn das System{hi(x) < 0 | i = 1, . . . Q} keine Losungen in X besitzt, dann existiert ein λi > 0, i ∈ {1, . . . Q}mit
∑Qi=1 λi = 1, sodass fur alle x ∈ X gilt
Q∑i=1
hi(x)λi ≥ 0.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 71
Beweis: Siehe [4].
Beweis: von Satz 3.3.3.
”=⇒ “: Satz 3.3.2
”⇐= “: x∗ ∈ Xp−par, dann ∃M > 0 : ∀i, j ∈ {1, . . . Q} , ∀x ∈ X fur die fi(x) < fi(x
∗), fj(x∗) <
fj(x) ist, gilt, dass
fi(x∗)− fi(x)
fj(x)− fj(x∗)≤M (3.6)
⇔ fi(x) +Mfj(x) ≥ fi(x∗) +Mfj(x∗) ∀i 6= j. (3.7)
Somit besitzen die Gleichungen fi(x) + Mfj(x) < fi(x∗) + Mfj(x
∗) ∀i 6= j keine zulassigenLosungen in X.Wende Satz 3.3.4 fur die Systeme
fi(x) < fi(x∗)
fi(x) +Mfj(x) < fi(x∗ +Mfj(x
∗) ∀i 6= j
(hi = fi(x)− f∗i (x) und
hj = fi(x)− f∗i (x) +M(fj(x)− fj(x∗)) sind konvex)
an.∃λij ∈ (RQ+)
◦mit
∑Qj=1 λ
ij = 1, sodass fur alle x ∈ X gilt∑
j 6=i[λijM(fj(x)− fj(x∗)) + λij(fi(x)− fi(x∗))] + λii(fi(x)− fi(x∗)) ≥ 0. (3.8)
Aus 3.8 folgt
Q∑j=1
λijfi(x) +∑j 6=i
λijMfj(x)−
Q∑j=1
λijfi(x∗) +M
∑j 6=i
λijfj(x∗)
≥ 0
fi(x) +M∑j 6=i
λijfj(x) ≥ fi(x∗) +M∑j 6=i
λijfj(x∗) ∀x ∈ X,∀i.
Wir summieren uber alle i und vertauschen anschließend die Indizes i und j:
Q∑i=1
fi(x) +M
Q∑i=1
∑j 6=i
λijfj(x) ≥Q∑i=1
fi(x∗) +M
Q∑i=1
∑j 6=i
λijfj(x∗)
Q∑i=1
(1 +M∑j 6=i
λji )fi(x) ≥Q∑i=1
(1 +M∑j 6=i
λji )fi(x∗).
Setze λi =(∑
j 6=i λji
)M + 1 > 0 und x∗ ∈ arg min
{∑λjfi(x) | x ∈ X
}.
2
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 72
3.4 Die Skalarisierungsmethode
Wir betrachten das Pareto-MCOP (X, f,RQ) | id | (RQ, <).
Frage: Wann kann dieses Problem als skalarisiertes Problem min∑Q
i=1 λifi(x) gelost werden?
Sei λ ∈ RQ und
Opt(λ, Y ) := {y∗ ∈ Y | 〈λ, y∗〉 ≤ 〈λ, y〉 ∀y ∈ Y } ,
wobei 〈λ, y〉 =∑Q
i=1 λiyi ist. Wir definieren
S(Y ) :=⋃
λ∈(RQ)◦
Opt(λ, Y ),
S0(Y ) :=⋃
λ∈RQ\{0}
Opt(λ, Y )
und es gilt S(Y ) ⊆ S0(Y ).
Bemerkung. λ ∈ (RQ+)◦
bedeutet, dass λi 6= 0 ∀i und
λ ∈ RQ+ \ {0} bedeutet, dass λ 6= (0, 0 . . . 0), aber λ = (0, 1, 0 . . . 0, 1) erlaubt ist.
Beispiel.
Q = 2,
(f1(x1, x2), f2(x1, x2)) = (x1, x2),
Opt(λ, Y ) = {P1, P2}
P
P
1
2
Y=X
x
x
2
1
Definition 3.4.1. Y ⊆ R heißt RQ+-konvex, falls
Y + RQ+ :={y + d | y ∈ Y, d ∈ RQ+
}konvex ist.
Beispiel. Y ist nicht konvex, aber Y + RQ+ ist konvex ⇒ Y ist RQ+-konvex.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 73
Y
Satz 3.4.2. Es gilt S(Y ) ⊆ Yeff .
Beweis: Folgt direkt aus Satz 3.3.2, also
S(Y ) ⊆ f(Xp−par) ⊆ f(Xpar) = Yeff .
2
Satz 3.4.3. Es gilt Yeff ⊆ S0(Y ), falls Y RQ+-konvex ist.
Beweis: Sei y∗ ∈ Yeff , dann gilt wegen Lemma 3.1.7 y∗ ∈ (Y + RQ+)eff und daher
(Y + RQ+) ∩ (−RQ+) = {y∗}
(Y + RQ+ − y∗) ∩ (−RQ+) = {0} .
Sei S1 := Y + RQ+ − y∗. Dies ist konvex, da Y RQ+-konvex ist. Sei S2 := −RQ+ auch konvex.Sei RI. . . das relative Innere, dann gilt
RI(S1) ∩RI(S2) ⊆ S1 ∩ S2 = {0} .
Da 0 6∈ I(S2), gilt RI(S1) ∩RI(S2) 6= ∅. Der Seperationssatz impliziert ∃λ ∈ RQ \ {0} :
infz∈S1
〈λ, z〉 ≥ supz∈S2
〈λ, z〉 und
supz∈S1
〈λ, z〉 ≥ infz∈S2
〈λ, z〉.
Es gilt
infz∈S1
〈λ, z〉 = infy∈Y,d∈RQ
+
〈λ, y + d− y∗〉
≤ 〈λ, y∗ + 0− y∗〉 = 0
sup〈λ, z〉 ≤ inf〈λ, z〉 ≤ 0.
Falls λi0 < 0 ist, dann setze z = (0, . . . , −1︸︷︷︸i0
, 0, . . . 0). Dann ist
supz∈−RQ
+
〈λ, z〉 ≥ 〈λ, z〉
= −λi0 > 0.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 74
Dies ist ein Widerspruch und daher gilt λi ≥ 0 ∀i = 1, . . . Q.Fur alle y ∈ Y und alle d ∈ RQ+ gilt
〈λ, y + d− y∗︸ ︷︷ ︸∈S1
〉 ≥ infz∈S1
〈λ, z〉
≥ supz∈S2
〈λ, z〉 = 0,
da alle Komponenten von z kleinergleich 0 sind und eines gleich 0 ist. Die Ungleichung giltauch fur d = 0:
〈λ, y − y∗〉 ≥ 0 ∀y ∈ Y⇔ 〈λ, y〉 ≥ 〈λ, y∗〉 ∀y ∈ Y
⇒ y∗ ∈ Opt(λ, Y )
⇒ y∗ ∈ S0(Y ).
2
Satz 3.4.4. Sei {y∗} = Opt(λ, y) fur λ ∈ RQ+ \ {0}, dann gilt y∗ ∈ Yeff .
Beweis: HU durch Widerspruch
Bemerkung. Aus Satz 3.4.2 und Satz 3.4.3 folgt: S(Y ) ⊆ Yeff ⊆ S0(Y ) fur RQ+-konvexeMengen Y (fur zweite Inklusion). Die Inklusionen sind im Allgemeinen echt.
3.4.1 Die Skalarisierung und die schwache Effizienz
Satz 3.4.5. Es gilt S0(Y ) ⊆ Yw−eff .
Beweis: Sei λ ∈ RQ+ \ {0} mit λi ≥ 0 ∀i = 1, . . . Q und y∗ ∈ Opt(λ, y), dann gilt
Q∑i=1
λiy∗i ≤
Q∑i=1
λiyi ∀y = (yi) ∈ Y.
Annahme: y 6∈ Yw−eff , dann folgt
∃y′ ∈ Y : y′i < y∗i ∀i = 1, . . . Q
⇒∑
λiy′i <
∑λiy∗i .
Dies ist ein Widerspruch zu y∗ ∈ Opt(λ, y).
2
Satz 3.4.6. Sei Y RQ+-konvex, dann gilt S0(Y ) = Yw−eff .
Beweis: Mit Satz 3.4.5 bleibt nur Yw−eff ⊆ S0(Y ) zu zeigen. Sei y∗ ∈ Yw−eff , daraus folgt
@y′ ∈ Y : y′i < y∗i ∀i
⇒ @y′ + α ∈ Y + RQ+ : (y′ + α)i < y∗i ∀i
⇒ (Y + RQ+ − y∗) ∩ (−(RQ+)◦) = ∅.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 75
(Nimmt man an, dass (y′ + α− y∗i )i < 0, so gelangt man zu einem Widerspruch.)Aus dem Seperationssatz folgt
∃λ ∈ RQ \ {0} : 0 ≥ infz∈S1
〈λ, z〉 ≥ supz∈S2
〈λ, z〉. (3.9)
Zeige
infy∈Y〈λ, y + d− y∗〉 ≤ 〈λ, y∗ + 0− y∗〉 = 0.
Falls λi0 < 0 gelten wurde, setze z = (−ε,−ε, . . . ,−1,−ε, . . .− ε), sodass
〈λ, z〉 = −λi0 − ε∑i 6=i0
λi > 0
(wahlen die ε klein genug). Somit gilt λi ≥ 0 ∀i.Wir zeigen y∗ ∈ Opt(λ, y) (⇒ y∗ ∈ S0(Y )):
supz∈−(RQ
+)◦〈λ, z〉 = sup
z∈(RQ+)◦〈λ,−z〉 ≥ 0,
weil, wenn −ε < 0, dann gilt mit K die Anzahl der λi, die nicht 0 sind, dass
λ1z1 + . . . λQzQ ≥ −ε
λizi ≥ −ε
K
⇔ zi ≥ −ε
Kλi∀i : λi 6= 0
〈λ, y + 0− y∗〉 ≥ infz∈S1
〈λ, z〉
≥ sup . . . ≥ 0
⇒ 〈λ, y〉 ≥ 〈λ, y∗〉 ∀y ∈ Y.
2
Zusammenfassung:Skalarisiertes Problem =⇒ MCOP:x∗ ist optimal fur minx∈X
∑Qi=1 λifi(x) mit λ ∈ RQ.
1.) λ ∈ RQ+ \ {0} ⇒ x∗ ∈ Xw−par (Satz 3.4.6),
2.) λ ∈ (RQ+)◦ ⇒ x∗ ∈ Xpar (Satz 3.4.2),
3.) λ ∈ RQ+ \ {0} und x∗ eindeutig ⇒ x∗ ∈ Xs−par (Satz 3.4.4)
MCOP =⇒ Skalarisiertes Problem:X ist konvex und fi ist konvex fur alle i = 1, . . . Q. Sei x∗ ∈ Xw−par ⇒ ∃λ ∈ RQ+ \ {0} : x∗
optimal furminx∈X
∑Qi=1 λifi(x) (Satz 3.4.6).
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 76
3.4.2 Die Skalarisierung und die eigentliche Pareto-Optimalitat
Satz 3.4.7. Sei Y RQ+-konvex, dann gilt Yp−eff ⊆ S(Y ).
Bemerkung. Wir wissen, dass S(Y ) ⊆ Yp−eff und somit folgt insgesamt S(Y ) = Yp−eff .
Beispiel.
Y = X ={
(x1, x2) ∈ R2 | x21 + x2
2 ≤ 1}
Xpar = Yeff
Yp−eff = Yeff \ {(−1, 0), (0,−1)}
x
xP
P
1
1
2
2
S(Y ) =⋃
λ∈(R2+)◦
Opt(λ, Y ),
P1 ∈ arg minz∈Y
〈 (1, 0)︸ ︷︷ ︸6∈(RQ
+)◦
, z〉,
P2 ∈ arg minz∈Y
〈 (1, 0)︸ ︷︷ ︸6∈(RQ
+)◦
, z〉
Wir wissen, dass fur beliebige Mengen Y
S(Y ) ⊆ Yp−eff ⊆ Yw−eff
und dass fur RQ+-konvexe Mengen Y
S(Y ) = Yp−eff ⊆ Yeff ⊆ Yw−eff = S0(Y ).
gilt.
Satz 3.4.8. Hartley, 1981: Sei Y 6= ∅,RQ+-konvex und RQ+-abgschlossen, dann gilt
S(Y ) ⊆ Yp−eff ⊆ Yeff ⊆ cl(S(Y )) = cl(Yp−eff ),
wobei cl(A) der Abschluss von A ist.Das heißt es ist Yeff \ Yp−eff ⊆ cl(Yp−eff ) \ Yp−eff (der Gap zwischen Yeff und Yp−eff istnicht beliebig groß, nur abhangig von Yp−eff ).
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 77
3.5 Andere Methoden der Pareto-Optimierung
3.5.1 Die ε-Constraint-Methode
Idee: Ersetze minx∈X f1(x), . . . fQ(x) durch
(Pk(ε)) : min fk(x)
s.t.fi(x) ≤ εi ∀i 6= k
x ∈ X
Beispiel. εa = (ea1, ea2); εb = (eb1, e
b2)
(ya, yb Optimallosung)
f
f
1
2
yy
a
b
ea b e1 1
(P2(εa)) : min f2(x)
s.t. f1(x) ≤ ea1x ∈ X
(P2(εb)) : min f2(x)
s.t. f1(x) ≤ eb1x ∈ X
Satz 3.5.1. Sei x optimal fur Pk(ε) fur ein k ∈ {1, . . . Q} und ε ∈ RQ, dann gilt x ∈ Xw−par.
Beweis: Falls x 6∈ Xw−par, dann ∃x′ ∈ X : fi(x′) < fi(x) ≤ εi ∀i. Daraus folgt x′ ist zulassig
fur Pk(ε) und fk(x′) < fk(x) und somit ware x nicht optimal, weil x′ eine bessere Losung
ware. Widerspruch!
2
Satz 3.5.2. Sei x eindeutig optimal fur Pk(ε) fur k ∈ {1, . . . Q}, dann gilt x ∈ Xs−par.
Beweis: Annahme: x 6∈ Xs−par, das heißt ∃x ∈ X : fj(x) < fj(x) ∀j. Somit gilt fj(x) ≤fj(x) ≤ εj (da x optimal fur Pk(ε)) fur alle j 6= k und fur k gilt fk(x) < fk(x) ≤ εk. Dies istein Widerspruch zur Optimalitat von x fur Pk(ε).
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 78
2
Satz 3.5.3. Sei x ∈ X. Dann gilt x ∈ Xpar ⇔ ∃ε ∈ RQ : x ist optimal fur Pk(ε) ∀k = 1, . . . Q.
Beweis:
”⇒ “: x ∈ Xpar.
Setze εj := fj(x) ∀j = 1, . . . Q.Annahme: x ist nicht optimal fur Pk(ε) ∀k = 1, . . . Q. Dann existiert ein x ∈ X :
fk(x) < fk(x),
fj(x) ≤ ε = fj(x) ∀j 6= k.
Daraus folgt x 6∈ Xpar. Widerspruch! Daher ist x optimal fur Pk(ε) ∀k = 1, . . . Q.
”⇐ “: ∃εj : x optimal fur Pk(ε) ∀k = 1, . . . Q.
Annahme: x 6∈ Xpar. Dann existiert ein x ∈ X, k ∈ {1, . . . Q} : fj(x) ≤ fj(x)(≤ εj), fk(x) <fk(x). x ist zulassig fur Pk(ε) wegen der ersten Ungleichung, aber x ist besser (wegen der 2.Ungleichung). Dies ist ein Widerspruch zur Optimalitat von x und somit folgt x ∈ Xpar.
2
Notationen.
Ek :={ε ∈ RQ | {x ∈ X | fj(x) ≤ εj ∀j 6= k} 6= ∅
},
Xk(ε) := {x ∈ X | x ist optimale Losung fur Pk(ε)}
∀ε ∈ E :=
Q⋂k=1
Ek gilt
Q⋂k=1
xk(ε) ⊆ Xpar ⊆⋃ε∈E
Q⋂k=1
xk(ε).
Dies folgt, da x optimal fur alle Pk(ε) ist und wegen Satz 3.5.3.Um zu prufen ob eine Losung pareto-optimal ist, kann man kontrollieren ob sie in
⋂Qk=1 xk(ε)
enthalten ist bzw. wenn man wissen will ob eine Losung nicht pareto-optimal ist, so uberpruftman ob diese in
⋃ε∈E
⋂Qk=1 xk(ε) enthalten ist.
Satz 3.5.4. Chankong und Haimes, 1983:
1.) Ist x optimal fur das skalarisierte Problem
minx∈X
Q∑i=1
λifi(x) mit λ ∈ (RQ+)◦,
dann existiert ein ε : x ist optimal fur Pk(ε) ∀k = 1, . . . Q.
2.) Wenn X konvex ist und fi : X → R auch konvex ist fur alle i, dann gilt, dass aus derOptimalitat von x fur Pk(ε) ∀k = 1, . . . Q folgt, dass ein λ ∈ RQ+ \ {0} existiert, fur das
x optimal fur minx∈X∑Q
i=1 λifi(x) ist.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 79
Daraus folgt, dass wenn wir es fur alle λ losen, es aquivalent dazu ist Pk(ε) fur alle ε zu losenund man kann jeweils das wahlen, was leichter ist.
Beweis:1.) x ist optimal fur das skalarisierte Problem minx∈X
∑Qi=1 λifi(x) mit λ ∈ (RQ+)
◦. Setze
ε := f(x). Es gilt fur alle x ∈ X
Q∑i=1
λi(fi(x)− fi(x)) ≥ 0.
Annahme: x ist nicht optimal fur Pk(ε).Dann existiert x ∈ X : fj(x) ≤ εj = fj(x) ∀j 6= k und fk(x) < fj(x). Daraus folgt
fj(x)− fj(x) ≤ 0 ∀j 6= k
fk(x)− fk(x) < 0
⇒∑j 6=k
λj(fj(x)− fj(x)) + λk(fk(x)− fk(x)) < 0,
was einen Widerspruch ergibt. Daher ist x optimal fur Pk(ε).2.) HU
2
Bemerkung. Fur weitere Informationen siehe [5].
3.5.2 Methode von Benson
Idee: Sei Q = 2. Falls x0 ∈ X (z.B. zufallig gewahlt), dann berechne eine Losung, die x0
dominiert als Losung des folgenden Problems
Pε(x0) : max
Q∑i=1
εi
s.t. fi(x0)− εi − fi(x) = 0
ε ≥ 0
x ∈ X.
Dies ist das Benson-Problem. Die Restriktionen sind aquivalent zu fi(x0) − fi(x) = εi ≥ 0.Wir wollen das Maß der Verbesserung maximieren.
Satz 3.5.5. x0 ∈ Xpar ⇔ der optimale Wert von Pε(x0) ist 0 (kann nichts verbessern).
Beweis: HU
Satz 3.5.6. Angenommen Pε(x0) ist beschrankt und besitzt eine optimale Losung (x∗, ε∗),dann gilt x∗ ∈ Xpar.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 80
Beweis: Annahme: x∗ 6∈ Xpar ⇒ ∃x ∈ X : fi(x) ≤ fi(x∗), fq(x) < fq(x
∗) fur ein q ∈{1, . . . Q}. Weil fi(x0) − fi(x∗) = ε∗ ≥ 0 ist (da (x∗, ε∗) zulassig ist fur Pε(x0) ), folgt, auch,dass εi = fi(x0)− fi(x) ≥ 0 gilt und dass (x, ε) zulassig fur Pε(x0) ist.Es gilt
εi = fi(x0)− fi(x)
= fi(x0)− fi(x∗)︸ ︷︷ ︸ε∗i
+ fi(x∗)− fi(x)︸ ︷︷ ︸
≥0,>0 fur i=q
.
Daraus folgt, dass der Zielfunktionswert von Benson fur (x, ε) großer ist als fur (x∗, ε∗) unddies ist ein Widerspruch zur Optimalitat von (x∗, ε∗).
2
Satz 3.5.7. Sei X konvex und fi : X → R konvex fur alle i = 1, . . . Q. Falls Pε(x0) keinenendlichen optimalen Wert besitzt (unbeschrankt), dann gilt Yp−par = ∅.
Beweis: Pε(x0) ist unbeschrankt
⇒ ∀M ≥ 0 ∃x ∈ X : εi = fi(x0)− fi(x) ≥ 0 ∀i
und
Q∑i=1
εi > M. (3.10)
Annahme: ∃x∗ ∈ Xp−par3.3.3⇔ ∃λ ∈ (RQ+)
◦: x∗ ist optimal fur minx∈X
∑Qi=1 λifi(x)
⇒Q∑i=1
λi(fi(x)− fi(x∗)) ≥ 0 ∀x ∈ X
⇒Q∑i=1
λi(fi(x0)− fi(x∗)) ≥ 0.
Setze λm = min1≤i≤Q λi > 0 und fur ein beliebiges m > 0 setze M := Mλm
.
Aus 3.10 finden wir auch fur M ein x ∈ X mit fj(x0)− fj(x) ≥ 0. Es ist
λm
Q∑i=1
(fi(x0)− fi(x)) > λm · M = M
⇒M <
Q∑i=1
λm(fi(x0)− fi(x))
≤Q∑i=1
λi(fi(x0)− fi(x)) ∀M ∈ R+.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 81
Letzteres gilt auch fur M :=∑Q
i=1 λi(fi(x0)− fi(x∗)) ≥ 0. Daraus folgt
Q∑i=1
λi(fi(x0)− fi(x∗)) <Q∑i=1
λi(fi(x0)− fi(x))
Q∑i=1
λifi(x∗) >
Q∑i=1
λifi(x)
und dies ist ein Widerspruch zur Optimalitat von x∗. Somit gilt 6 ∃x∗ ∈ Xp−par ⇒ Xp−par = ∅.
2
Korollar 3.5.8. Sei X ⊆ Rn konvex und fi : X → R konvex fur alle i und sei f(X) = YRQ+-abgeschlossen, dann gilt, dass aus Pε(x0) unbeschrankt folgt, dass Xpar = ∅.
Beweis: Aus Satz 3.4.8 folgt
S(Y ) ⊆ Yeff ⊆ cl(S(Y )) = cl(Yp−eff )
und aus Satz 3.5.7 folgt, dass
Xp−par = ∅ ⇒ Yp−eff = f(Xp−par) = ∅
und somit
Yeff ⊆ ∅ ⇒ Yeff = ∅ = f(Xpar)⇒ Xpar = ∅.
2
Beispiel. Wiecek, 1995
(X, f,RQ) | id | (RQ, <),
Q = 2,
X = [−100,∞)
f1 : x 7→ x2 − 4
f2 : x 7→ (x− 1)4
Benson-Problem:
Pε(x0) max ε1 + ε2
s.t. x0 ≥ −100
ε1, ε2 ≥ 0
x20 − 4− x2 + 4− ε1 = 0
(x0 − 1)4 − (x− 1)4 − ε2 = 0
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 82
1.) x0 = 0 (zulassig)
Pε(0) max ε1 + ε2
s.t. 0 ≥ −100
ε1, ε2 ≥ 0
− x2 − ε1 = 0⇒ −x2 = ε1 > 0⇒ x = 0, ε1 = 0
1− (x− 1)4 − ε2 = 0⇒ 1− 1− ε2 = 0
Das heißt, dass die einzige Losung (0, (0, 0)) ist und ⇒ x = 0 ∈ Xpar (Satz 3.5.5).2.)x0 = 2: Man kann berechnen (Matlab), dass x0 = 2 von x = 0.410 dominiert wird, womitfolgt, dass x = 0.410 ∈ Xpar (Satz 3.5.6).
3.5.3 Methode des Compromise Programming (CP)
Definition 3.5.9. Sei (X, f,RQ) | id | (RQ, <) ein Pareto-Optimierungs-Problem und seiXpar 6= ∅ (Yeff 6= ∅). Ein Punkt y0 ∈ RQ mit yi = infx∈X fi(x) ∀i = 1 . . . Q heißt idealerPunkt.
y0
y
y
1
2
Bemerkung. Ein idealer Punkt ist nicht unbedingt zulassig.
Idee: Man versucht dem Punkt y0 so nahe wie moglich zu kommen, das heißt wir suchen
(CPP ) minx∈X
d(f(x), y0),
wobei d eine Metrik in RQ ist.
Bemerkung. Wir betrachten nur Metriken, die von Normen in RQ abgeleitet werden, dasheißt d(a, b) = ‖a− b‖ ∀a, b ∈ RQ und ‖ · ‖ : RQ → RQ ist eine Norm.
Definition 3.5.10. Fur alle c ∈ R+ heißt Yc ={y ∈ Y | d(y, y0) ≤ c
}die Niveaumenge um
y0 mit Parameter c.
Definition 3.5.11. Eine Norm ι : RQ → R+ heißt monoton, falls fur alle a, b ∈ R mit| ai |≤| bi | (| ai |<| bi |) die Ungleichung ‖a‖ ≤ ‖b‖ (‖a‖ < ‖b‖) gilt.Eine Norm ι : RP → R+ heißt streng monoton, falls fur alle a, b ∈ R mit | ai |≤| bi | unda 6= b die Ungleichung ‖a‖ < ‖b‖ impliziert wird.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 83
Beispiel. Lp(a) := (∑Q
i=1 api )
1p , 1 ≤ p ∈ R
Lp ist streng monoton fur alle p. Uberprufung HU.L∞(a) := max1≤i≤Q | ai | ist monoton, aber nicht streng monoton. Uberprufung HU.
Satz 3.5.12. Es gelten folgende 2 Punkte:
1.) Sei ‖ · ‖ eine monotone Norm in RQ und x eine optimale Losung vonCP (minx∈X ‖f(x) − y0‖). Dann gilt x ∈ Xw−par. Falls x eindeutig optimal, dann giltx ∈ Xpar.
2.) Falls ‖ · ‖ streng monoton ist, dann gilt: x ist optimal fur CP ⇒ x ∈ Xpar.
Beweis:1.) Sei x optimal fur CP und x nicht aus Xw−par⇒ ∃x ∈ X : fi(x) < fi(x) ∀i = 1, . . . Q da monoton⇒ ‖f(x)− y0‖ > ‖f(x)− y0‖.Widerspruch zur Optimalitat von x!Sei x eindeutig optimal und x nicht aus Xpar
⇒ ∃x ∈ X : fi(x) ≤ fi(x) und fq(x) < fq(x), q ∈ {1, . . . Q}⇒ ‖f(x)− y0‖ ≥ ‖f(x)− y0‖⇒ x optimal fur CP .⇒ Widerspruch zur Eindeutigkeit von x2.) Annahme: x 6∈ Xpar ⇒ ∃x ∈ X : fi(x) ≤ fi(x) und fq(x) < fq(x), q ∈ {1, . . . Q}⇒ ‖f(x)− y0‖ > ‖f(x)− y0‖⇒ Widerspruch zur Optimalitat von x.
2
Notationen. a� b = (a1 · b1, . . . , aQ · bQ)
Wir betrachten das gewichtete CP-Problem fur W ∈ (RQ+)◦(wi > 0 ∀i) mit
∑Qi=1wi = 1 und
ein 1 ≤ p ∈ R (bzw. p =∞):
CPwp minx∈X
(Q∑i=1
(wi(fi(x)− y0i ))
p
) 1p
= minx∈X
Lp(w � (f(x)− y0))
CPw∞ minx∈X
max1≤i≤Q
(wi(fi(x)− y0i )) = min
x∈XL∞(w � (f(x)− y0))
Bemerkung. Fur p = 1 ist Cwp=1 das skalarisierte Problem.
Satz 3.5.13. Sei x fur p <∞ eine optimale Losung von CPwp . Wenn die Bedingung, dass xeine eindeutig optimale Losung fur CPwp ist, erfullt ist, dann gilt x ∈ Xpar.
Beweis: Annahme: x 6∈ Xpar ⇒ ∃x ∈ X : fi(x) ≤ fi(x) ∀i 6= q, fq(x) < fq(x). Daraus folgt
((fi(x)− y0i )wi)
p ≤ ((fi(x)− y0i )wi)
p ∀i, (fur i = q :”< “)
⇒
(Q∑i=1
((fi(x)− y0i )wi)
p
) 1p
<
(Q∑i=1
((fi(x)− y0i )wi)
p
) 1p
.
Dies ist ein Widerspruch zur Optimalitat von x fur CPwp .
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 84
2
Bemerkung. Wir brauchen die Eindeutigkeit nur fur den Fall, dass man wi ≥ 0 fur CPwpzulasst. Fur wi > 0 kann die Eindeutigkeit auch weggelassen werden
Satz 3.5.14. Sei wi > 0 ∀i = 1, . . . Q, p =∞, dann gilt:
1.) Ist x optimal fur CPw∞ ⇒ x ∈ Xw−par.
2.) Falls Xpar 6= ∅ und CPw∞ eine optimale Losung besitzt, dann existiert x fur CPw∞ mitx ∈ Xpar. Falls mehrere optimale Losungen existieren, dann gibt es darunter mindestenseine pareto-optimale Losung.
3.) Falls Xpar 6= ∅ und CPw∞ eine eindeutig optimale Losung x besitzt, dann gilt x ∈ Xpar.
Beweis:1.) Ist analog zu den vorherigen Beweisen sehr einfach.2.) Sei x eine optimale Losung von CPw∞. Es gilt fur alle x ∈ X
fi(x)− y0i ≥ fi(x)− fi(x) (da fi(x)− y0
i ≥ 0)
⇒Q∑i=1
fi(x)− y0i ≥
Q∑i=1
fi(x)− fi(x) ∀x ∈ X
⇒Q∑i=1
fi(x)− y0i ≥
Q∑i=1
εi.
⇒ Benson-Problem Pε(x) ist beschrankt.⇒ ∃ optimale Losung x fur Pε(x).⇒ x ∈ Xpar nach Satz 3.5.6.Es gilt
fi(x) ≤ fi(x) ∀i⇒ wi(fi(x)− y0
i ) ≤ wi(fi(x)− y0i ) ∀i
⇒ max1≤i≤Q
wi(fi(x)− y0i ) ≤ max
1≤i≤Qwi(fi(x)− y0
i ) ∀i.
⇒ x ist optimal fur CPw∞ mit x ∈ Xpar.3.) Folgt aus 2.).
2
Satz 3.5.15. Chao, Aktins, 1983: Ein zulassiges x ∈ X ist schwach pareto-optimal ⇔ ∃w ∈(RQ+)
◦, sodass x optimal fur CPw∞ ist.
Beweis:
”⇐“: Satz 3.5.14 1.)
”⇒“: Sei x ∈ Xw−par. Wir definieren passende wi, sodass x optimal fur
CPw∞ : wi :=1
fi(x)− y00i
> 0,
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 85
wobei y00i := y0
i − ε, ε > 0 beliebig ( y00 . . . utopischer Punkt, wird von Zielfunktion nieerreicht).Annahme: x ist nicht optimal fur CPw∞ mit y00, also fur minx∈X max1≤i≤Qwi(fi(x)− y00
i )⇒ ∃x zulassig, sodass
max1≤i≤Q
wi(fi(x)− y00i ) < max
1≤i≤Qwi(fi(x)− y00
i )
= max1≤i≤Q
wi(fi(x)− y00i )
wi(fi(x)− y00i )
= 1
⇒ wi(fi(x)− y00i ) < 1
⇒ fi(x)− y00i <
1
wi= fi(x)− y00
i
⇒ fi(x) < fi(x).
Dies ist ein Widerspruch zu x ∈ Xw−par ⇒ x ist optimal.
2
Bemerkung. • Mit Satz 3.5.15 haben wir eine komplette Charakterisierung von
Xw−par =⋃
w∈(RQ+)◦
{x ∈ X | x optimal fur CPw∞} .
Eine Charakterisierung fur Xpar ist nicht bekannt.
• Die Satze 3.5.12-3.5.14 gelten auch, falls die vorkommenden CP -Probleme mit y00 statty0 definiert werden.
• Wenn in Satz 3.5.15 der utopische Punkte y00 durch y0 ersetzt wird , so gilt die Aussagenicht mehr. Es gilt nicht ein mal
Yp−eff ⊂⋃
w∈(RQ+)◦ )
{x ∈ X | x optimal fur CPw∞} .
Hauptergebnis des Abschnitts(Analog zum Satz von Hartley fur die Skalarisierungsmethode)Y 6= ∅, Y RQ+-konvex, Y RQ+-abgeschlossen⇒ S(Y ) ⊆ Yeff ⊆ cl(S(Y )).Sei
W0 :=
{w ∈ RQ | wi > 0,
Q∑i=1
wi = 1
}
W :=
{w ∈ RQ | wi ≥ 0,
Q∑i=1
wi = 1
}.
Fur alle w ∈W, ∀y ∈ Y betrachte w � y. Fur alle w ∈W, ∀p ∈ [1,∞) sei
A(w, p, Y ) =
{y ∈ Y | Lp(w � (y − y00)) = min
y∈YLp(w � (y − y00))
},
A(Y ) =⋃
w∈W0
⋃1≤p≤∞
A(w, p, Y ).
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 86
Satz 3.5.16. Sawaragi, Nakayama, Tanino, 1985: Sei Y 6= ∅ RQ+-abgeschlossen, dann gilt
A(Y ) ⊆ Yp−eff ⊆ Yeff ⊆ cl(A(Y )).
Eigenschaften der Lp-Normen: (sind wichtig fur den Beweis)
(E1) L∞(y) ≤ Lp(y) ∀y ∈ RQ,
(E2) limp→∞ Lp(y) = l∞(y) ∀y ∈ RQ und
(E3) lp ist strikt monoton fur p <∞, L∞ ist monoton.
Bemerkung. Satz 3.5.16 gilt fur jedes System von Normen (Li)i∈N, das die Eigenschaften(E1)-(E3) erfullt.
Beispiel. Yeff ⊆ cl(A(Y )) kann echt sein:
y1
y2
-1
1
Y ={y ∈ R2 | y2
1 + (y2 − 1)2 ≤ 1}∪{y ∈ R2 | y1 ≥ 0, y2 ≥ −1
}Y ist abgeschlossen und nicht RQ+-konvex. Wir sehen (0, 0) 6∈ Yeff und (0, 0) ∈ cl(A(Y )).Fur alle y ∈ Yeff mit y2 < 1, y1 > 0 gibt es (w1, w2) : w1, w2 > 0, w1 +w2 = 1 und ein p ∈ N,sodass (y1, y2) optimal sind fur
miny∈Y
Lp(w � (y − y00)),wobei
y00 = (−1,−1)− (ε, ε) = −(1 + ε, 1 + ε).
1.) p = 4⇒ L4(w � (y − y00)) := gw1,w2(y1, y2)
2.) H(gw1,w2) Hessematrix positiv definit → ∂g∂w1
!=0, ∂g
∂w2
!=0
⇒ y1 = f1(w1, w2) = y∗1
y2 = f2(w1, w2) = y∗2
⇒ A(Y ) = Yeff \ {0,−1}⇒ (0, 0) ∈ cl(A(Y ))
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 87
Beispiel. Pareto-Optimierung mit 2 Zielfunktionen:
X = [−100,∞)
f1(x) = x2 − 4
f2(x) = (x− 1)4.
Wir zeigen Xpar = [0, 1]. Man erhalt als Losung von CP
w = (1
2,1
2)
p = 2
und es ist
y0 = (minx∈X
x2 − 4,minx∈X
(x− 1)4)
y0 = (−4, 0) idealer Punkt
y00 = (−5,−1) utopischer Punkt (z.B.)
CPw2 : minx∈X
√(x2 − 4 + 5)2 · 1
4+ ((x− 1)4 + 1)2 · 1
4
⇔minx∈X
(x2 + 1)2 + ((x− 1)4 + 1)2 = minx∈X
g(x)
g′(x) = 2(x2 + 1) · 2x+ 2((x− 1)4 + 1) · 4(x− 1)3 = 0
⇔ x∗ = 0.40563 (g′′ > 0 Konvexitat)
⇒ x∗ ∈ Xpar nach Satz 3.5.13.
Wir wissen A(Y ) ⊆ Yeff ⊆ cl(A(Y )) und wir zeigen noch A(Y ) = f([0, 1])(= cl(A(Y ))).Damit folgt dann insgesamt, dass
Yeff = f([0, 1])
Xpar = [0, 1].
A(Y ) = f([0, 1]): Es ist
CPwp : minx∈[−100,∞)
(wp1(x2 + 1)p + wp2((x− 1)4 + 1)p)1p
⇔ minx∈[−100,∞)
wp1(x2 + 1)p + wp2((x− 1)4 + 1)p = min g(x,w1, w2, p)
g′w1,w2,p(x) = wp1 · p(x2 + 1)p−1 · 2x+ wp2p((x− 1)4 + 1)p−14(x− 1)3
g′′w1,w2,p(x) = . . . ≥ 0.
⇒ g ist konvex fur alle w1 > 0, w2 > 0, p ≥ 1. Wir setzen g′ = 0 und erhalten somit
−wp1
wp2=
2(x− 1)3((x− 1)4 + 1)p−1
x(x2 + 1)p−1=: h(x)
sgn(h(x)) = sgn(x− 1)3
x= −1
⇒ x ∈ [0, 1]
⇒ A(Y ) ⊆ f([0, 1]).
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 88
3.6 Multikriterielle lineare Optimierung
Gegeben:
X = {x ∈ Rn | Ax = b, x ≥ 0} ,A ∈ Rm×n, Rg(A) = m,n ≥ m,b ∈ Rm
Zielfunktionen: fi : Rn → R : x 7→ (c(i))Tx(X,C,RQ) | id | (Rd,≤) Pareto-OptimierungC ∈ RQ×n, Y = f(X) = {Cx | x ∈ X}, Y abgeschlossen und konvex,
C =
(c(1))T
(c(2))T
·(c(Q))T
Alternative Schreibweise:
MCLP minCx
s.t. Ax = b
x ≥ 0
Folgerung: Aus dem Existenzsatz uber MCOPs folgt:Falls Y 6= ∅ und ∃x ∈ RQ : Cx = Y ⊂ y + RQ+, dann gilt Yeff 6= ∅.Begrundung: Aus obigem folgt, dass Y nach unten beschrankt ist. Sei
Y 0 ={y ∈ Y | y ≤ y0
}∀y0 ∈ Y.
Existenzsatz: ∃y0, Y 0 kompakt ⇒ Yeff 6= ∅.Da
Y 0 = Y ∩ (y0 − RQ+)
und Y und y0 − RQ+ abgeschlossen sind, folgt, dass Y 0 abgeschlossen ist. Des weiteren gilt
Y 0 ⊂ Y ist nach unten beschrankt und Y 0 ⊆ (y0−RQ+) ist nach oben beschrankt, also ist Y 0
beschrankt. Insgesamt folgt damit, dass Y 0 kompakt ist und daraus, dass Yeff 6= ∅.
Anwendung vom Satz von Hartley:S(Y ) = Yp−eff ⊆ Yeff ⊆ cl(S(Y ))Wir zeigen noch S(Y ) = Yeff gilt fur MCLP .
Lemma 3.6.1. Fur x0 ∈ X gilt x0 ∈ Xpar ⇔
(P ) max eT y
s.t. Ax = b
Cx+ Iy = Cx0
x, y ≥ 0
mit e = (1, . . . 1)(Q mal) und I ∈ RQ×Q die Einheitsmatrix eine optimale Losung (x, y) mity = (0, . . . 0) besitzt.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 89
Bemerkung. Dies ist eine Umformung von Benson. Die erste Restriktion entspricht derZulassigkeit und die zweite entspricht fi(x)− fi(x0) + ε0 = 0(εi = yi).
Lemma 3.6.2. Fur x0 ∈ X gilt x0 ∈ Xpar ⇔
(D) minuT b+ wTCx0
s.t. uTA+ wTC ≥ 0
w ≥ e
eine optimale Losung (u, w) mit uT b+ wTCx0 = 0 besitzt.
Beweis: Folgt direkt aus dem starken Dualitatssatz der linearen Optimierung.
2
Satz 3.6.3. Isermann, 1947: Es gilt
Yp−eff = S(Y ) = Yeff , das heißt
x0 ∈ Xpar ⇔ ∃λ ∈ (RQ+)◦
: λTCx0 ≤ λTCx ∀x ∈ X
gilt.
Beweis: S(Y ) ⊆ Yeff gilt fur MCLP (Hartley). Wir zeigen Yeff ⊆ S(Y ).Sei x0 ∈ Xpar (y = Cx0 ∈ Yeff ). Aus Lemma 3.6.2 folgt, dass eine optimale Losung (u, w)fur (D) existiert
uT b+ wTCx0 = 0 (3.11)
⇒ uT b = −wTCx0.
⇒ u ist optimal fur
(P2) min{uT b | uTA ≥ −wTC
}.
Begrundung: Es ist zulassig, da (u, w) zulassig fur (D) ist(⇒ uTA+ wTC ≥ 0). Es ist noch die Optimalitat zu zeigen.Falls ein u existiert, sodass
uT b > uT b = uTAx ≥ wTCx ∀x ∈ X
gilt, dann folgt uT b > −wTCx0 fur x0 und dies ist ein Widerspruch zu 3.11 daher ist uoptimal.Sei (D2) das duale Problem zu (P2):
(D2) : max{−wTCx | Ax = b, x ≥ 0
}.
Aus der schwachen Dualitat folgt, dass uT b ≥ −wtCx ∀u zulassig fur (P2) ist und fur alle xzulassig fur (D2) ist.Zudem gilt 3.11, woraus wegen der starken Dualitat folgt, dass x0 optimal fur (D2) ist. (D2)ist aquivalent zu
minx∈X
Q∑i=1
wi(c(i))Tx
wi ≥ ei = 1,
das heißt x0 ∈ Opt(w) ⊆ S(Y ).
2
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 90
3.6.1 Parametrische lineare Optimierung
Gegeben:
A ∈ Rm×n, Rg(A) = m,
b ∈ Rm,
c(1), c(2) ∈ Rn,
c(λ) = λc(1) + (1− λ)c(2)
und
PLP min c(λ)Tx
s.t. Ax = b
x ≥ 0
Ansatz zur Losung: modifiziertes Simplexverfahren
• Phase 1: Uberprufung der Zulassigkeit: ob X ={x ∈ Rn+ | Ax = b
}= ∅.
• Phase 2: Falls X 6= ∅, dann lose LP (λ = 1) (fur jedes λ ∈ [0, 1] entsteht ein linearesProgramm → LP (λ)). Sei B0(X0) eine optimale Basis (optimale Basislosung).
• Phase 3: Variiere λ von 1 bis 0, lose die dazugehorigen linearen Programme neu, sobaldeine Variation von λ die Optimalitat der vorherigen Losung zerstort.
Es ist
A = ( B0︸︷︷︸Basis
| N0︸︷︷︸Nichtbasis
)
B0x0B +N0x0
n︸ ︷︷ ︸=0
= b
⇒ x0B = (B0)−1b.
Seien c(λ) die reduzierten Kosten, dann gilt
c(λ)T = c(λ)T − cB(λ)TB−1A
⇒ c(λ) = λc(1) + (1− λ)c(2).
Das Optimalitatskriterium ci ≥ 0 gilt genau dann, wenn B eine optimale Basis ist. Zudem istB0 optimal fur LP (λ) ⇔ c(λ) ≥ 0.Fall 1: c(2) ≥ 0, dann ist c(λ) ≥ 0⇒ x0 ist optimal fur alle λ ∈ [0, 1].
Fall 2: ∃j ∈ {1, . . . n} : c(2)j < 0. Fur alle j = 1, . . . n ist
λc(1)j + (1− λ)c
(2)j = cj(λ)
und falls c(2)j < 0, dann ist
λc(1)j + (1− λ)c
(2)j = 0, wenn
λ =−c(2)
j
c(1)j − c
(2)j
=: αj .
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 91
Fur alle λ ≶ αj gilt c(λ) ≶ 0.Setze
λ(1) := max{αj | j ∈ {1, . . . n} , c(2)
j < 0}
und suche die optimalen Losungen fur λ < λ(1). Pivotiere an Zelle (i′, j′), wobei
j′ ∈ arg max{αj | j ∈ {1, . . . n} , c(2)
j < 0}
i′ ∈ arg min
{biaij′| j′ ∈ {1, . . .m} , aij′ > 0
}.
Die neue Basis B1 und die neue Basislosung x1 ist optimal fur LP (λ(1)) und λ < λ(1), sodass
c(λ) = λc(1) + (1− λ)c(2) ≥ 0,
wobei diese reduzierten Kosten bzgl. B1 berechnet werden.
Bemerkungen. zu PLP
• PLP ist die Skalarisierung von MCLP . C ∈ R2×n,
C =
(c(1)
c(2)
)minCx
s.t. Ax = b
x ≥ 0
Mit Isermann gilt S(Y ) = Yeff . Die Losungen (0, 1) und (1,0) (λ = 0, bzw. λ =
1) mussen nicht pareto-optimal sein, weil (1, 0), (0, 1) 6∈ (RQ+)◦. Um pareto-optimale
Losungen zu bekommen, losen wir folgende 2 linearen Programme
λ = 1 : min(c(1))Tx
s.t. Ax = b
x ≥ 0
(c(2))Tx ≥ (c(2))Tx(1),
λ = 2 : min(c(2))Tx
s.t. Ax = b
x ≥ 0
(c(1))Tx ≥ (c(1))Tx(2),
wobei x(2) eine optimale Losung von LP (0) und x(1) eine optimale Losung von LP (1)ist.
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 92
• Y = CX,
X = {x ∈ Rn | Ax = b, x ≥ 0} ,
Yeff =
p⋃i=1
conv(Cx(i−1), Cx(i))
Yeff ⊆ Rd(Y ), x(i) ist die optimale Losung von LP (λ(i)) fur alle i. p ist die Anzahl derIterationen. x(i+1) ist auch eine optimale Losung von LP (λ(i+1)), da an den Sprung-punkten beide optimal sind.
Satz 3.6.4. Der optimale Zielfunktionswert f(λ) von PLP ist stetig, stuckweise linear undkonkav auf [0, 1] (bei Maximierungsproblemen konvex).
Beweis: Siehe [6].
Korollar 3.6.5. Der Simplexalgorithmus zur Losung von PLP terminiert nach endlich vielenSchritten.
Beweis: Die Anzahl der Ecken den Polyeders {x ∈ Rn | Ax = b, x ≥ 0} ist endlich. Auf Grundvon Satz 3.6.4 kann jede Basislosung fur hochstens 2 der Probleme LP (λ(i)), 0 ≤ i ≤ p alsoptimale Losung dienen.
2
Beispiel.
min c(λ)x
s.t. x2 ≤ 3
3x1 − x2 ≤ 6
x1, x2 ≥ 0
c(1) = (3, 1)
c(2) = (−1,−2)
Fur λ = 1 erhalt man min 3x1 + x2 mit x ∈ X als Zielfunktion. Es ergibt sich folgendesTableau:
-1 -2 0 0 03 1 0 0 0
0 1 1 0 33 -1 0 1 6
Losung: x1 = 0, x2 = 0
λ(1) = max
{1
3 + 1,
2
1 + 2
}=
2
3
j′ = 2
-1 0 2 0 63 0 -1 0 -3
0 1 1 0 33 0 1 1 9
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 93
x1 = 0, x2 = 3, J = {1} , j′ = 1
0 0 73
13 9
0 0 -2 -1 -12
0 1 1 0 31 0 1
313 3
J = ∅, (3, 3) ist optimal fur 0 ≤ λ ≤ 14
3.6.2 Theorie der MCLP
Sei
A ∈ Rm×n, Rg(A) = m ≤ n,b ∈ Rm,C ∈ RQ×n
X = {x ∈ Rn | Ax = b, x ≥ 0} .
und
minCx
s.t. Ax = b
x ≥ 0
Das skalarisierte Problem mit Gewichtungsvektor λ, λ ∈ (RQ+)◦
ist
LP (λ) minλTCx
s.t. x ∈ X
C = C − CBB−1A sind die reduzierte Kosten bzgl. Basis B, R bezeichnet den Nichtbasisteilvon C, CB ist der Basisteil von C.
Lemma 3.6.6. xpar 6= ∅ ⇔ X hat einen pareto-optimalen Extrempunkt (Ecke des PolyedersX).
Definition 3.6.7. Eine Basis B (B ∈ Rm×m, basisregulare Teilmatrix von A) heißt effizient,wenn B eine optimale Basis fur ein LP (λ) mit λ ∈ (RQ+)
◦ist.
Lemma 3.6.8. Sei B eine effiziente Basis und xB der dazugehorige Extrempunkt, dann giltxB ∈ Xpar.Ist x ∈ Xpar ein Extrempunkt, dann existiert eine effiziente Basis B, sodass x der dazugehorigePunkt ist (xi = 0 fur i 6∈ B, x = B−1b fur den Basisteil).
Definition 3.6.9. Ein Pivot heißt zulassig, wenn die Losung nach diesem Pivot zulassig ist.Zwei Basen heißen adjazent, wenn B von B durch einen einzigen Pivotschritt erhalten wird.Sei B eine effiziente Basis, dann heißt xj effiziente Nichtbasisvariable, wenn ein λ ∈ (RQ+)
◦
existiert, sodass λTR ≥ 0 und λT r(j) = 0, wobei r(j) die j-te Spalte von R ist.Sei B eine effiziente Basis und xj eine effiziente Nichtbasisvariable bzgl. B. Ein zulassigerPivotschritt mit xj als neuer Basisvariable heißt effizienter Pivotschritt bzgl. B und xj .
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 94
Lemma 3.6.10. Sei B eine effiziente Basis und xj eine effiziente Nichtbasisvariable bzgl. B.Jeder Pivotschritt bzgl. B und xj fuhrt zu einer neuen effizienten Basis B′ (adjazent zu B).
Bemerkung. Das System λTR ≥ 0, λT rj = 0 ist die allgemeine Form der Gleichungen, diezur Bestimmung der
”relevanten “ Werte von λ verwendet werden.
Wenn xB und xB pareto-optimale Losungen sind, die zu den effizienten Basen B und B assozi-iert werden, dann sind xB und xB die optimalen Losungen desselben LP (λ) und conv(xB, xB) ⊆Xpar (konvexe Kombinationen).
Frage: Wie uberprufen wir, ob xj bzgl. einer effizienten Basis B eine effiziente Nichtbasisva-riable ist?
Satz 3.6.11. Evans, Steuer, 1973: Sei B eine effiziente Basis und xj eine Nichtbasisvariable.Alle zulassigen Pivots mit xj als neue Basisvariable sind effizient ⇔ die linearen Programme
max{eT v | Ry − rjδ + Iv = 0 : y, δ, v ≥ 0
}einen optimalen Wert gleich 0 besitzen.
Bemerkung. Dieses lineare Programm ist entweder unbeschrankt oder es ist beschrankt undhat als optimalen Wert 0. Im unbeschrankten Fall ist xj keine effiziente Nichtbasisvariable.
Satz 3.6.12. Steuer, 1985: Alle effizienten Basen sind zusammenhangend, das heißt man kannvon jeder effizienten Basis zu jeder anderen effizienten Basis durch eine Reihe von zulassigenPivots kommen.
3.6.3 Ein multikriterieller Simplex-Algorithmus
Fur ein MCLP gibt es 3 Falle
1.) MCLP unzulassig, d.h. X = ∅,
2.) Xpar = ∅ und X = ∅ und
3.) Xpar 6= ∅.
Phase 1: Bestimme einen 1. Extrempunkt (zulassige Basis) oder terminiere mit X = ∅.Die Zielfunktion ist irrelevant. (Dies entspricht der Phase 1 des herkommlichen Simplex-Algorithmus.)Phase 2: Bestimme einen pareto-optimalen Extrempunkt (effiziente Basis) oder terminieremit Xpar = ∅.Phase 3: Pivotiere entlang der effizienten Basen um die pareto-optimalen Extrempunkte bzw.Extremstrahlen zu bestimmen.
ad Phase 2:
• Wenn X 6= ∅ nach Phase 1, dann ∃x0 ∈ X →. Uberprufe ob x0 ∈ Xpar.
• Wenn es unbeschrankt ist: Xp−par = ∅,Xpar = Xp−par = ∅ .
KAPITEL 3. MULTIKRITERIELLE OPTIMIERUNG 95
• Falls (P ) beschrankt ist und (x∗, y∗) die optimale Losung von (P ) ist, dann ist X∗ ∈Xpar, aber x∗ muss kein Extrempunkt sein.In Lemma 3.6.2 wurde gezeigt, dass die optimale Losung (u∗, w∗) des Problems (D) dieGleichung
u∗T b+ w∗Tx0 = 0
erfullt. Daraus folgt, dass u∗ eine optimale Losung von (P2) ist.Das duale Problem (D2) von (P2) ist aquivalent zu
min{w∗TCx | Ax = b, x ≥ 0
}.
Aus Satz 3.6.4 wissen wir, dass (D2) eine optimale Losung besitzt, die pareto-optimalist und ein Extrempunkt fur MCLP ist.
Literaturverzeichnis
[1] Michal Tzur: A Simple Forward Algorithm to Solve General Dynamic Lot Sizing Modelswith n Periods in 0(n log n) or 0(n) Time
[2] Donald Lee Iglehart: Optimality of (s, S)-policies in the infinite horizon dynamicinventory model, Management Science, 259-267
[3] Donald Lee Iglehart: Dynamic programming and stationarity analysis of investoryproblems, Standfort University Press
[4] Margesarian: Nonlinear programming, NY 1969
[5] V. Chankong, Y.Y. Haimes: Multiobjective decision making Theory and Methodology,Elsenier, Science Publishing Co., New York, 1983
[6] Dantzig und Thapa: Linear Programming: Theory and Extensions, Band 2, Springer,NY, 2003
96