10. copulas 10.1. mehrdimensionale verteilungsfunktionenschmidli/vorl/stoch2/copulas.pdf · 186 10....
TRANSCRIPT
10. COPULAS 185
10. Copulas
10.1. Mehrdimensionale Verteilungsfunktionen
Fur einen Vektor X = (X1, X2, . . . , Xd)> ∈ IRd bezeichnet
F (x1, x2, . . . , xd) = IIP[X1 ≤ x1, . . . , Xd ≤ xd]
die gemeinsame Verteilungsfunktion, und Fk(xk) = F (∞, . . . , xk, . . . ,∞) die k-te
Randverteilung. Wir haben dann F (−∞, . . . ,−∞) = 0 und F (∞, . . . ,∞) = 1.
Setzen wir uj,1 = aj und uj,2 = bj fur −∞ ≤ aj < bj ≤ ∞, so folgt aus der
Teleskopformel, dass
IIP[X1 ∈ (a1, b1], . . . , Xd ∈ (ad, bd]] =2∑
j1=1
2∑j2=1
· · ·2∑
jd=1
(−1)j1+···+jdF (u1,j1 , . . . , ud,jd) .
Umgekehrt, haben wir eine Funktion IRd → [0, 1], mit F (−∞, . . . ,−∞) = 0 und
F (∞, . . . ,∞) = 1 und
2∑j1=1
2∑j2=1
· · ·2∑
jd=1
(−1)j1+···+jdF (u1,j1 , . . . , ud,jd) ≥ 0
fur alle −∞ ≤ ak < bk ≤ ∞, so ist F eine Verteilungsfunktion einer mehrdimen-
sionalen Verteilung auf [−∞,∞]d. Dies folgt leicht aus Satz 1.10, indem wir die
Mengenfunktion
µ((a1, b1]× (a2, b2]× · · · × (an, bn]) =2∑
j1=1
2∑j2=1
· · ·2∑
jd=1
(−1)j1+···+jdF (u1,j1 , . . . , ud,jd)
definieren. Uns interessieren Verteilungsfunktionen, deren Randverteilungen kein
Mass in ±∞ haben.
Wir definieren nun die verallgemeinerte Inverse. Sei f : IR → IR eine Funktion.
Dann setzen wir
f−1(t) = inf{x : f(x) ≥ t} .
Es folgt aus der Definition, dass f−1(x) eine wachsende Funktion ist.
Ist F eine eindimensionale Verteilungsfunktion, so erhalten wir
F (F−1(t)) ≥ t und F−1(F (x)) ≤ x .
186 10. COPULAS
Ist F stetig, so gilt F (F−1(t)) = t. In der Tat, da F wachsend ist, muss F (F−1(t) +
ε) ≥ t fur alle ε > 0 gelten. Da aber F rechtsstetig ist, konnen wir ε gegen Null gehen
lassen, und erhalten F (F−1(t)) ≥ t. Ist F stetig, so muss es ein x geben, so dass
F (x) = t. Somit ist F−1(t) ≤ x, und damit F (F−1(t)) ≤ F (x) = t, was die Gleichheit
beweist. Wir haben trivialerweise F (x) ≥ F (x), und damit auch F−1(F (x)) ≤ x.
Nehmen wir als Beispiel die Bernoulli-Verteilung F (x) = (1− p)1Ix≥0 + p1Ix≥1. Dann
haben wir F−1(1 − p/2) = 1 und F (F−1(1 − p/2)) = F (1) = 1 > 1 − p/2, und
F−1(F (12)) = F−1(1− p) = 0 < 1
2. Wir sehen also, dass wirklich die Ungleichungen
gelten mussen.
Es gilt folgendes Resultat.
Hilfssatz 10.1. Sei X eine Zufallsvariable mit Verteilungsfunktion F und U eine
auf (0, 1) gleichverteilte Zufallsvariable. Dann hat F−1(U) die Verteilungsfunktion
F . Weiter gilt IIP[F (X) ≤ u] ≤ u und IIP[F (X) ≥ u] ≥ 1 − u fur u ∈ [0, 1]. Ist F
stetig in F−1(u), so haben wir IIP[F (X) ≤ u] = u und IIP[F (X) ≥ u] = 1− u.
Beweis. Wir erhalten aus der Definition von F−1 und der Monotonie von F , dass
IIP[F−1(U) > x] = IIP[U > F (x)] = 1− F (x), und damit IIP[F−1(U) ≤ x] = F (x).
Fur u = 1 ist die Aussage trivial. Somit konnen wir u < 1 annehmen. Sei
z = sup{x : F (x) ≤ u}. Dann gilt F (z−) ≤ u. Ist F (z) = u, so haben wir IIP[F (X) ≤u] = IIP[X ≤ z] = F (z) = u. Ist F (z) > u, so erhalten wir IIP[F (X) ≤ u] = IIP[X <
z] = F (z−) ≤ u. Damit Ungleichheit gilt, muss F (z−) < u gelten. In diesem Fall ist
also z = F−1(u), und damit IIP[F (X) ≤ u] = IIP[X < z] = F (z−) < u. Ist F stetig
in F−1(u), so ist u ≤ F (F−1(u)) = F (F−1(u)−) ≤ u, und somit muss Gleichheit
gelten. Weiter gilt, IIP[F (X) ≥ u] = IIP[X ≥ F−1(u)] = 1− F (F−1(u)−) ≥ 1− u. Ist
F stetig in F−1(u), so haben wir Gleichheit. �
10.2. Copulas
Definition 10.2. Eine Verteilungsfunktion C(x1, x2, . . . , xd), so dass die Randver-
teilungen jeweils die Gleichverteilung auf (0, 1) sind, heisst Copula.
Hilfssatz 10.3. Sei C(x1, x2, . . . , xd) eine Copula, und F1, F2, . . . , Fd eindimen-
sionale Verteilungsfunktionen. Dann ist
F (x1, x2, . . . , xd) = C(F1(x1), F2(x2), . . . , Fd(xd)) (10.1)
eine Verteilungsfunktion mit Randverteilungen F1, F2, . . . , Fd.
10. COPULAS 187
Beweis. Wir erhalten F (−∞, . . . ,−∞) = C(0, . . . , 0) ≤ C(0, 1, . . . , 1) = 0 und
F (∞, . . . ,∞) = C(1, . . . , 1) = 1, da die Verteilung C auf (0, 1)d konzentriert ist.
Wahlen wir −∞ ≤ ak < bk ≤ ∞ und setzen wir ak = Fk(ak), bk = Fk(bk) und
uk,jk = Fk(uk,jk), so erhalten wir
2∑j1=1
2∑j2=1
· · ·2∑
jd=1
(−1)j1+···+jdF (u1,j1 , . . . , ud,jd)
=2∑
j1=1
2∑j2=1
· · ·2∑
jd=1
(−1)j1+···+jdC(u1,j1 , . . . , ud,jd) ≥ 0 .
Also ist F eine Verteilungsfunktion. Fur die k-te Randverteilung erhalten wir
F (∞, . . . , xk, . . . ,∞) = C(1, . . . , Fk(xk), . . . , 1) = Fk(xk) ,
was die Aussage beweist. �
Satz 10.4. (Sklar) Sei F eine d-dimensionale Verteilungsfunktion mit den Rand-
verteilungen F1, . . . , Fd. Dann existiert eine Copula C, so dass (10.1) gilt. Sind alle
Randverteilungen stetig, so ist C eindeutig.
Beweis. Sei X = (X1, . . . , Xd) die Variable mit Verteilungsfunktion F . Dann hat
Xk die Verteilung Fk. Wir bilden die Variablen Uk = Fk(Xk). Sei C die Verteilungs-
funktion von (U1, . . . , Ud). Dann gilt fur die Verteilungsfunktion Fk von Uk, dass
IIP[Uk ≤ u] ≤ u und IIP[Uk ≥ u] ≥ 1− u. Ist F stetig, so gilt Gleichheit. Ist Fk nicht
stetig, so nummerieren wir die Sprungstellen {ykn} von Fk. Dann ist Fk(Fk(ykn)) =
IIP[F (Xk) ≤ Fk(ykn)] = IIP[Xk ≤ ykn] = Fk(y
kn) und analog Fk(Fk(y
kn)−) = Fk(y
kn−).
Seien V kn unabhangige auf (0, 1) gleichverteilte Zufallsvariablen. Wir setzen nun
Uk = Uk, falls Fk an der Stelle Xk stetig ist, und Uk = (1−V kn )Fk(y
kn−) +V k
n Fk(ykn),
falls Xk = ykn. Wir wollen nun zeigen, dass Uk auf (0, 1) gleichverteilt ist. Sei u ein
Punkt, so dass Fk stetig ist in F−1k (u). Dann ist Fk(F−1k (u)) = u und
IIP[Uk ≤ u] = IIP[Fk(Xk) ≤ Fk(F−1k (u))] = IIP[Xk ≤ F−1k (u)] = Fk(F
−1k (u)) = u .
Sei u ein Punkt, so dass Fk einen Sprung in F−1k (u) hat. Also gibt es n, so dass
ykn = F−1k (u). Dann erhalten wir
IIP[Uk ≤ u] = IIP[Uk ≤ Fk(ykn−)] + IIP[Fk(y
kn−) < Uk ≤ u]
= IIP[F (Xk) ≤ Fk(ykn−)] + IIP
[Uk = Fk(y
kn), V k
n ≤u− Fk(ykn−)
Fk(ykn)− Fk(ykn−)
]= Fk(y
kn−) + (Fk(y
kn)− Fk(ykn−))
u− Fk(ykn−)
Fk(ykn)− Fk(ykn−)= u .
188 10. COPULAS
Somit ist Uk gleichverteilt auf (0, 1). Sei nun C die gemeinsame Verteilung von
(U1, . . . , Ud). Da wir gleichverteilte Randverteilungen haben, ist C eine Copula. Wir
haben nun
C(F1(x1), . . . , Fd(xd)) = IIP[U1 ≤ F1(x1), . . . , Ud ≤ Fd(xd)]
= IIP[U1 ≤ F1(x1), . . . , Ud ≤ Fd(xd)] = IIP[F1(X1) ≤ F1(x1), . . . , Fd(Xd) ≤ Fd(xd)]
= IIP[X1 ≤ x1, . . . , Xd ≤ xd] = F (x1, . . . , xd) .
Sind die Randverteilungen stetig, so ist Fk(F−1k (u)) = u fur alle u. Somit erhalten
wir
C(u1, . . . , ud) = C(F1(F−11 (u1)), . . . Fd(F
−1d (ud))) = F (F−11 (u1), . . . , F
−1d (ud)) ,
was die Eindeutigkeit beweist. �
Copulas beschreiben die Abhangigkeit von Zufallsvariablen, und sind invariant
unter streng monotonen Transformationen.
Hilfssatz 10.5. Seien X1, . . . , Xd Zufallsvariablen, die durch eine Copula C und
Randverteilungen F1, . . . , Fd gegeben sind. Seien Dk Intervalle, so dass IIP[Xk ∈Dk] = 1 und seien Tk : Dk → IR streng wachsende Funktionen. Sind Xk = Tk(Xk)
Variablen mit Randverteilungen Fk, so ist die gemeinsame Verteilung von X1, . . . , Xd
gegeben durch C(F1(x1), . . . , Fd(xd)).
Beweis. Da die Funktionen streng wachsend sind, haben wir Xk = T−1k (Xk). Dies
ergibt
Fk(x) = IIP[Tk(Xk) ≤ x] = IIP[Xk ≤ T−1k (x)] = Fk(T−1k (x)) .
Damit haben wir
C(F1(x1), . . . , Fd(xd)) = C(F1(T−11 (x1)), . . . , Fd(T
−1d (xd)))
= F (T−11 (x1), . . . , T−1d (xd)) = IIP[X1 ≤ T−11 (x1), . . . , Xd ≤ T−1d (xd)]
= IIP[T1(X1) ≤ x1, . . . , Td(Xd) ≤ xd] = IIP[X1 ≤ x1, . . . , Xd ≤ xd] .
�
Als nachstes geben wir Schranken fur Copulas.
10. COPULAS 189
Proposition 10.6. Fur jede Copula gilt fur 0 ≤ uk ≤ 1
max{u1 + · · ·+ ud + 1− d, 0} ≤ C(u1, . . . , ud) ≤ min{u1, . . . , ud} .
Dabei ist die obere Schranke eine Copula. Die untere Schranke ist genau dann eine
Copula, falls d = 2.
Beweis. Wir haben
IIP[U1 ≤ u1, . . . , Ud ≤ ud] ≤ IIP[Uk ≤ uk] = uk .
Dies beweist die obere Schranke. Die untere Schranke gilt im Falle d = 1. Nehmen
wir an, die Schranke sei fur d bewiesen. Dann haben wir
IIP[U1 ≤ u1, . . . , Ud ≤ ud, Ud+1 ≤ ud+1]
= IIP[U1 ≤ u1, . . . , Ud ≤ ud] + IIP[Ud+1 ≤ ud+1]
− IIP[{U1 ≤ u1, . . . , Ud ≤ ud} ∪ {Ud+1 ≤ ud+1}]≥ max{u1 + · · ·+ ud + 1− d, 0}+ ud+1 − 1
= max{u1 + · · ·+ ud + ud+1 + 1− (d+ 1), ud+1 − 1} .
Da eine Wahrscheinlichkeit positiv ist, durfen wir ud+1 − 1 durch Null ersetzen.
Sei U gleichverteilt auf (0, 1). Setzen wir U1 = · · · = Ud = U , erhalten wir
IIP[U1 ≤ u1, . . . , Ud ≤ ud] = IIP[U ≤ u1, . . . , U ≤ ud] = min{u1, . . . , ud} ,
also die Copula der oberen Schranke. Fur d = 2 setzen wir U1 = U und U2 = 1−U .
Dann erhalten wir
IIP[U1 ≤ u1, U2 ≤ u2] = IIP[1− u2 ≤ U ≤ u1] =
{u1 − (1− u2) falls 1− u2 ≤ u1,
0 sonst,
also die untere Schranke. Setzen wir u4 = · · · = ud = 1, so genugt es zu zeigen, dass
dur d = 3 die untere Schranke keine Copula ist. Wir haben wegen der Symmetrie
IIP[12< Uk ≤ 1, k ∈ {1, 2, 3}] = C(1, 1, 1)− 3C(1, 1, 1
2) + 3C(1, 1
2, 12)− C(1
2, 12, 12)
= 1− 3 · 12
+ 3 · 0− 0 = −12.
Somit kann es sich nicht um eine Copula handeln �
Eine weitere wichtige Copula ist die Unabhangigkeitscopula C(u1, . . . , ud) =∏dk=1 uk.
190 10. COPULAS
Definition 10.7. Wir nennen X und Y komonoton, falls Y = F−1Y (FX(X)),
und kontramonoton, falls Y = F−1Y (1− FX(X)).
Komonotone Variablen sind durch die Copula C(u, v) = min{u, v} charakterisiert,
kontramonotone Variablen durch die Copula C(u, v) = max{u + v − 1, 0}. Eine
Gruppe von d Variablen kann immer paarweise komonoton sein. Eine Gruppe von
d Variablen kann aber nur im Falle d = 2 paarweise kontramonoton sein. Daher ist
im Falle d ≥ 3 die untere Grenze keine Copula.
10.3. Paar-Abhangigkeitsmasse
10.3.1. Lineare Korrelation
Seien X, Y zwei Zufallsvariablen, so dass IIE[X2 + Y 2] < ∞. Die Kovarianz ist
Cov[X, Y ] = IIE[XY ]−IIE[X]IIE[Y ], die Varianz Var[X] = Cov[X,X]. Die Korrelation
ist definiert als
Cor[X, Y ] =Cov[X, Y ]√
Var[X] Var[Y ].
Dies ist ein klassisches Mass fur die Abhangigkeit zwischen zwei Variablen, und es
gilt Cor[X, Y ] ∈ [−1, 1].
Hilfssatz 10.8. Seien X, Y positive Zufallsvariablen mit gemeinsamer Verteilung
F (x, y). Dann ist
IIE[XY ] =
∫ ∞0
∫ ∞0
1− FX(x)− FY (y) + F (x, y) dx dy .
Damit wird die Korrelation maximal fur komonotone Variablen und minimal fur
kontramonotone Variablen.
Beweis. Wir haben
IIE[XY ] =
∫ ∞0
∫ ∞0
xyF (dx, dy) =
∫ ∞0
∫ ∞0
∫ x
0
dv
∫ y
0
dwF (dx, dy)
=
∫ ∞0
∫ ∞0
1− FX(v)− FY (w) + F (v, w) dv dw .
Daraus folgt die Formel fur IIE[XY ]. Halten wir FX und FY fest, so wird der Ausdruck
extremal fur die extremalen Copulas. �
Die (lineare) Korrelation bildet kein gutes Abhangigkeitsmass.
10. COPULAS 191
Beispiel 10.9. Sei X exponentialverteilt mit Parameter 1. Wir setzen X1 = X
und X2 = X2. Dann hat X1 die Varianz 1, X2 die Varianz 20. Die Kovarianz ist 4.
Somit ist die Korrelation 4/√
20 ≈ 0.8944. Obwohl die Variablen perfekt abhangig
sind, ist die Korrelation nicht 1, wie die Korrelation zwischen X und X. Betrachten
wir X3 = X4, so erhalt man das Paar (X2, X3) durch Quadrieren aus (X1, X2). Die
Varianz von X3 ist 39744, die Kovarianz von X2 und X3 ist 672. Dies ergibt die
Korrelation 672/√
794880 ≈ 0.7537. Obwohl die Abhangigkeit die gleiche ist, sind
die Korrelationen unterschiedlich.
Betrachten wir die Variable Z = − log(1− e−X). Dann hat Z die Verteilung
IIP[Z ≤ z] = IIP[1− e−X ≥ e−z] = IIP[X ≥ − log(1− e−z)] = elog(1−e−z) = 1− e−z .
Somit ist auch Z exponentialverteilt. Fur die Kovarianz erhalten wir
IIE[XZ] = −∫ ∞0
x log(1− e−x)e−x dx =
∫ 1
0
log z log(1− z) dz
= −∞∑k=1
1
k
∫ 1
0
zk log z dz =∞∑k=1
1
k(k + 1)
∫ 1
0
zk+11
zdz =
∞∑k=1
1
k(k + 1)2
=∞∑k=1
1
k− 1
k + 1− 1
(k + 1)2= 1−
(π2
6− 1)
= 0.3551 .
Somit haben wir die Kovarianz und Korrelation −0.6449. Obwohl wir hir perfekte
negative Abhangigkeit haben, wird die Korrelation nicht −1. �
Hilfssatz 10.10. Haben X und Y Korrelation 1 oder −1, so gilt
Y = IIE[Y ] +
√Var[Y ]√Var[X]
Cor[X, Y ](X − IIE[X]) .
Beweis. Wir konnen annehmen, dass IIE[X] = IIE[Y ] = 0. Dann erhalten wir
IIE[(Y −
√Var[Y ]√Var[X]
Cor[X, Y ]X)2]
= Var[Y ]− 2
√Var[Y ]√Var[X]
Cor[X, Y ] Cov[X, Y ] +Var[Y ]
Var[X]Var[X]
= Var[Y ]− 2
√Var[Y ]√Var[X]
Cor[X, Y ]2√
Var[X] Var[Y ] + Var[Y ] = 0 .
Daraus folgt die Behauptung. �
192 10. COPULAS
10.3.2. Kendalls Tau
Definition 10.11. Sei (X, Y ) eine unabhangige Kopie von (X, Y ). Kendalls Tau
ist definiert als
ρτ (X, Y ) = IIP[(X − X)(Y − Y ) > 0]− IIP[(X − X)(Y − Y ) < 0] .
Da FX(X) und FY (Y ) streng steigende Transformationen der Zufallsvariablen sind,
haben wir
ρτ (X, Y ) = IIP[(FX(X)− FX(X))(FY (Y )− FY (Y )) > 0]
− IIP[(FX(X)− FX(X))(FY (Y )− FY (Y )) < 0] .
Kendalls Tau ist somit invariant unter streng steigenden Transformationen. Insbe-
sondere, wenn die Randverteilungen stetig sind, hangt die Grosse nur von der Copula
ab. Wir haben fur Kendalls Tau die folgende Formel.
Hilfssatz 10.12. Haben X und Y stetige Randverteilungen und die Copula
C(x, y), so gilt die Formel
ρτ (X, Y ) = 4
∫ 1
0
∫ 1
0
C(x, y)C(dx, dy)− 1 .
Insbesondere ist ρτ (X, Y ) ∈ [−1, 1], und ρτ (X, Y ) = 1, genau dann, wenn X und Y
komonoton sind, und ρτ (X, Y ) = −1, genau dann, wenn X und Y kontramonoton
sind.
Beweis. Durch die Transformation mit FX beziehungsweise FY konnen wir anneh-
men, dass X und Y auf (0, 1) gleichverteilte Randverteilungen haben. Wir bemerken,
dass IIP[(X − X)(Y − Y ) < 0] = 1− IIP[(X − X)(Y − Y ) > 0], also
ρτ (X, Y ) = 2IIP[(X − X)(Y − Y ) > 0]− 1 .
Insbesondere folgt ρτ (X, Y ) ∈ [−1, 1]. Weiter haben wir IIP[(X − X)(Y − Y ) > 0] =
IIP[X > X, Y > Y ] + IIP[X < X, Y < Y ] und IIP[X > X, Y > Y ] = IIP[X < X, Y <
Y ]. Also benotigen wir
IIP[X > X, Y > Y ] =
∫ 1
0
∫ 1
0
IIP[X < x, Y < y]C(dx, dy)
=
∫ 1
0
∫ 1
0
C(x, y)C(dx, dy) ,
10. COPULAS 193
woraus die Formel folgt.
Wir erhalten die Grenze∫ 1
0
∫ 1
0
C(x, y)C(dx, dy) ≤∫ 1
0
∫ 1
0
min{x, y}C(dx, dy) = IIE[min{X, Y }]
≤ IIE[X] = 12.
Um den Wert ρτ (X, Y ) = 1 zu erhalten, muss Gleichheit gelten, insbesondere
C(x, y) = min(x, y), also Komonotonie. Fur X = Y gilt in der Tat auch das zweite
Gleichheitszeichen. Verwenden wir die untere Grenze,∫ 1
0
∫ 1
0
C(x, y)C(dx, dy) ≥∫ 1
0
∫ 1
0
max{x+ y − 1, 0}C(dx, dy)
= IIE[max{X + Y − 1, 0}] ≥ IIE[X + Y − 1] = 0 .
Somit kann ρτ (X, Y ) = −1 nur gelten, falls Gleichheit gilt, also C(x, y) = max{x+
y − 1, 0}, das heisst, Kontramonotonie. Fur Y = 1 − X gilt in der Tat auch das
zweite Gleichheitszeichen. �
10.3.3. Spearmans Rho
Definition 10.13. Die Korrelation ρρ(X, Y ) = Cor[FX(X), FY (Y )] heisst Spear-
mans Rho.
Nach der Definiton ist auch Spearmans Rho invariant unter streng wachsenden
Transformationen. Es gilt
Hilfssatz 10.14. Haben X und Y stetige Randverteilungen und die Copula
C(x, y), so gilt
ρρ(X, Y ) = 12
∫ 1
0
∫ 1
0
C(x, y) dy dx− 3 .
Wir haben ρρ(X, Y ) ∈ [−1, 1], und ρρ(X, Y ) = 1, genau dann, wenn X und Y
komonoton sind, und ρρ(X, Y ) = −1 genau dann, wenn X und Y kontramonoton
sind.
Beweis. Wir haben, dass FX(X) und FY (Y ) auf (0, 1) gleichverteilt sind. Somit
haben beide Variablen die Varianz 1/12 und den Mittelwert 12. Nach Hilfssatz 10.8
haben wir
IIE[FX(X)FY (Y )] =
∫ 1
0
∫ 1
0
(1− u− v + C(u, v)) dv du =
∫ 1
0
∫ 1
0
C(u, v) dv du .
194 10. COPULAS
Dies beweist die Formel. Da die Korrelation in [−1, 1] liegt, muss auch ρρ(X, Y )
in diesem Bereich liegen. Die Extremwerte haben wir nach Hilfssatz 10.10 genau
dann, wenn FY (Y ) = 12
+ ρρ(X, y)(FX(X)− 12). Beim Wert 1, also FY (Y ) = FX(X),
beim Wert −1 also FY (Y ) = 1 − FX(X). Dies ist Komonotonie beziehungsweise
Kontramonotonie. �
10.3.4. Flankenabhangigkeiten
In der Finanz- oder Versicherungsmathematik hat man mit der Abhangigkeit oft
folgendes Problem. Wenn ein Portfolio ein Extremereignis aufweist, so hat man oft
mit einer hohen Wahrscheinlichkeit ein Extremereignis auch in anderen Portfolien.
Daher betrachtet man die Wahrscheinlichkeiten IIP[FY (Y ) > u | FX(X) > u] und
IIP[FY (Y ) ≤ u | FX(X) ≤ u]. Hier transformiert man die Variablen, um gleich
extreme Ereignisse betrachten zu konnen. Die Grosse
to = limu→1
IIP[FY (Y ) > u | FX(X) > u] = limu→1
1− 2u+ C(u, u)
1− u
heisst oberer Flankenabhangigkeitsindex, falls der Grenzwert existiert. Die Va-
riablen X und Y heissen unabhangig in der oberen Flanke, falls to = 0. Analog
heisst
tu = limu→0
IIP[FY (Y ) ≤ u | FX(X) ≤ u] = limu→0
C(u, u)
u
unterer Flankenabhangigkeitsindex, falls der Grenzwert existiert. Die Variablen
X und Y heissen unabhangig in der unteren Flanke, falls tu = 0.
Beispiel 10.15. Betrachten wir eine bivariate Normalverteilung. Da monotone
Abbildungen die Copula nicht verandern, konnen wir annehmen, dass die Randver-
teilungen standard normalverteilt sind. Wir konnen Y = ρX +√
1− ρ2Z setzen,
wobei X,Z unabhangige standard normalverteilte Variablen sind und ρ den Kor-
relationskoeffizienten bezeichnet. Wir betrachten nur den Fall |ρ| < 1. Wir suchen
dann
limu→∞
IIP[ρX +√
1− ρ2Z > u,X > u]
IIP[X > u]=
∫∞u
Φ(−(u− ρx)/√
1− ρ2)φ(x) dx
1− Φ(u).
Ist ρ ≤ 0, so konnen wir die rechte Seite durch Φ(−(1− ρ)u/√
1− ρ2) abschatzen.
10. COPULAS 195
Somit ist to = 0. Sei ρ > 0 und u′ = 1+ρ2ρu > u. Wir erhalten dann die Abschatzung∫ ∞
u
Φ(− u− ρx√
1− ρ2)φ(x) dx
=
∫ u′
u
Φ(− u− ρx√
1− ρ2)φ(x) dx+
∫ ∞u′
Φ(− u− ρx√
1− ρ2)φ(x) dx
≤ Φ(− u− ρu′√
1− ρ2)
(Φ(u′)− Φ(u)) + Φ(−u′) .
Da u− ρu′ = 1−ρ2u, konvergiert
Φ
(− u−ρu′√
1−ρ2
)(Φ(u′)− Φ(u))
1− Φ(u)≤ Φ
(− 1− ρ
2√
1− ρ2u)
nach 0. Weiter konvergiert nach der Regel von Bernoulli–Hopital
limu→∞
1− Φ(1+ρ2ρu)
1− Φ(u)= lim
u→∞
(1 + ρ)φ(1+ρ2ρu)
2ρφ(u)
= limu→∞
1 + ρ
2ρexp{−((1 + ρ)2
4ρ2− 1)u2
2
}= 0 .
Somit ist to = 0. Wegen der Symmetrie folgt auch tu = 0. Also hat die Normalver-
teilung keine Abhangigkeit in den Flanken. �
Beispiel 10.16. Seien Z1, Z2, . . . , Zd iid, X = max{Z1, . . . , Zd} das Maximum,
und Y sei die zweitgrosste Variable. Wir nehmen an, dass die Verteilung von Zk
stetig sei. Da wir uns nur fur die Copula interessieren, konnen wir annehmen, dass
Zk gleichverteilt auf (0, 1) ist. Die Verteilung von X ist dann xd, die Verteilung
von Y ist vd + dvd−1(1 − v). Kennen wir X, so sind die restlichen Variablen auf
(0, X) gleichverteilt. Das heisst, die Verteilung von Y bedingt auf X ist (x/X)d−1
fur x ∈ (0, X). Sei vu ∈ (0, u) die Losung von vd + dvd−1(1 − v) = ud. Damit ist
vu < u und
IIP[Y > vu | X > u] =1
1− ud
∫ 1
u
[1− (vu/x)d−1]dxd−1 dx = 1− dvd−1u (1− u)
1− ud
= 1− d
1 + u+ · · ·+ ud−1vd−1u .
Da vu fur u → 1 gegen 1 konvergiert, erhalten wir den oberen Flankenindex 0.
Das bedeutet, dass der grosste und zweitgrosste Wert in der oberen Flanke nicht
abhangig sind.
196 10. COPULAS
Fur die untere Flanke erhalten wir
IIP[Y ≤ vu | X ≤ u] = u−d[vdu +
∫ u
vu
(vux
)d−1dxd−1 dx
]=vdu + dvd−1u (u− vu)
ud
= 1− d(1− u)vd−1u
ud= 1− d(1− u)
vd−1u
vdu + dvd−1u (1− vu)
= 1− (1− u)d
vu + d(1− vu),
wobei wir zweimal die Definition von vu verwendet haben. Lassen wir u → 0, geht
auch vu → 0, und wir erhalten ebenfalls, dass die beiden grossten Werte auch in der
unteren Flanke unabhangig sind. �
10.4. Elliptische Verteilungen
Definition 10.17. Eine Verteilungsfunktion F einer Variable X ∈ IRd heisst
spharisch, falls fur jede orthogonale Matrix U ∈ IRd×d der Vektor UX auch die
Verteilung F hat.
Wir haben die folgenden aquivalenten Definitionen.
Hilfssatz 10.18. Sei X = (X1, . . . , Xd) ∈ IRd eine d-dimensionale Zufallsvariable
mit charakteristischer Funktion ϕX(r) = IIE[eir>X ]. Dann sind folgende Aussagen
aquivalent:
i) X hat eine spharische Verteilung.
ii) Es existiert eine Funktion ψ : IR+ → IR, so dass ϕX(r) = ψ(‖r‖22).
iii) Fur alle a ∈ IRd gilt a>Xd= ‖a‖2X1.
Beweis. “i) ⇒ ii)” Sei U orthonormal. Dann gilt
ϕX(r) = ϕUX(r) = IIE[eir>UX ] = IIE[ei(U
>r)>X ] = ϕX(U>r) .
Dies bedeutet, dass ϕX nur von der Lange von r abhangen kann, und damit eine
Funktion von ‖r‖ ist.
“ii) ⇒ iii)” Fur einen Vektor a erhalten wir
ϕa>X(r) = IIE[eira>X ] = ϕX(ra) = ψ(r2‖a‖22) .
10. COPULAS 197
Wahlen wir a = (‖a‖2, 0, . . . , 0)>, so erhalten wir denselben Ausdruck. Dies beweist,
dass a>X und ‖a‖2X1 die selbe Verteilung haben.
“iii) ⇒ i)” Sei U orthogonal. Dann haben wir
ϕUX(r) = IIE[eir>UX ] = IIE[ei(U
>r)>X ] = ϕX1(‖U>r‖2) = ϕX1(‖r‖2) = ϕX(r) .
Somit haben UX und X die selbe Verteilung. �
Wir nennen die Funktion ψ den charakterischen Generator der spharischen
Verteilung und schreiben X ∼ Sd(ψ).
Beispiel 10.19. Betrachten wir die Normalverteilung, und nehmen wir an, die
Verteilung sei spharisch. Da a>Xd= ‖a‖2X1 fur alle a, muss −Xk und Xk die
selbe Verteilung wie X1 haben. Das ist nur moglich, falls alle Xk Mittelwert 0 und
die selbe Varianz σ2 haben. Wahlen wir α, β, so dass α2 + β2 = 1. Dann ist auch
αXk + βX`d= X1. Insbesondere erhalten wir
σ2 = Var[X1] = Var[αXk + βX`] = α2σ2 + β2σ2 + 2αβ Cov[Xk, X`]
= σ2 + 2αβ Cov[Xk, X`] .
Somit muss also Cov[Xk, X`] = 0 gelten, und die Koordinaten sind unabhangig. Die
charakteristische Funktion wird ϕX(r) = exp{−12σ2‖r‖2}. Dies hangt nur von ‖r‖2
ab, und die Verteilung ist spharisch. �
Da die Verteilung unter orthogonalen Abbildungen invariant ist, mussen alle
Richtungen gleich wahrscheinlich sein. Dies wollen wir nun beweisen.
Proposition 10.20. Eine Verteilung ist genau dann spharisch, wenn sich Xd=
RS, wobei R ≥ 0 und S auf der Einheitssphare gleichverteilt und unabhangig von
R ist.
Beweis. IstU orthogonal, so ist auchUS auf der Sphare gleichverteilt, und damit
URS = RUSd= RU . Damit hat RU eine spharische Verteilung.
Habe nun X eine spharische Verteilung, Wir setzen R = ‖X‖2 und S ein von
X unabhangiger auf der Einheitsshare S gleichverteilter Vektor. Da die Verteilung
von S shparisch ist, ist IIE[eir>S] = ψd(‖r‖22). Dann gilt
ϕX(r) = ψ(‖r‖22) =
∫Sψ(‖r‖22) dFS(s) =
∫Sψ(‖r‖22 ‖s‖
22) dFS(s)
=
∫S
IIE[ei‖r‖2s>X ] dFS(s) = IIE[IIE[ei‖r‖2S
>X | S]] = IIE[ei‖r‖2S>X ]
= IIE[ei‖r‖2X>S] = IIE[IIE[ei‖r‖2X
>S |X]] = IIE[ψd(‖r‖22‖X‖22)]
= IIE[IIE[ψd(‖r‖22R2) | R]] = IIE[IIE[eir
>RS | R]] = IIE[eir>RS] .
198 10. COPULAS
Somit haben X und RS dieselbe Verteilung. �
Wir verallgemeinern nun die Verteilung.
Definition 10.21. Eine Verteilung eines Vektors X heisst elliptisch, falls es
einen spharisch verteilten Vektor Y ∼ Sd(ψ), eine Matrix A ∈ IRd×d und einen
Vektor µ ∈ IRd gibt, so dass Xd= µ +AY . Wir schreiben X ∼ E(µ,Σ, ψ), wobei
Σ = AA>.
Die Matrix Σ heisst Dispersionsmatrix.
Berechnen wir die charakteristische Funktion von X, so erhalten wir
ϕX(r) = IIE[eir>(µ+AY )] = eir
>µIIE[ei(A>r)>Y ] = eir
>µψ(r>AA>r) = eir>µψ(r>Σr) .
Wir bemerken, dass die Parameter nicht eindeutig sind. So hat E(µ,Σ, ψ(·)) auch
die Darstellung E(µ, 1cΣ, ψ(c ·)) fur jede Konstante c > 0.
Hilfssatz 10.22. Existieren die zweiten Momente, so konnen wir eine Darstellung
wahlen, bei der Σ die Kovarianzmatrix ist.
Beweis. Ohne Beschrankung der Allgemeinheit konnen wir µ = 0 annehmen.
Leiten wir die charakteristische Funktion zweimal ab, so erhalten wir wegen der
Symmetrie von Σ
d2
dr2ψ(r>Σr) =
d
dr2r>Σψ′(r>Σr) = 2Σψ′(r>Σr) + 4rr>Σψ′′(r>Σr) .
Setzen wir r = 0, erhalten wir 2Σψ′(0). Normieren wir ψ, so dass ψ′(0) = −12, so
ist Σ die Kovarianzmatrix. �
Die folgende Aussage folgt sofort aus der Darstellung X = µ+ARS.
Hilfssatz 10.23. Sei X ∼ E(µ,Σ, ψ) und B ∈ IRd×d. Dann ist Y = BX ∼E(Bµ,BΣB>, ψ). �
Die Summe zweier elliptisch verteilter Variablen mit der gleichen Dispersionsmatrix
ist wieder elliptisch.
10. COPULAS 199
Hilfssatz 10.24. Seien X ∼ (µ1,Σ, ψ1) und Y ∼ (µ2,Σ, ψ2) unabhangig und
seien a, b ∈ IR. Dann ist aX+bY ∼ E(aµ1+bµ2,Σ, ψ) mit ψ(x) = ψ1(a2x)ψ2(b
2x).
Beweis. Wir durfen annehmen, dass die Dislokationsparameter µ1 = µ2 = 0
verschwinden. Da die charakteristische Funktion nur von Σ abhangt, konnen wir
annehmen, dass Y mit der gleichen Matrix A erzeugt wurde. Damit ist mit der
spharischen Darstellung
aX + bY = A(aR1S1 + bR2S2) .
Wir zeigen zuerst, dass aR1S1 + bR2S2 sparisch ist. Sei U eine orthogonale Matrix.
Dann ist
U(aR1S1 + bR2S2) = aR1US1 + bR2US2d= aR1S1 + bR2S2 ,
und damit spharisch. Der Generator wird
ψ(‖r‖22) = IIE[eir>(aR1S1+bR2S2)] = IIE[ei(ar)
>R1S1 ]IIE[ei(br)>R2S2 ]
= ψ1(a2‖r‖22)ψ2(b
2‖r‖22) ,
was die Aussage beweist. �
Definition 10.25. Die Copula, die von einer elliptischen Verteilung erzeugt wird,
heisst elliptische Copula.
Abbildung 10.1 zeigt je 5000 Punkte der Copula zweier elliptischer Verteilungen.
Fur die linke Grafik wurde die Copula erzeugt von einer bivariaten Gauss-Verteilung
verwendet, fur die rechte Grafik die Copula erzeugt durch eine bivariate t-Verteilung.
Bei der Gauss-Verteilung sehen wir, dass es weniger Punkte in den Ecken bei (1, 0)
und (0, 1) gibt als bei der t-Verteilung. Die Spitzen in den Ecken bei (0, 0) und (1, 1)
sind bei der t-Verteilung spitzer. Das deutet darauf hin, dass bei der t-Verteilung
ofters Extrema gleichzeitig in beiden Variablen auftreten.
Hilfssatz 10.26. Sei IR2 3X ∼ E2(0,Σ, ψ) und IIP[X1X2 = 0] = 0. Dann gilt
IIP[X1 > 0, X2 > 0] =1
4+
arcsin ρ
2π,
wobei ρ = σ12/√σ11σ22, wobei σk,` die Elemente von Σ sind.
200 10. COPULAS
Abbildung 10.1: Gauss- und t-Copula
Beweis. Da σii die Lange des i-ten Zeilenvektors von A ist, muss σii > 0 sein, da
sonst Xi = 0 folgen wurde. Sei B = diag((√σ11)
−1, (√σ22)
−1) und Y = BX. Dann
ist IIP[Y1 > 0, Y2 > 0] = IIP[X1 > 0, X2 > 0], und Y ∼ E2(0,BΣB, ψ). Wir haben
P = BΣB =
(1 ρ
ρ 1
).
Wir durfen daher annehmen, dass Σ = P . Wir durfen weiter annehmen, dass
A =
(1 0
ρ√
1− ρ2
),
da AA> = P . Wir haben nun die Darstellung X = AR(cos θ, sin θ)>, wobei θ auf
(−π, π) gleichverteilt ist. Setzen wir φ = arcsin ρ ∈ [−12π, 1
2π], so haben wir,
IIP[X1 > 0, X2 > 0] = IIP[cos θ > 0, ρ cos θ +√
1− ρ2 sin θ > 0]
= IIP[|θ| < 12π, sinφ cos θ + cosφ sin θ > 0] = IIP[|θ| < 1
2π, sin[φ+ θ] > 0]
= IIP[|θ| < 12π, 0 < φ+ θ < π] = IIP[−φ < θ < 1
2π] = 1
4+
ρ
2π.
�
Wir konnen nun Kendalls Tau fur elliptische Verteilungen berechnen.
Proposition 10.27. Sei X ∼ E2(µ,Σ, ψ) und sei IIP[X1X2 = 0] = 0. Dann ist
Kendalls Tau
ρτ (X1, X2) =2
πarcsin ρ ,
wobei ρ = σ12/√σ11σ22.
10. COPULAS 201
Beweis. Setzen wir Y = X − X fur eine unabhangige Kopie X von X, so ist
Y ∼ E2(0,Σ, ψ2) verteilt. Wie in Hilfsatz 10.26 durfen wir Σ = P oder
A =
(12(√
1 + ρ+√
1− ρ) 12(√
1 + ρ−√
1− ρ)12(√
1 + ρ−√
1− ρ) 12(√
1 + ρ+√
1− ρ)
)wahlen. Wegen der Symmetrie ist IIP[Y1Y2 > 0] = IIP[Y1 > 0, Y2 > 0]+IIP[Y1 < 0, Y2 <
0] = 2IIP[Y1 > 0, Y2 > 0], und damit ρτ = 4IIP[Y1 > 0, Y2 > 0] − 1. Somit folgt die
Formel aus Hilfssatz 10.26. �
Um den Index der Flankenabhangigkeit zu berechnen, benotigen wir fur u > 0
IIP[X > u, Y > u] = IIP[R cos θ > u, ρR cos θ +√
1− ρ2R sin θ > u] .
Der Fall ρ = 1 ergibt den Flankenindex to = tu = 1, der Fall ρ = −1 den Flankenin-
dex to = tu = 0. Wir nehmen nun |ρ| < 1 an. Wir setzen φ = arcsin ρ ∈ (−π/2, π/2),
so dass
IIP[X > u, Y > u] = IIP[R cos θ > u,R sin(θ + φ) > u] .
Ist u > 0, so muss θ ∈ (−π/2, π/2) ∩ (−φ, π − φ) liegen, also θ ∈ (−φ, π/2). Es ist
sin(θ+φ) < cos θ fur θ ∈ (−φ, π4− φ
2) und sin(θ+φ) > cos θ fur θ ∈ (π
4− φ
2, π2). Also
erhalten wir aus Symmetriegrunden
IIP[X > u, Y > u] =1
π
∫ π/2
π/4−φ/2IIP[R cosϑ > u] dϑ .
Fur den Flankenindex erhalten wir dann
to = tu = limu→∞
∫ π/2π/4−φ/2(1− FR(u/ cosϑ)) dϑ∫ π/2
0(1− FR(u/ cosϑ)) dϑ
,
wobei FR(r) die Verteilungsfunktion des Radiusses der zugrundeliegenden sphari-
schen Verteilung bezeichnet.
Beispiel 10.28. Bei der bivariaten t-Verteilung hat R die Dichte
fR(r) =r
(1 + r2/ν)1+ν/2.
Damit ist FR(r) = 1−(1+r2/ν)−ν/2 regular variierend mit Index −ν. Damit erhalten
wir
to = tu = limu→∞
∫ π/2π/4−φ/2(1− FR(u/ cosϑ)) dϑ∫ π/2
0(1− FR(u/ cosϑ)) dϑ
= limu→∞
∫ π/2π/4−φ/2
1−FR(u/ cosϑ)1−FR(u)
dϑ∫ π/20
1−FR(u/ cosϑ)1−FR(u)
dϑ
=
∫ π/2π/4−φ/2(cosϑ)ν dϑ∫ π/2
0(cosϑ)ν dϑ
=2Γ(1 + ν/2)
∫ π/2π/4−φ/2(cosϑ)ν dϑ
√π Γ((1 + ν)/2)
.
202 10. COPULAS
�
10.5. Archimedische Copulas
Sei φ : [0, 1] → [0,∞] eine stetige streng fallende Funktion mit φ(1) = 0. Wir
erweitern die Inverse, indem wir φ−1(t) = 0 setzen, falls t > φ(0). Die Inverse ist
dann stetig und fallend auf [0,∞), und φ−1(φ(u)) = u. Ist t < φ(0), so ist auch
φ(φ−1(t)) = t. Wir definieren nun eine Funktion
C : [0, 1]d → [0, 1] , u 7→ φ−1( d∑k=1
φ(uk)). (10.2)
Setzen wir uk = 0, dann ist∑d
k=1 φ(uk) ≥ φ(0), und daher C(0) = 0. Setzen wir
u` = 1 fur ` 6= k, so ist∑d
`=1 φ(u`) = φ(uk), und damit C(u) = uk. Wenn es sich bei
der Funktion C und eine Verteilungsfunktion handelt, dann ist C eine Copula.
Definition 10.29. Eine Verteilungsfunktion C von der Form (10.2) heisst archi-
medische Copula, und φ heisst Generator der Copula. Ist φ(0) = ∞, so heisst
φ strikter Generator und C heisst strikte Copula.
Betrachten wir zuerst den Fall d = 2.
Hilfssatz 10.30. Fur d = 2 ist (10.2) genau dann eine Copula, falls φ konvex ist.
Beweis. C ist genau dann eine Copula, wenn
C(b1, b2)− C(b1, a2)− C(a1, b2) + C(a1, a2) ≥ 0 ,
also
φ−1(φ(a1) + φ(a2))− φ−1(φ(b1) + φ(a2)) ≥ φ−1(φ(a1) + φ(b2))− φ−1(φ(b1) + φ(b2)) .
Wir bemerken, dass φ(a1) ≥ φ(b1) und φ(a2) ≥ φ(b2). Somit ist C eine Copula,
genau dann, wenn
φ−1(x)− φ−1(x+ z) ≥ φ−1(y)− φ−1(y + z)
fur alle 0 ≤ x ≤ y ≤ y + z. Letzere Bedingung gilt fur eine fallende Funktion φ−1
genau dann, wenn φ−1 konvex ist. Die Funktion φ−1 ist genau dann konvex, wenn φ
konvex ist. �
10. COPULAS 203
Ist d > 2, so brauchen wir starkere Bedingungen.
Satz 10.31. Nehmen wir an, φ sei d Mal differenzierbar. Dann ist C genau dann
eine Copula, falls (−1)k(φ−1)(k)(x) ≥ 0 fur alle x ∈ [0, 1] und k ≤ d.
Beweis. Ist φ d Mal differenzierbar, so ist auch φ−1 d Mal differenzierbar. Dann
hat C (formal) eine Dichte,(φ−1( d∑k=1
φ(uk)))(d) d∏
k=1
φ′(uk) ≥ 0 .
Die k-dimensionale Randverteilung ist
φ−1( k∑`=1
φ(u`)),
und hat die (formale) Dichte(φ−1( k∑`=1
φ(u`)))(k) k∏
`=1
φ′(u`) ≥ 0 .
Da φ fallend ist, ist φ′(u`) ≤ 0. Ist (−1)k(φ−1)(k)(x) ≥ 0, so sind die Dichten positiv
fur alle Randverteilungen. Insbesondere ist C eine Verteilung und alle Randver-
teilungen sind uniform. Ist C eine Verteilung, dann mussen die Randverteilungen
positive Dichten haben, und es folgt, dass (−1)k(φ−1)(k)(x) ≥ 0. �
Eine besondere Klasse von Copulas sind Archimedische Copulas erzeugt durch
eine unendlich oft differenzierbare Funktion φ mit (−1)k(φ−1)(k)(x) ≥ 0 fur alle
k ≥ 0. Damit lassen sich archimedische Copulas in allen Dimensionen erzeugen.
Korollar 10.32. Sei Y eine echt positive Zufallsvariable. Sei `(s) = IIE[e−sY ] die
Laplace–Stieltjes-Transformierte von Y . Dann ist φ(x) = `−1(x) der strikte Genera-
tor einer Copula fur alle d ≥ 2.
Beweis. Da `(s) strikt fallend ist, `(0) = 1, `(s) > 0 und lims→∞ `(s) = 0, ist φ
ein strikter Generator. Weiter ist (−1)k`(k)(s) = IIE[Y ke−sY ] > 0 fur s > 0. Somit ist
φ ein Generator einer Copula. �
Bemerkung. `(s) ist genau dann die Laplace–Stieltjes-Transformierte einer echt
positiven Variable Y , falls (−1)k`(k)(x) ≥ 0 fur alle k ≥ 0. Somit ist das Korrolar
im wesentlichen die Umkehrung von Satz 10.31. �
204 10. COPULAS
Abbildung 10.2: Gumbel-, Clayton- und Frank-Copula
Beispiel 10.33.
• Gumbel-Copula Setzen wir φ(t) = (− log t)θ fur θ ∈ [1,∞), so ist φ−1(x) =
exp{−x1/θ}. Dies ist die Laplace-Transformierte einer stabilen Verteilung (siehe
Satz 9.36), und damit ist C eine strikte Copula ist. Die Copula wird dann
exp{−[(− log x1)θ + (− log x2)
θ + · · ·+ (− log xd)θ]1/θ} .
Der Spezialfall θ = 1 fuhrt zur Unabhangigkeitscopula. Lassen wir θ → ∞, so
erhalten wir die Komonotonie-Copula min{x1, x2, . . . , xd}.
• Clayton-Copula Sei φ(t) = θ−1(t−θ − 1) fur θ ∈ (0,∞) und φ(t) = − log t fur
θ = 0. Dann ist φ−1(x) = (1 + θx)−1/θ fur θ 6= 0 und φ−1(x) = e−x fur θ = 0.
Fur θ > 0 ist φ−1 die Laplace-Transformierte der Γ(θ−1, θ−1) Verteilung. Damit
handelt es sich um eine Copula. Die Copula ist
[x−θ1 + x−θ2 + · · ·+ x−θd − (d− 1)]−(1/θ) .
Auch hier ist θ = 0 die Unabhangigkeitscopula und die Copula konvergiert gegen
die Komonotonie-Copula fur θ →∞.
• Frank-Copula Setzen wir φ(t) = − log(1−e−θt
1−e−θ ) fur θ > 0 und φ(t) = − log t fur
θ = 0. Dann ist φ−1(x) = −θ−1 log[1− (1− e−θ)e−x] fur θ > 0 und φ−1(x) = e−x
fur θ = 0. Hier ist φ−1 die Laplace-Transformierte der logarithmischen Verteilung
IIP[Y = n] = θ−1(1 − e−θ)n/n fur n ≥ 1. Somit handelt es sich um eine strikte
Copula. Die Copula wird
−θ−1 log[1− (1− e−θ)−(d−1)
d∏k=1
(1− e−θxk)].
Auch hier ist θ = 0 die Unabhangigkeitscopula.
10. COPULAS 205
�
Wir berechnen nun die Abhangigkeitsmasse.
Proposition 10.34. Sei C(u, v) eine archimedische Copula mit Generator φ(t).
Dann erhalten wir fur Kendalls Tau
ρτ (X1, X2) = 1 + 4
∫ 1
0
φ(t)
φ′(t)dt .
Beweis. Wir haben (Hilfssatz 10.12)
ρτ (X1, X2) = 4IIE[C(X1, X2)]− 1 = 4
∫ 1
0
IIP[C(X1, X2) > t] dt− 1
= 3− 4
∫ 1
0
IIP[C(X1, X2) ≤ t] dt .
Wir haben {C(X1, X2) ≤ t} = {φ(X1) +φ(X2) ≥ φ(t)}. Die gemeinsame Verteilung
des Vektors (φ(X1), φ(X2)) ist gegeben durch
IIP[φ(X1) ≥ a, φ(X2) ≥ b] = IIP[X1 ≤ φ−1(a), X2 ≤ φ−1(b)]
= φ−1(φ(φ−1(a)) + φ(φ−1(b))) = φ−1(a+ b) .
Also ist
IIP[φ(X2) > b | φ(X1) = a] =(φ−1)′(a+ b)
(φ−1)′(a),
da als konvexe Funktion φ−1 fast uberall differenzierbar ist. Wir erhalten
IIP[C(X1, X2) ≤ t] = IIP[φ(X1) > φ(t)]−∫ φ(t)
0
(φ−1)′(a+ φ(t)− a)
(φ−1)′(a)(φ−1)′(a) da
= φ−1(φ(t))− φ(t)(φ−1)′(φ(t)) = t− φ(t)
φ′(t).
Einsetzen gibt
ρτ (X1, X2) = 3− 4
∫ 1
0
(t− φ(t)
φ′(t)
)dt = 1 + 4
∫ 1
0
φ(t)
φ′(t)dt .
�
206 10. COPULAS
Beispiel 10.33 (Fortsetzung).
• Gumbel-Copula Wir erhalten∫ 1
0
φ(t)
φ′(t)dt =
∫ 1
0
θ−1t log t dt = −θ−1∫ ∞0
ze−2z dz = − 1
4θ.
Dies gibt ρτ = 1− θ−1. Somit wachst die Abhangigkeit mit θ.
• Clayton-Copula Wir berechnen∫ 1
0
φ(t)
φ′(t)dt = −θ−1
∫ 1
0
(t− tθ+1) dt =1
θ(θ + 2)− 1
2θ.
Kendalls Tau ist also 1+ 4θ(θ+2)
− 2θ
= 1− 2θ+2
. Auch hier wachst die Abhangigkeit
mit θ.
�
Proposition 10.35. Sei C(u, v) eine archimedische Copula mit Generator φ(t).
Dann erhalten wir fur Spearmans Rho
ρρ(X, Y ) = 12
∫ φ(0)
0
∫ φ(0)
0
φ−1(a+ b)
φ′(φ−1(a))φ′(φ−1(b))db da− 3 .
Beweis. Es folgt∫ 1
0
∫ 1
0
C(u, v) dv du =
∫ 1
0
∫ 1
0
φ−1(φ(u) + φ(v)) dv du
=
∫ φ(0)
0
∫ φ(0)
0
φ−1(a+ b)db
φ′(φ−1(b))
da
φ′(φ−1(a))
durch Substitution. �
Betrachten wir nun die Flankenabhangigkeit.
Proposition 10.36. Die Flankenindices konnen als
to = 2− limx→0
1− φ−1(2x)
1− φ−1(x)
und falls φ(0) =∞
tu = limx→∞
φ−1(2x)
φ−1(x)
berechnet werden. Ist φ(0) <∞, so ist tu = 0.
10. COPULAS 207
Beweis. Wir haben IIP[X > u, Y > u] = 1− 2u+ φ−1(2φ(u)). Wir benotigen also
den Grenzwert
limu→1
1− 2u+ φ−1(2φ(u))
1− u= 2− lim
u→1
1− φ−1(2φ(u))
1− φ−1(φ(u))= 2− lim
x→0
1− φ−1(2x)
1− φ−1(x).
Fur den unteren Flankenindex bemerken wir zuerst, dass φ−1(2φ(u)) = 0 fur
φ(u) > φ(0)/2. Ist φ(0) < ∞, so ist also tu = 0. Wir nehmen daher φ(0) = ∞ an.
Es gilt dann
limu→0
φ−1(2φ(u))
u= lim
x→∞
φ−1(2x)
φ−1(x).
�
Beispiel 10.33 (Fortsetzung).
• Gumbel-Copula Fur die Gumbel-Copula erhalten wir
to = 2− limx→0
1− exp{−(2x)1/θ}1− exp{−x1/θ}
= 2− limx→0
21/θx1/θ−1 exp{−(2x)1/θ}x1/θ−1 exp{−x1/θ}
= 2− 21/θ .
Die obere Flankenabhangigkeit wachst also zum Wert 1 fur θ →∞.
Der untere Flankenabhangigkeitsindex ist
tu = limx→∞
exp{−(2x)1/θ + x1/θ} = limx→∞
exp{−x1/θ(21/θ − 1)} = 0 .
Die Variablen sind also in der unteren Flanke nicht abhangig.
• Clayton-Copula Wir erhalten
to = 2− limx→0
1− (1 + 2θx)−1/θ
1− (1 + θx)−1/θ= 2− lim
x→0
2(1 + 2θx)−1/θ−1
(1 + θx)−1/θ−1= 0 .
Somit sind die Variablen in der oberen Flanke nicht abhangig. Man bemerke,
dass man hier die Grenzwerte fur x und θ nicht vertauschen darf.
Fur die untere Flanke erhalten wir
tu = limx→∞
( 1 + θx
1 + 2θx
)1/θ= 2−1/θ .
Die Variablen sind also in der unteren Flanke abhangig. Der Index konvergiert
nach 1 fur θ →∞, was der Komonotonie-Copula entspricht.
208 10. COPULAS
• Frank-Copula Hier erhalten wir
to = 2− limx→0
θ + log[1− (1− e−θ)e−2x]
θ + log[1− (1− e−θ)e−x]= 2− lim
x→0
2[1− (1− e−θ)e−x]e−2x
[1− (1− e−θ)e−2x]e−x= 0 .
Auch die Frank-Copula hat keine Abhangigkeit in den oberen Flanken.
Es gilt
tu = limx→∞
log[1− (1− e−θ)e−2x]
log[1− (1− e−θ)e−x]= lim
x→∞
2[1− (1− e−θ)e−x]e−2x
[1− (1− e−θ)e−2x]e−x= 0 .
Die Frank-Copula hat somit keine Abhangigkeit in den Flanken.
�