the stochastic integral
TRANSCRIPT
UNIVERSIDAD NACIONAL DE TRUJILLO
FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS
ESCUELA ACADEMICO PROFESIONAL DE MATEMATICAS
LA INTEGRAL ESTOCASTICA DE ITO Y ALGUNAS
APLICACIONES AL CAMPO DE LAS FINANZAS
Trabajo de Tesis
Para Optar el Tıtulo Profesional de Licenciado en Matematicas
Autor:
Br. Dennis Nicanor Quispe Sanchez
Asesor:
Dr. Obidio Rubio Mercedes
Trujillo - Peru
2012
ii
Presentacion
Senores miembros del jurado:
En cumplimiento a lo dispuesto por el reglamento de la Universidad Nacional de
Trujillo, para optar el tıtulo de Licenciado en Matematicas, pongo a su disposicion el
presente trabajo titulado LA INTEGRAL ESTOCASTICA DE ITO Y ALGUNAS
APLICACIONES AL CAMPO DE LAS FINANZAS, para que con su aprobacion
haga realidad mi deseada meta.
Con la consideracion de que este trabajo pueda estar incompleto, acepto hones-
tamente todas sus apreciaciones y sugerencias que tengan a bien formular, lo cual
me servira para mejorarlo en el futuro.
Trujillo, Agosto del 2012
El Autor
iii
iv
Introduccion.
En 1944, durante la segunda guerra mundial, el matematico japones Kiyosi Ito
publico su artıculo llamado Integral Estocastica ([3]) en las actas de la Universidad
Imperial de Tokyo. Es ası como empezo la historia del calculo estocastico de Ito, la
contraparte del calculo determinıstico de Newton-Leibniz para funciones aleatorias.
Desde entonces el calculo estocastico de Ito es una de las herramientas mas utiles
en las matematicas financieras modernas, sobre el cual descansa practicamente to-
da la teorıa economica y el analisis financiero en tiempo continuo y en ambientes
estocasticos.
El objetivo principal de este trabajo es definir un tipo de integral estocastica de un
proceso estocastico f(t, w) con respecto a un movimiento Browniano W (t, w) ([2])
I(f) =
T∫0
f(t, w)dW (t, w) (1)
siguiendo las ideas presentadas por Ito en su artıculo de 1944. Ademas mostrar algu-
nas aplicaciones de integracion estocastica en diversas areas de las finanzas ([7],[8]).
Para lograr estos objetivos se ha dividido el trabajo en cuatro capıtulos:
En el primer capıtulo enunciamos algunas definiciones, notaciones y resultados en
teorıa de probabilidad y procesos estocasticos que usamos en la exposicion de los
temas centrales del trabajo.
Un proceso estocastico es un modelo matematico del comportamiento en el tiempo
de un fenomeno aleatorio. La aleatoriedad del fenomeno se captura a traves de un
espacio de probabilidad (Ω,F ,P). En este contexto, un proceso estocastico X(t, w)
es un conjunto de variables aleatorias definidas sobre Ω con valores en R.
v
vi
Para cada w ∈ Ω fijo, X(., w) es una funcion medible (llamada funcion muestral del
proceso X(t, w)).
Frecuentemente, cuando se trabaja con procesos estocasticos, es necesario especi-
ficar el tipo de informacion que esta disponible en cada punto en el tiempo. Por
ejemplo, si se quiere calcular la esperanza matematica, condicional a la informacion
disponible, de valores futuros de un proceso, entonces es necesario especificar de ma
nera precisa la informacion que se utiliza en los calculos. Usualmente, en los modelos
financieros se requiere que los precios, presente y pasados, de los activos financieros
sean conocidos para producir un pronostico. Esta idea es formalizada en el concepto
de filtracion. Una filtracion es una familia F = Ft; t ≥ 0 de σ-algebras monotona
creciente en t. Una filtracion puede ser pensada como una estructura de informacion
dinamica, donde Ft representa la informacion relevante disponible hasta el tiempo
t.
En el segundo capıtulo, definimos la integral estocastica (1), donde el integrando
f(t, w) es un proceso estocastico adaptado a la filtracion F, esto significa que el
valor que tome f(t) depende solamente de la informacion disponible al tiempo t, y
ademas en general sus funciones muestrales son no diferenciables con probabilidad
uno.
El integrador W (t, w) es un movimiento Browniano, el cual es un proceso estocasti-
co con funciones muestrales continuas, no diferenciables y de variacion infinita con
probabilidad uno.
La naturaleza compleja del movimiento Browniano nos obliga a plantear el problema
de integracion estocastica de una forma diferente que en el caso determinıstico.
Para ello definimos el espacio de procesos estocasticos f(t, w) adaptados a la fil-
tracion F que satisfacen la condicion de integrabilidad:
T∫0
E(|f(t, w)|2)dt <∞
el cual lo denotamos como L2ad([0, T ] × Ω) y E al espacio de procesos estocasticos
en L2ad([0, T ]× Ω) que son escalonados.
vii
Primero definimos la integral estocastica de Ito en el espacio E , se muestra la den-
sidad de este espacio en L2ad([0, T ]×Ω), para luego definir la integral estocastica de
Ito en el espacio L2ad([0, T ]×Ω) como el lımite en media cuadratica de una sucesion
de Cauchy de variables aleatorias en L2(Ω).
En el capıtulo 3, extendemos la definicion de la integral estocastica de Ito a un es-
pacio mas amplio de integrandos.
Definimos el espacio Lad(Ω, L2[0, T ]) de procesos estocasticos adaptados a F que
satisfacen la siguiente condicion
P
[w ∈ Ω :
T∫0
|f(t, w)|2dt <∞
]= 1
Para cada f en Lad(Ω, L2[0, T ]) se prueba que existe una sucesion (fn)n≥1 de ele-
mentos en E tales que
lımn→∞
T∫0
|fn(t)− f(t)|2dt = 0 en probabilidad
para luego definir la integral estocastica de Ito del proceso estocastico f(t, w) como
el lımite en probabilidad de la sucesion de variables aleatorias (I(fn))n≥1.
Al final de este capıtulo se demuestra la version estocastica de la regla de la cadena
determinıstica, la formula de Ito.
En el ultimo capıtulo de este trabajo, mostramos algunas aplicaciones de integracion
estocastica en la formulacion y solucion de algunos modelos matematicos que surgen
en diversas areas de las finanzas. Para finalmente dar las conclusiones del presente
trabajo con su respectiva bibliografıa.
El Autor
viii
Indice general
Presentacion II
Introduccion IV
1. Preliminares 1
1.1. Variables aleatorias y leyes de probabilidad . . . . . . . . . . . . . . . 1
1.2. Procesos estocasticos . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3. Descripcion de la ley de probabilidad de un proceso estocastico . . . . 10
1.4. El movimiento Browniano o proceso de Wiener . . . . . . . . . . . . . 13
2. La Integral Estocastica de Ito 21
2.1. Motivacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Filtraciones para un movimiento Browniano . . . . . . . . . . . . . . 25
2.3. Integral Estocastica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.1. Los espacios L2ad([0, T ]× Ω) y E . . . . . . . . . . . . . . . . . 27
2.3.2. Definicion de la integral estocastica en E y sus propiedades . . 28
2.3.3. El espacio E es denso en L2ad([0, T ]× Ω) . . . . . . . . . . . . 30
2.3.4. Definicion de la integral estocastica de Ito en el espacio L2ad([0, T ]×
Ω) y sus propieades . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.5. Procesos estocasticos definidos por integrales de Ito . . . . . . 43
3. Extension de la Integral Estocastica y la Formula de Ito 51
3.1. Un espacio mas amplio de integrandos . . . . . . . . . . . . . . . . . 51
ix
x INDICE GENERAL
3.2. Lema de aproximacion . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3. Definicion de la integral estocastica de Ito en el espacio Lad(Ω, L2[0, T ]) 56
3.4. La formula de Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4. Aplicaciones de la Integral Estocastica 71
4.1. Motivacion: Ecuaciones Diferenciales Estocasticas . . . . . . . . . . . 71
4.2. Aplicaciones de la formula de Ito . . . . . . . . . . . . . . . . . . . . 74
4.3. La ecuacion diferencial parcial de Black, Merton y Scholes . . . . . . 83
Conclusiones 86
Bibliografıa 88
Capıtulo 1
Preliminares
En este capıtulo, se presenta la teorıa necesaria para desarrollar el tema y alcan-
zar los objetivos planteados en el proyecto de tesis, se presentan algunos resultados
de teorıa de probabilidad y procesos estocasticos, nos enfocamos en un proceso
estocastico en especial, el Proceso de Wiener o tambien llamado Movimiento Brow-
niano.
1.1. Variables aleatorias y leyes de probabilidad
Para dar la definicion formal de variable aleatoria tenemos que dar la nocion de
espacio muestral, eventos y funcion de probabilidad.
Definicion 1.1 Se denomina espacio muestral y se denota por Ω, al conjunto que
consiste de todos los posibles resultados o estados de la naturaleza, de un experimento
aleatorio. A cada elemento del espacio muestral se le denomina punto muestral.
Definicion 1.2 Se denomina evento a cualquier subconjunto del espacio muestral
Ω. Se dice que ocurre un evento E, si contiene por lo menos un punto muestral.
Observacion: Se ha de tener en cuenta que por razones tecnicas, normalmente no
se permite que todos los subconjuntos de Ω sean eventos. En lugar de ello se traba-
jara con una familia F de subconjuntos de Ω que tenga las siguientes propiedades:
1
2 1.1. Variables aleatorias y leyes de probabilidad
1. Ω ∈ F .
2. E ∈ F ⇒ Ec ∈ F .
3. Si Ei ∈ F ,∀i = 1, 2, . . . , entonces∞⋃i=1
Ei ∈ F .
Esta familia toma el nombre de σ−algebra.
Para el desarrollo de la teorıa matematica de probabilidades a menudo basta tomar
como familia de eventos la familia mas pequena de subconjuntos de Ω que poseen
propiedades 1 - 3 y ademas contengan todos los subconjuntos que esperamos nos
interesan.
Definicion 1.3 Suponga que un espacio muestral Ω esta asociado a un experi-
mento aleatorio y F una familia de eventos aleatorios. La funcion de probabilidad
P[·] es una aplicacion:
P : F → [0, 1]
tal que:
1. P[E] ≥ 0,∀E ∈ F .
2. P(Ω) = 1.
3. Si Ei ∈ F ,∀i = 1, 2, . . . , Ei ∩ Ej = ∅, i 6= j entonces P
(∞⋃i=1
Ei
)=∞∑i=1
P(Ei).
En la teorıa aplicada de las probabilidades, no se emplean explıcitamente los espa-
cios muestrales. En vez de ello, se tratan la mayor parte de problemas en funcion de
variables aleatorias.
Se dice que E es un conjunto de Borel, si E puede obtenerse mediante un numero de
operaciones numerable, partiendo de un conjunto abierto, cada operacion consiste
en tomar uniones, intersecciones o complementos.
La familia B = B/B es Borel, es llamada σ-algebra de Borel. Ademas B es la
menor σ-algebra que contiene a todos los abiertos.
1. Preliminares 3
Definicion 1.4 X es una variable aleatoria si:
1. X : Ω → R. Es una funcion de valor real definida en el espacio muestral
de representacion Ω en cuya familia F de eventos se ha definido la funcion
probabilidad P[·].
2. ω/X(ω) ∈ B ∈ F , donde B ∈ B.
Definicion 1.5 La funcion de probabilidad de una variable aleatoria X es una
aplicacion:
PX : B −→ [0, 1]
B 7−→ PX [B] = P[ω/X(ω) ∈ B].
Definicion 1.6 Las Variables Aleatorias X e Y estan distribuidas identicamente
si
PX [B] = PY [B], ∀B ∈ B
Definicion 1.7 La funcion distribucion de la Variable X esta definida por
FX : R −→ [0, 1]
x 7−→ FX(x) = P[X ≤ x].
Observacion:
1.
FX(x) = P [X ≤ x] = P [X ∈ 〈−∞, x]]
= P [ω/X(ω) ∈ 〈−∞, x]]
= PX [〈−∞, x]]
= P[X−1 〈−∞, x]
].
2. FX es no decreciente, FX(−∞) = 0 y FX(+∞) = 1.
4 1.1. Variables aleatorias y leyes de probabilidad
Definicion 1.8 Una variable aleatoria X es continua si existe una funcion lla-
mada de densidad de probabilidad de X y representada por fX(·), en funcion de la
cual se pueda representar PX [·] como una integral, para cualquier conjunto de Borel
B:
PX [B] = P[X ∈ B] =
∫B
fX(x)dx.
Observacion:
Ya que
FX(x) =
x∫−∞
fX(t)dt ; −∞ < t < x.
Se deduce que :
fX(x) =d
dxFX(x).
Para todo x en los que exista la derivada.
Definicion 1.9 La variable aleatoria X tiene distribucion normal o Gaussiana
de parametros m y σ, si su funcion densidad es dada por
f(x) =1√
2πσ2e−
(x−m)2
2σ2 .
Definicion 1.10 El valor esperado de una variable aleatoria X representado por
E[X], se define (cuando existe) mediante:
E[X] =
∞∫−∞
xdFX(x) =
∞∫−∞
xfX(x)dx.
siempre que existan las integrales.
Definicion 1.11 La Varianza de X se define mediante:
V ar [X] = E[(X − E [X])2] .
Definicion 1.12 La desviacion tıpica de una variable aleatoria X se define me-
diante:
σ[X] =√V ar[X].
1. Preliminares 5
Definicion 1.13 Las variables aleatorias X1, . . . , Xn estan distribuidas conjun-
tamente si estan definidas como funciones en el mismo espacio muestral de repre-
sentacion.
Su funcion conjunta de distribucion es:
FX1,X2,...,Xn(x1, x2, . . . , xn) = P [X1 ≤ x1, . . . , Xn ≤ xn]
. = P [ω : X1(ω) ≤ x1, . . . , Xn(ω) ≤ xn] .
Definicion 1.14 Las variables aleatorias distribuidas conjuntamente X1, . . . , Xn
son independientes si y solo si es cierto uno de los enunciados equivalentes que se
indican acontinuacion:
1. Criterio en funcion de las funciones de distribucion
∀B1, . . . , Bn conjuntos de Borel,
P [X1 ∈ B1, . . . , Xn ∈ Bn] = P [X1 ∈ B1] . . .P [Xn ∈ Bn] .
2. Criterio en funcion de las funciones de distribucion
∀x1, . . . , xn ∈ R. FX1,...,Xn(x1, . . . , xn) = FX1(x1) . . . FXn(xn).
3. Criterio funcion de las esperanzas matematicas:
∀g1(·), . . . , gn(·) funciones medibles y acotadas
E [g1(x1), . . . , gn(xn)] = E [g1(x1)] . . .E [gn(xn)] .
Definicion 1.15 La variable aleatoria E [X|A ] es la esperanza condicional de X
relativa a la σ−algebra A si X ∈ L1(Ω) y
1. E [X|A ] es A - medible
2.
∫A
E [X|A ] dP =
∫A
XdP, ∀A ∈ A
6 1.1. Variables aleatorias y leyes de probabilidad
Teorema 1.1 Sean X e Y variables aleatorias en L1(Ω) y A ∈ F , una σ−alge-
bra, entonces se cumplen 1:
1. Si X ≤ Y entonces E [X|A ] ≤ E [Y |A ]
2. E [aX + bY |A ] = aE [X|A ] + bE [Y |A ]
3. Si X es A -medible entonces E [X|A ] = X
4. Si Y es A -medible y XY es integrable entonces E [XY |A ] = Y E [X|A ]
5. Si A1, A2 son σ-algebras tal que A1 ⊂ A2 son σ-algebras tal que A1 ⊂ A2,
entonces
E [E [X|A2] |A1] = E [X|A1]
6. Sea X integrable, suponer que φ es una funcion convexa sobre R y φ(X) inte-
grable, entonces φ(E [X|A ]) ≤ E [φ(X)|A ]
En teorıa de probabilidades como en analisis necesitamos usar varias clases de con-
vergencia de variables aleatorias. Tres de estas son particularmente importantes:
1. Convergencia en Probabilidad
2. Convergencia con Probabilidad uno
3. Convergencia en LP (Ω)
Definicion 1.16 La sucesion de variables aleatorias (Xn)n≥1 converge en proba
bilidad a la variable aleatoria X, si para cada ε > 0
lımn→∞
P [ω ∈ Ω/ |Xn(ω)−X(ω)| > ε] = 0
1Para demostracion ver [5]
1. Preliminares 7
NOTACION: XnP−−→ X
Definicion 1.17 La sucesion de variables aleatorias (Xn)n≥1 converge con proba
bilidad uno a la variable aleatoria X, si:
P[ω ∈ Ω/ lım
n→∞Xn(ω) = X(ω)
]= 1
NOTACION: XnP.1−−−→ X
Definicion 1.18 La sucesion de variables aleatorias (Xn)n≥1converge en media
de orden p, 0 < p <∞ a la variable X si,
lımn→∞
E[|Xn −X|P
]= 0
NOTACION:XnLp−−−→ X
Observacion: Las variables aleatorias X1, X2, . . . son independientes, si ∀n ∈ N,
las variables aleatorias X1, . . . , Xn son independientes.
Lema 1.1 Sea (Yn)n≥1 una sucesion de variables aleatorias, entonces las siguien
tes condiciones son equivalentes.2
1. YnP.1−−−→ 0
2. ∀ε > 0
lımk→∞
P
[∞⋃n=k
ω/ |Yn| ≥ ε
]= 0
Teorema 1.2 Si XnP.1−−−→ X, entonces Xn
P−−→ X
Demostracion:
Considerar Yn = Xn−X ası el problema se reduce a la discusion de la convergencia
de Yn a cero.
Puesto que YnP.1−−−→ 0 por el lema 1.1 tenemos:
lımk→∞
P
[∞⋃n=k
ω/ |Yn(ω)| ≥ ε
]= 0 (1.1)
2Para demostracion ver[5]
8 1.1. Variables aleatorias y leyes de probabilidad
pero ω : |Yk| ≥ ε ⊂∞⋃n=k
ω : |Yn(ω)| ≥ ε
entonces:
P [ω ∈ Ω : |Yk(ω)| ≥ ε] ≤ P
[∞⋃n=k
ω : |Yn(ω)| ≥ ε
]
0 ≤ lımk→∞
P [ω ∈ ω : |Yk(ω)| ≥ ε] ≤ lımk→∞
P
[∞⋃n=k
: |Yn(ω)| ≥ ε
]
Por lo tanto, por (1.1) lımk→∞
P [ω ∈ Ω : |Yk(ω)| ≥ 0] = 0.
XnP−→ X. (1.2)
Lema 1.2 (Desigualdad de Chebyshev) Si X es una variable aleatoria no
negativa, ε > 0, 0 < p <∞ entonces:3
P [X ≥ ε] ≤ E [Xp]
εp. (1.3)
Teorema 1.3 Si XnLP−−−→ X entonces Xn
P−−→ X.
Demostracion:
Sea Yn = |Xn −X|, entonces Yn es un variable aleatoria no negativa, por hipotesis
tenemos que:
lımn→∞
E [|Xn −X|p] = 0 (1.4)
ası por la desigualdad de Chebyshev (Lema 1.2) tenemos que:
P [Yn ≥ ε] ≤ E [Y pn ]
εp
P [|Xn −X| ≥ ε] ≤ E [|Xn −X|p]εp
. (1.5)
Usando (1.4) en (1.5) obtenemos:
lımn→∞
P [|Xn −X| ≥ ε] = 0. (1.6)
3Para demostracion ver[5]
1. Preliminares 9
Por lo tanto:
XnP−−→ X. (1.7)
Lema 1.3 (Borel-Cantelli) Si∞∑n=1
P(An) <∞ entonces P[
lımn→∞
supAn
]= 0.
Demostracion:
lımAn =∞⋂n=1
∞⋃m=n
Am ⊂∞⋃m=n
Am,
Ası,
0 ≤ P[
lımAn]≤ P
(∞⋃m=n
An
)≤
∞∑m=n
P [Am] < ε
Si ε→ 0 tenemos que
P[
lımn→∞
supAn
]= 0. (1.8)
Teorema 1.4 Si XnP−−→ X entonces existe una subsucesion Xkn que converge
a X con probabilidad uno, es decir, XknP.1−−−→ X.4
1.2. Procesos estocasticos
Se considera a la teorıa de probabilidad como el estudio de los modelos matematicos
de fenomenos aleatorios. Se define un fenomeno aleatorio como un fenomeno empıri-
co que obedece leyes probabilısticas, mas que determinısticas.
Un fenomeno aleatorio que surge en un proceso (por ejemplo, el movimiento Brown-
iano que consta de una partıcula de polen en el agua) que se desarrolla en el tiempo
de una manera controlada por medio de leyes probabilısticas, se denomina un pro-
ceso estocastico.
4Para demostracion ver[5]
101.3. Descripcion de la ley de probabilidad de un proceso
estocastico
El concepto de proceso estocastico es fundamental para el desarrollo de la teorıa fi-
nanciera en tiempo continuo y en ambientes de riesgo e incertidunbre. Los procesos
estocasticos son utiles para describir el comportamiento aleatorio de las variables
financieras en el tiempo como los precios de los activos, las tasas de interes, los tipos
de cambio, los ındices bursatiles,etc. A continuacion se presenta la definicion formal
de proceso estocastico en tiempo continuo.
Definicion 1.19 Un proceso estocastico es una funcion medible X : [0, T ]×Ω→
R tal que, para cada t−fijo, X(t, ·) es una variable aleatoria sobre (Ω,F) y para
cada ω fijo, X(·, ω) es una funcion medible definida sobre [0, T ] (llamada funcion
muestral del proceso).
NOTACION: Por conveniencia denotaremos a la variable aleatoria X(t, ·) como
X(t) y a un proceso estocastico como X = X(t); t ≥ 0 o X(t, ω).
1.3. Descripcion de la ley de probabilidad de un
proceso estocastico
Parece adecuado considerar que un proceso estocastico X(t, ω), se puede repre-
sentar para propositos practicos de manera conveniente mediante un cierto numero
finito de ordenadas. Por consiguiente, una manera de representar un proceso es-
tocastico X(t, ω) consiste en especificar la ley de probabilidad conjunta de las n-
variables aleatorias X(t1), . . . , X(tn) para todos los enteros n y n puntos t1, t2, . . . , tn
en [0, T ]
1. Preliminares 11
Para especificar la ley de probabilidad conjunta de las n−variables aleatorias
X(t1), . . . , X(tn), se debe especificar bien:
1. La funcion de distribucion conjunta, dada por:
F (x1, x2, . . . , xn) = P [Xt1 ≤ x1, . . . , Xtn ≤ xn] .
Ejemplos:
1. La sucesion de sumas consecutivas Sn = X1 + X2 + . . . + Xn de variables
aleatorias independientes Xn constituye un proceso estocastico. (Parametro
discreto)
2. Considerese el proceso estocastico de parametro continuo X(t, ω) definido por:
X(t, ω) = Acos(ωt) +Bsen(ωt).
donde la frecuencia ω es una constante positiva conocida y A y B son variables
aleatorias independientes distribuidas normalmente con medias 0 y varianza
σ2
Definicion 1.20 Sea X(t, ω) un proceso estocastico, entonces
Ft := σX(s); 0 ≤ s ≤ t.
Es la σ−algebra generada por las variables aleatorias X(s) para 0 ≤ s ≤ t, llamada
la historia del proceso hasta el instante t ≥ 0.
Muy frecuentemente cuando se trabaja con procesos estocasticos, es necesario es-
pecificar el tipo de informacion que esta disponible en cada punto en el tiempo.
Usualmente en los modelos financieros se requiere que los precios presentes y pasa-
dos de las variables economicas sean conocidos para dar un pronostico acertado.
Esta idea es formalizada con el concepto de filtracion.
121.3. Descripcion de la ley de probabilidad de un proceso
estocastico
Definicion 1.21 Una familia F = Ft; 0 ≤ t ≤ T de sub-σ−algebras de F , la
cual es monotona creciente en t, es llamada una filtracion. Un proceso estocastico
X = X(t); 0 ≤ t ≤ T, es adaptado a F, si para cada t, la variable aleatoria X(t)
es Ft−medible
Definicion 1.22 Sea X = X(t); 0 ≤ t ≤ T un proceso estocastico adaptado
a la filtracion F = Ft; 0 ≤ t ≤ T y E[|X(t)|] < ∞ para todo t ∈ [0, T ], entonces
X = X(t); 0 ≤ t ≤ T es llamado un martingala con respecto a F, si para cualquier
s ≤ t en [0, T ] se cumple:
E[X(t) | Fs] = X(s). casi seguro
En el caso de que la filtracion no sea especificada, entonces la filtracion F = Ft; 0 ≤
t ≤ T es entendida como la generada por las variables aleatorias X(s), s ≤ t, es
decir:
Ft = σX(s); s ≤ t
El concepto de martingala es una generalizacion de la sucesion de sumas parciales a
partir de una sucesion Xnn≥1 de variables aleatorias independientes identivamente
distribuidas con medida cero. Sea Sn = X1 + ... + Xn entonces la sucesion Snn≥1
es un martingala.
Martingalas son importantes en teorıa de la probabilidad principalmente porque
ellas admiten las siguientes poderosas estimativas.
Teorema 1.5 Sea X = X(t); 0 ≤ t ≤ T un proceso estocastico con caminos
muestrales continuos casi seguro,5
i) Si X(t); 0 ≤ t ≤ T es un martingala, entonces
P[w ∈ Ω : max
0≤t≤T|X(t)| ≥ λ
]≤ 1
λE[|X(T )|
], para todo λ > 0
5Para demostracion ver[4]
1. Preliminares 13
ii) Si 1 < p <∞ entonces
E[
max0≤t≤T
|X(t)|p]≤(
p
p− 1
)pE[|X(T )|p
]
1.4. El movimiento Browniano o proceso de Wiener
El movimiento Browniano fue observado fısicamente por el medico y botanista
frances Robert Brown (1928), quien noto que cuando el polen es dispersado en el
agua las patıculas supendidas realizan un camino aleatorio en tres dimensiones.
Este fenomeno fue estudiado por Albert Einstein (1905), quien dio una teorıa ele
gante en una serie de trabajos donde describe el movimiento de las partıculas
suspendidas bajo la accion de una fuerza fluctuante, el escribe un artıculo sobre
mecanica estadıstica que proporciona la formulacion matematica del movimiento
Browniano.
Louis Bachelier uso el movimiento Browniano como un modelo del precio de ac-
ciones en la Bolsa de Francia (1900) en su tesis doctoral “teorıa de la especulacion”.
Pero fue Norbert Wiener (1923) el primer matematico que dio la primera construc-
cion rigurosa del movimiento Browniano. En esta seccion definiremos un movimiento
Browniano y desarrollaremos sus propiedades basicas. Para nosotros, las propiedades
mas importantes del movimiento son la de ser un martingala y que este acumula
variacion cuadratica a razon de uno por unidad de tiempo. Este hace el calculo
estocastico de Ito diferente del calculo de Newton - Leibniz.
Definicion 1.23 Un proceso estocastico W (t, w) es un movimiento Browniano
estandar si satisface las siguientes condiciones:
14 1.4. El movimiento Browniano o proceso de Wiener
i) P[w ∈ Ω : W (0, ω) = 0] = 1
ii) Para cualquier 0 ≤ s < t, la variable aleatoria W (t) −W (s) es normalmente
distribuida con media cero y varianza t− s, es decir, para cualquier a < b,
P[w ∈ Ω : a ≤ W (t)−W (s) ≤ b] =1√
2π(t− s)
b∫a
e−x2
2(t−s)dx
iii) W (t, w) tiene incrementos independientes, es decir, para cualquier 0 ≤ t1 <
t2 < ... < tn las variables aleatorias
W (t1),W (t2)−W (t1), ...,W (tn)−W (tn−1)
son independientes.
Teorema 1.6 Sea X(t); 0 ≤ t ≤ T un proceso estocastico y asumir que existen
constantes α, β, C > 0 que satisfacen la desigualdad.
E[|X(t)−X(s)|β
]≤ C|t− s|1+α , para todo 0 ≤ t, s ≤ T
Entonces X(t); 0 ≤ t ≤ T tiene funciones muestrales continuas con probabilidad
uno.6
Ası puesto que E[|W (t)−W (s)|4
]= 3|t−s|2 entonces el movimiento Browniano
satisface las condiciones del teorema con β = 4, α = 1 y C = 3.
6Para demostracion ver[2]
1. Preliminares 15
Lema 1.4 Suponer que W (t, w) es un movimiento Browniano estandar. En-
tonces
E[W (t)W (s)] = mınt, s para t ≥ 0, s ≥ 0
Demostracion: Asumir t ≥ s ≥ 0. Entonces
E[W (t)W (s)] = E[(W (s) +W (t)−W (s))W (s)]
= E[W (s)2] + E[(W (t)−W (s))W (s)]
= s+ E[W (t)−W (s)]E[W (s)]
= s
= mınt, s.
Si X(t, w) es cualquier proceso estocastico con E[X(t)2] < ∞, para todo t ≥ 0
definimos:
r(t, s) := E[X(t)X(s)] , t, s ≥ 0
llamada la funcion autocorrelacion de X(t, w).
Si r(t, s) = f(t − s) para alguna funcion de valor real f y E[X(t)] = E[X(s)], para
todo t, s ≥ 0 entonces X(t, w) es un proceso estocastico estacionario debil.
Definicion 1.24 Un ruido blanco ξ(t); 0 ≤ t ≤ T, es definido como un proceso
estocastico generalizado, gaussiano y estacionario debil con media E[ξ(t)] = 0 y
funcion autocorrelacion E[ξ(t)ξ(s)] = δ0(t − s). Donde δ0 es la funcion delta de
Dirac en 0.
16 1.4. El movimiento Browniano o proceso de Wiener
Teorema 1.7 (Existencia de un movimiento Browniano) Sea (Ω,F ,P) un espa-
cio de probabilidad sobre el cual son definidas una sucesion de variables aleatorias
independientes An normalmente distribuidas con media cero y varianza uno. En-
tonces existe un movimiento Browniano W (t, w) definido para w ∈ Ω y t ≥ 0.7
Ahora mostraremos que para casi todo ω, la funcion muestral t 7−→ W (t, ω) es
uniformemente Holder continua con exponente γ < 12, pero no es Holder continua
para cualquier exponente γ > 12. En particular t 7−→ W (t, ω) es no diferenciable y
de variacion no acotada en cada subintervalo de tiempo casi seguro.
Definicion 1.25 i) Sea 0 < γ ≤ 1. Una funcion f : [0, T ] −→ R es llamada
uniformemente Holder continua con exponente γ > 0 si existe una constante
k tal que
|f(t)− f(s)| ≤ k|t− s|γ para todo s, t ∈ [0, T ]
ii) Decimos que f es Holder continua con exponente γ > 0 en el punto s, si existe
una constante k tal que
|f(t)− f(s)| ≤ k|t− s|γ para todo t ∈ [0, T ]
Teorema 1.8 Sea X(t, w) un proceso estocastico con funciones muestrales con-
tinuas casi seguro, tal que:
E[|X(t)−X(s)|β
]≤ C|t− s|1+α
para constantes β, α > 0, C ≥ 0 y para todo 0 ≤ t, s.
Entonces para cada 0 < γ < αβ, T > 0 y casi todo ω, existe una constante k =
k(w, γ, T ) tal que:
|X(t, ω)−X(s, ω)| ≤ k|t− s|γ para todo 0 ≤ s, t ≤ T 8
7Para demostracion ver[2]8Para demostracion ver[4]
1. Preliminares 17
Considerar un movimiento Browniano estandar. Tenemos que para todos los enteros
m = 1, 2, ...
E[|W (t)−W (s)|2m
]=
1√2πr
∫R
x2me−x2
2r dx , para r = t− s > 0
=1√2πrm∫R
y2me−y2
2 dy
(y =
x√r
)= Crm = C|t− s|m
Ası las hipotesis del teorema 1.8 son validas para β = 2m, α = m−1. Ası el proceso
estocastico W (t, ω) es Holder continuo casi seguro, con exponentes:
0 < γ <α
β=m− 1
2m=
1
2− 1
2m∀ m ∈ N
Entonces la funcion muestral t 7−→ W (t, ω) es uniformemente Holder continua sobre
[0, T ] para cada exponente 0 < γ < 12.
Teorema 1.9 i) Para cada 12< γ ≤ 1 y casi todo w la funcion muestral
t 7−→ W (t, ω) no es Holder continuo con exponente γ.
ii) En particular, para casi todo ω, la funcion muestral t 7−→ W (t, ω) es no dife
renciable y es de variacion no acotada sobre cada subintervalo.9
A continuacion probaremos dos teoremas los cuales son de gran utilidad en el sigu-
iente capıtulo.
9Para demostracion ver[4]
18 1.4. El movimiento Browniano o proceso de Wiener
Teorema 1.10 Sea W (t, w) un movimiento Browniano y Ft = σW (s); s ≤ t
entonces W (t, ω) es un martingala.
Demostracion: Para cualquier s ≤ t
E[W (t) | Fs
]= E
[W (t)−W (s) | Fs
]+ E
[W (s) | Fs
]Puesto que W (t)−W (s) es independiente de Fs tenemos que:
E[W (t)−W (s) | Fs
]= E
[W (t)−W (s)
]= 0
Por otro lado E[W (s) | Fs
]= W (s) pues W (s) es Fs−medible. Entonces
E[W (t) | Fs
]= W (s). ∀ s ≤ t
Definicion 1.26 Sea f(t) una funcion definida para 0 ≤ t ≤ T la variacion
cuadratica de f hasta el instante T es
[f, f](T ) = lım
‖P‖→0
n∑i=1
[f(ti)− f(ti−1)
]2donde P = t0, t1, . . . , tn y 0 = t0 < t1 < . . . < tn = T .
Observacion: En calculo determinıstico se trabaja con funciones que tienen derivadas
continuas, entonces su variacion cuadratica es cero. Por esta razon, no se considera
el termino variacion cuadratica en el calculo clasico de Newton - Leibniz.
Teorema 1.11 Sea P = 0 = t0 < t1 < . . . < tn = T una particion del
intervalo [0, T ]. Entonces
[W,W
](T ) = lım
‖P‖→0
n∑i=1
(W (ti)−W (ti−1)
)2= T en L2(Ω)
1. Preliminares 19
Demostracion:
Notar que T =n∑i=1
(ti − ti−1), sea
Φn =n∑i=1
[(W (ti)−W (ti−1)
)2 − (ti − ti−1)]
=n∑i=1
Xi
donde Xi =(W (ti)−W (ti−1)
)2 − (ti − ti−1). Entonces
Φ2n =
n∑i,j=1
XiXj
Para i 6= j, E[XiXj
]= 0 puesto que W (t) tiene incrementos independientes y
E[|W (t)−W (s)|2
]= |t− s|.
Por otro lado E[|W (t)−W (s)|4
]= 3|t− s|2 y ası para i = j tenemos
E[X2i
]= E
[(W (ti)−W (ti−1)
)4 − 2(ti − ti−1)(W (ti)−W (ti−1)
)2+ (ti − ti−1)2
]= 3(ti − ti−1)2 − 2(ti − ti−1)2 + (ti − ti−1)2
= 2(ti − ti−1)2
Por lo tanto, obtenemos que:
E[Φ2n
]=
n∑i=1
2(ti − ti−1)2 ≤ 2‖P‖n∑i=1
(ti − ti−1)
= 2‖P‖T −→ 0 si ‖P‖ −→ 0
esto demuestra que Φn converge a 0 en L2(Ω).
20 1.4. El movimiento Browniano o proceso de Wiener
Capıtulo 2
La Integral Estocastica de Ito
Sea W (t, w) un movimiento Browniano. En este capıtulo definimos la integral
estocastica
T∫0
f(t, w)dW (t, w) de acuerdo a la definicion dada por Kiyosi Ito en su
artıculo Integral Estocastica publicado en 1944.
Es oportuno mencionar que uno de los objetivos planteados es alcanzado con el lema
2.5, ademas los teoremas 2.2 y 2.3 son resultados de gran importancia, el primero
muestra que la integral estocastica indefinida de Ito es un martingala mientras que
el Teorema 2.3 muestra la propiedad de continuidad de la integral estocastica, dado
que esta propiedad en el calculo estocastico, no es un hecho trivial como en el analisis
real elemental.
2.1. Motivacion
La teorıa de integracion estocastica desarrollada por Kiyoso Ito estuvo motivada
en sus inicios en encontrar un metodo directo para construir procesos de difusion
como soluciones de ecuaciones diferenciales estocasticas. Pero esta puede tambien
ser motivada desde el punto de vista de martingalas. Sea W (t, w) un movimiento
Browniano entonces:
21
22 2.1. Motivacion
¿Como podemos definir la integral estocastica
T∫0
f(t, w)dW (t, w) de tal forma
que el proceso estocastico
X(t, w) =
t∫0
f(s, w)dW (s, w), 0 ≤ t ≤ T.
sea un martingala?.
Para obtener algunas ideas necesarias para responder a esta pregunta, vamos
a considerar un caso particular. Sea f(t, w) = W (t, w), ası la integral en cuestion
es
T∫0
W (t, w)dW (t, w), sea P = t0, t1, ..., tn una particion del intervalo [0, T ], Ln
y Rn las sumas de Riemann - Stieljes correspondientes a los puntos de evaluacion
τi = ti−1 y τi = ti, respectivamente, es decir:
Ln =n∑i=1
W (ti−1)(W (ti)−W (ti−1)), (2.1)
Rn =n∑i=1
W (ti)(W (ti)−W (ti−1)). (2.2)
Luego tenemos que:
Rn − Ln =n∑i=1
(W (ti)−W (ti−1))2. (2.3)
Donde el lımite lımn→∞
(Rn−Ln) es la variacion cuadratica del movimiento Browniano
W (t, w), el cual es igual a T , por el teorema 1.11.
lım‖P‖→0
(Rn − Ln) = T en L2(Ω)
Por lo tanto lım‖P‖→0
Rn 6= lım‖P‖→0
Ln, pero ¿cuales son estos lımites?.
Observar que:
Rn + Ln =n∑i=1
(W (ti)2 −W (ti−1)2) = W (tn)2 −W (t0)2 = W (T )2 (2.4)
2. La Integral Estocastica de Ito 23
Obviamente, se sigue de las ecuaciones (2.3) y (2.4) que
Rn =1
2
(W (T )2 +
n∑i=1
(W (ti)−W (ti−1))2
)Ln =
1
2
(W (T )2 −
n∑i=1
(W (ti)−W (ti−1))2
)Podemos usar el teorema 1.4.11 y tomar el lımite en L2(Ω) de Rn y Ln cuando
‖P‖ → 0
lım‖P‖→0
Rn =1
2(W (T )2 + T ). (2.5)
lım‖P‖→0
Ln =1
2(W (T )2 − T ). (2.6)
¿Cual de las ecuaciones (2.5) y (2.6) debe ser elegida como el valor de
T∫0
W (t, w)dW (t, w)?
es decir, ¿Cual de los puntos de evaluacion debe usarse para la evaluacion del inte-
grando en las sumas de Riemann-Stieltjes?
Para responder a esta pregunta, definamos los procesos estocasticos:
R(t) =1
2(W (t)2 + t) , L(t) =
1
2(W (t)2 − t)
Observar que E[R(t)] = t, por lo tanto R(t, w) no es un martingala.
Por otro lado L(t, w) es un martingala, esto puede ser verificado de la siguiente
forma:
Sea Ft = σW (s); s ≤ t luego para cualquier s ≤ t
E[L(t) | Fs
]=
1
2E[W (t) | Fs
]− t
2(2.7)
pero E[W (t)2 | Fs] = t−s+W (s)2, ası reemplazando en la ecuacion (2.7) obtenemos:
E[L(t) | Fs
]=
1
2(W (s)2 − s) = L(s) , ∀ s ≤ t
Esto muestra que L(t, w) es un martingala.
24 2.1. Motivacion
A partir de este ejemplo podemos concluir lo siguiente:
“Si queremos tener la propiedad de martingala para la aun a ser definida integral
estocastica
t∫0
f(s, w)dW (s, w), debemos elegir el punto de evaluacion τi = ti−1 de
cada subintervalo de la particion P = tini=0”.
Veamos otro ejemplo motivador:
X(t, w) =
t∫0
W (1, w)dW (s, w) , 0 ≤ t ≤ 1.
Intuitivamente esperamos que X(t, w) = W (1, w)W (t, w), pero el proceso estocasti-
co X(t, w) no es un martingala ya que E[W (1)W (t)] = mın1, t = t. La razon para
que tal integral no este definida (cuando queremos obtener martingalas) es por que
el integrando W (1, w) no es adaptado a la filtracion FWt = σW (s); s ≤ t.
Ası tenemos un importante requerimiento para el integrando:
“Si queremos tener la propiedad martingala para la aun a ser definida integral
estocastica
t∫0
f(s, w)dW (s, w), necesitamos asumir que el integrando sea adaptado
a la filtracion generada por el Movimiento Browniano FWt = σW (s); s ≤ t”.
2. La Integral Estocastica de Ito 25
2.2. Filtraciones para un movimiento Browniano
Como apuntamos en la seccion previa, la aun a ser definida integral estocasticaT∫
0
f(t, w)dW (t, w) debe tener la propiedad que cuando T es reemplazado por t el
proceso estocastico resultante, X(t, w) =
t∫0
f(s, w)dW (s, w), 0 ≤ t ≤ T sea un
martingala con respecto a la filtracion FWt = σW (s); s ≤ t.
Recordar que W (t, w) tiene incrementos independientes, esta propiedad implica que
W (t, w) es un martingala con respecto a la filtracion FWt = σW (s); s ≤ t.
En efecto la propiedad de incrementos independientes esta relacionada a la indepen-
dencia de incrementos con respecto a otra filtracion F = Ft; 0 ≤ t ≤ T segun la
siguiente proposicion.
Proposicion 2.1 Si W (t, w), es un proceso estocastico adaptado a la filtracion
F = Ft; t ≥ 0 tal que W (t)−W (s) es independiente de Fs, para cualquier s ≤ t,
entonces el proceso estocastico W (t, ω) tiene incrementos independientes con respec-
to a F.1
Ahora suponer que W (t, w) es un proceso estocastico que satisface las condiciones
(i) y (ii) en la definicion 1.23, ademas suponer que existe una filtracion F = Ft; 0 ≤
t ≤ T tal que W (t, w) satisface las hipotesis de la proposicion 2.1 es decir, W (t, w)
es adaptado a F y W (t)−W (s) es independiente de Fs para cualquier s ≤ t, entonces
por la proposicion 2.1, el proceso estocastico W (t, ω) tiene incrementos independi-
entes con respecto a F, por lo tanto W (t, w) es un movimiento Browniano de acuerdo
a la definicion 1.23.
Luego W (t, ω) es un movimento Browniano con respecto a la filtracion F = Ft; 0 ≤
t ≤ T si esta satisface condiciones (i) y (ii) en la definicion 1.23 y la hipotesis de
la proposicion 2.1 con respecto a F = Ft; 0 ≤ t ≤ T.
1Para demostracion ver[2]
26 2.2. Filtraciones para un movimiento Browniano
Ahora supongamos que W (t, w) es un movimiento Browniano con respecto a la
filtracion F = Ft; 0 ≤ t ≤ T y G = Gt; 0 ≤ t ≤ T otra filtracion tal que Ft @ Gtpara todo t ≥ 0.
En general no se cumple que W (t, w) sea un movimiento Browniano con respecto a
G = Gt; 0 ≤ t ≤ T como lo muestra el siguiente ejemplo:
Ejemplo: Sea W (t, w) un movimiento Browniano con respecto a su propia filtracion
FWt = σW (s); s ≤ t.
Considerar la filtracion G = Gt; 0 ≤ t ≤ T dada por:
Gt = la σ − algebra generada por W (1, w) y FWt , t ≥ 0
Entonces W (t, w) no es un movimiento Browniano con respecto a la filtracion G =
Gt; 0 ≤ t ≤ T .
En efecto simplemente notar que para cualquier 0 < t < 1.
E[W (1, w) | Gt] = W (1) 6= W (t)
Luego W (t, w) no en un martingala con respecto a G = Gt; 0 ≤ t ≤ T, asi se sigue
que W (t, w) no es un movimiento Browniano con respecto a G .
A partir de ahora consideramos una filtracion F con respecto a la cual W (t, w)
sea un movimiento Browniano pues queremos permitir que el integrando f(t, w)
en la aun a ser definida integral estocastica
T∫0
f(t, w)dW (t, w) pertenezca a una
clase amplia de procesos estocasticos. En particular, no se requiere que el integran-
do f(t, w) sea adaptado a la filtracion FWt ; t ≥ 0 como veremos en las secciones
posteriores.
2. La Integral Estocastica de Ito 27
2.3. Integral Estocastica
Motivados por la discusion anterior, a partir de ahora fijamos un movimiento
Browniano estandar W (t, w) sobre un espacio de probabilidad filtrado (Ω,F ,F,P)
cuya filtracion F = Ft; 0 ≤ t ≤ Tsatisface las siguientes condiciones:
a) Para cada t ∈ [0, T ], W (t) es Ft−medible.
b) Para cualquier s ≤ t, la variable aleatoria W (t)−W (s) es independiente de la
σ−algebra Fs.
2.3.1. Los espacios L2ad([0, T ]× Ω) y E
Por conveniencia, usamos L2ad([0, T ] × Ω) para denotar al espacio de todos los
procesos estocasticos f(t, w), 0 ≤ t ≤ T, w ∈ Ω, que satisfacen las siguientes
condiciones:
(1) f(t, w) es adaptado a la filtracion F = Ft; 0 ≤ t ≤ T.
(2)
T∫0
E(|f(t, w)|2)dt <∞.
En esta seccion usamos las ideas originales de Kiyosi Ito en su artıculo “Integral
Estocastica” de 1944, para definir la integral:
I(f) =
T∫0
f(t, w)dW (t, w) (2.8)
donde f ∈ L2ad([0, T ]× Ω).
28 2.3. Integral Estocastica
Dividimos la discucion en tres etapas . En la primera etapa definimos la integral
estocastica para procesos estocasticos escalonados en L2ad([0, T ]× Ω).
En la segunda etapa probamos un lema de aproximacion importante y en la tercera
etapa definimos la integral estocastica para procesos estocasticos en general en el
espacio L2ad([0, T ]× Ω).
Definicion 2.1 Un proceso estocastico f(t, w), 0 ≤ t ≤ T, w ∈ Ω es un proceso
estocastico escalonado si existe una particion P = 0 = t0 < t1 < ... < tn = T del
intervalo [0, T ] y una sucesion de variables aleatorias definidas en Ω, ξ0, ξ1, ..., ξn−1
tal que
f(t, w) =n∑i=1
ξi−1(w)1[ti−1,ti〉(t) (2.9)
donde ξi−1 es Fti−1−medible y E(ξ2
i−1) <∞ para cada i = 1, ..., n.
Ası de acuerdo a la definicion anterior, denotamos por E al espacio de todos los
procesos estocasticos en L2ad([0, T ]× Ω) que son escalonados.
2.3.2. Definicion de la integral estocastica en E y sus propiedades
Definicion 2.2 Si f ∈ E , definimos su integral estocastica en el sentido de Ito,
como:
I(f) =n∑i=1
ξi−1(W (ti)−W (ti−1)) (2.10)
Obviamente I(af + bg) = aI(f) + bI(g), para cualquier a, b ∈ R y cualquier f, g ∈
E , ası la integral de Ito para procesos en E es lineal, y es una variable aleatoria
FT−medible. Ademas tenemos el siguiente lema.
2. La Integral Estocastica de Ito 29
Lema 2.1 Sea I(f) definida por la ecuacion (2.10), entonces I(f) es una variable
aleatoria en L2(Ω) con media E(I(f)) = 0 y varianza:
E(|I(f)|2) =
T∫0
E(|f(t)|2)dt (2.11)
Demostracion: Para cada 1 ≤ i ≤ n en ecuacion (2.10)
Eξi−1(W (ti)−W (ti−1)) = EE[ξi−1(W (ti)−W (ti−1)) | Fti−1
]
= Eξi−1E[W (ti)−W (ti−1) | Fti−1
]
= Eξi−1E(W (ti)−W (ti−1))
= 0.
Entonces: E(I(f)) = 0. Ademas, tenemos
|I(f)|2 =n∑
i,j=1
ξi−1ξj−1(W (ti)−W (ti−1))(W (tj)−W (tj−1))
Notar que para i 6= j, digamos i < j
Eξi−1ξj−1(W (ti)−W (ti−1))(W (tj)−W (tj−1)) = EE[ξi−1ξj−1(W (ti)−W (ti−1))(W (tj)−
W (tj−1)) | Fj−1]
= Eξi−1ξj−1(W (ti)−W (ti−1))E[W (tj)−W (tj−1) | Ftj−1
]
= Eξi−1ξj−1(W (ti)−W (ti−1))E[W (tj)−W (tj−1)]
= 0.
(2.12)
Por otro lado para i = j tenemos:
Eξ2i−1(W (ti)−W (ti−1))2
= EE[ξ2
i−1(W (ti)−W (ti−1))2 | Fti−1]
= Eξ2i−1E[(W (ti)−W (ti−1))2 | Fti−1
]
= Eξ2i−1E[(W (ti)−W (ti−1))2]
= E
ξ2i−1(ti − ti−1)
= (ti − ti−1)E(ξ2
i−1)
(2.13)
Entonces ecuacion (2.10) sigue de las ecuaciones (2.12) y (2.13).
E(|I(f)|2) =n∑i=1
E(ξ2i−1)(ti − ti−1) =
T∫0
E(|f(t)|2)dt.
30 2.3. Integral Estocastica
2.3.3. El espacio E es denso en L2ad([0, T ]× Ω)
En esta seccion demostramos que el espacio E en denso en L2ad([0, T ]× Ω) en la
topologıa de L2ad([0, T ]×Ω), la prueba se dividira en tres pasos, primero supondremos
que el proceso estocastico f ∈ L2ad([0, T ]×Ω) es continuo y acotado con probabilidad
uno, en este caso construimos una sucesion de procesos escalonados (fn)n≥1 la cual
converge a f en la norma de L2ad([0, T ]× Ω).
Luego asumimos que f(t, w) es un proceso estocastico acotado con probabilidad
uno, y lo aproximamos mediante una sucesion de procesos estocasticos acotados y
continuos con probabilidad uno,para finalmente probar el caso general.
Lema 2.2 Sea f ∈ L2ad([0, T ]×Ω) un proceso estocastico continuo y acotado con
probabilidad uno, entonces existe una sucesion de procesos estocasticos escalonados
(fn)n≥1 en E tal que:
lımn→∞
T∫0
E(|fn(t)− f(t)|2)dt = 0 (2.14)
Demostracion:
Sea P = tini=0 una particion del intervalo [0, T ], para todo n ≥ 1 definamos el
proceso estocastico
fn(t, w) = f(ti−1, w) , ti−1 ≤ t ≤ ti
Ası tenemos
fn(t, w) =n∑i=1
f(ti−1, w)1[ti−1,ti〉(t) , ∀ n ≥ 1.
donde f(ti−1, ·) es Fti−1−medible, pues el proceso f(t, w) es adaptado a la filtracion
F = Ft, y E(f(ti−1)2) <∞ ya que el proceso f(t, w) es acotado con probabilidad
uno. Entonces tenemos una sucesion de procesos escalonados de acuerdo a la defini-
cion 2.1.
2. La Integral Estocastica de Ito 31
Por otro lado:T∫
0
|fn(t)|2dt =n∑i=1
f(ti−1)2(ti − ti−1),
pero el proceso f(t, w) es acotado, es decir existe una constante C > 0 tal que
|f(t, w)| ≤ C, para todo w ∈ Ω y 0 ≤ t ≤ T , luego
E( T∫
0
|fn(t)|2dt)≤ C2T.
Por lo tanto fn ∈ E , ∀ n ≥ 1.
De la construccion de los fn, tenemos que
lımn→∞
fn(t) = f(t) , ∀ t ∈ [0, T ]
ademas puesto que f es un proceso acotado con probabilidad uno tenemos que:
|fn(t)− f(t)|2 ≤ 2(|fn(t)|2 + |f(t)|2) ≤ 4C2 (2.15)
entonces por el teorema de convergencia acotada, tenemos que
lımn→∞
T∫0
|fn(t)− f(t)|2dt =
T∫0
lımn→∞
|fn(t)− f(t)|2dt = 0 (2.16)
Por otro lado de (2.15), tenemos que:
T∫0
|fn(t)− f(t)|2dt ≤ 4C2T , ∀ n ≥ 1 (2.17)
Ası aplicando nuevamente el teorema de convergencia acotada, obtenemos:
lımn→∞
E( T∫
0
|fn(t)− f(t)|2dt)
= E(
lımn→∞
T∫0
|fn(t)− f(t)|2dt)
= 0 por (2.16)
Por lo tanto:
lımn→∞
T∫0
E(|fn(t)− f(t)|2)dt = 0. (2.18)
32 2.3. Integral Estocastica
Lema 2.3 Sea f ∈ L2ad([0, T ]×Ω) un proceso estocastico acotado con probabilidad
uno entonces existe una sucesion (gn)n≥1 en L2ad([0, T ]×Ω) de procesos estocasticos
continuos y acotados con probabilidad uno, tal que:
lımn→∞
T∫0
E(|gn(t)− f(t)|2)dt = 0. (2.19)
Demostracion:
Sea ρ : R→ R una funcion continua y de soporte compacto tal que ρ(t) ≥ 0 , ∀ t ∈ R
y
∞∫−∞
ρ(t)dt = 1.
Extendemos el proceso estocastico f a todo R:
f(t, w) =
0 si t < 0
f(t, w) si 0 ≤ t ≤ T
0 si t > T
.
Para todo n ≥ 1, sea la sucesion de suavizadores
ρn(t) = nρ(nt)
Se define el suavizador de f como: gn(t) = (ρn ∗ f)(t).
Ahora mostraremos que (gn)n≥1 es una sucesion de procesos estocasticos acotados y
continuos en L2ad([0, T ]× Ω).
|gn(t)| =∣∣∣∣∞∫
−∞
ρ(τ)f(t− τ)dτ
∣∣∣∣ =
∣∣∣∣∞∫
−∞
nρ(nτ)f(t− τ)dτ
∣∣∣∣Haciendo el cambio de variable x = nτ , tenemos que:
|gn(t)| =∣∣∣∣∞∫
−∞
ρ(x)f(t− x
n)dx
∣∣∣∣ ≤ C
∞∫−∞
ρ(x)dx = C
Por lo tanto gn(t) es acotado para cada n ≥ 1.
2. La Integral Estocastica de Ito 33
Puesto que f es medible y acotado, entonces f es integrable con probabilidad uno,
es decir
P[w ∈ Ω :
∞∫−∞
|f(t, w)|dt <∞]
= 1
ademas ρ es uniformemente continua sobre [0, T ] es decir si n ∈ N fijo, ∀ ε > 0 ∃ δ > 0
tal que: si t1, t2 ∈ [0, T ] y |t1 − t2| < δ entonces: |ρ(nt1) − ρ(nt2)| < εnM
donde
M =
∞∫−∞
|f(t)|dt.
Ası
|gn(t1)− gn(t2)| =
∣∣∣∣n∞∫
−∞
ρ(n(t1 − s))f(s)ds− n∞∫
−∞
ρ(n(t2 − s))f(s)ds
∣∣∣∣=
∣∣∣∣n∞∫
−∞
[ρ(n(t1 − s))− ρ(n(t2 − s))
]f(s)ds
∣∣∣∣≤ n
∞∫−∞
∣∣ρ(n(t1 − s))− ρ(n(t2 − s))∣∣|f(s)|ds
< nε
nM
∞∫−∞
|f(s)|ds
= ε
Por lo tanto la sucesion(gn)n≥1 es uniformemente continua con probabilidad uno.
Ahora veamos que la sucesion (gn)n≥1 esta en L2ad([0, T ]× Ω), en efecto:
Puesto que:
|gn(t)|2 ≤ C2
entonces
T∫0
E|gn(t)|2dt ≤ C2T <∞.
34 2.3. Integral Estocastica
Por la propiedad de los suavizadores tenemos que:
gn = ρn ∗ f converge a f en L2[0, T ]
y
lımn→∞
T∫0
|gn(t)− f(t)|2dt = 0 (2.20)
ademas:
|gn(t)− f(t)|2 ≤ 2(|gn(t)|2 + |f(t)|2
)≤ 4C2
integrando sobre [0, T ] obtenemos :
T∫0
|gn(t)− f(t)|2dt ≤ 4C2T
ahora aplicando el teorema de la convergencia acotada:
lımn→∞
E( T∫
0
|gn(t)− f(t)|2dt)
= E(
lımn→∞
T∫0
|gn(t)− f(t)|2dt)
= 0
(2.21)
finalmente obtenemos:
lımn→∞
T∫0
E(|gn(t)− f(t)|2)dt = 0. (2.22)
Lema 2.4 Si f ∈ L2ad([0, T ] × Ω) es un proceso estocastico acotado con probabi
lidad uno, entonces existe (fn)n≥1 en E tal que:
lımn→∞
T∫0
E(|fn(t)− f(t)|2)dt = 0 (2.23)
Demostracion:
2. La Integral Estocastica de Ito 35
Por el Lema 2.3 , para cada n ≥ 1, existe una sucesion (gn(t))n≥1 en L2ad([0, T ]×Ω)
de procesos estocasticos continuos y acotados tal que:
lımn→∞
T∫0
E(|gn(t)− f(t)|2
)dt = 0 (2.24)
y como cada gn es un proceso estocastico acotado y continuo en L2ad([0, T ]×Ω), por
el Lema 2.2 existe un fn ∈ E tal que:
lımn→∞
T∫0
E(|fn(t)− gn(t)|2
)dt = 0 (2.25)
Ademas, tenemos que:
|fn(t)− f(t)|2 ≤ 2(|fn(t)− gn(t)|2 + |gn(t)− f(t)|
)2
E(|fn(t)− f(t)|2
)≤ 2(E(|fn(t)− gn(t)|2) + E(|gn(t)− f(t)|2)
)0 ≤
T∫0
E(|fn(t)− f(t)|2
)dt ≤ 2
( T∫0
E(|fn(t)− gn(t)|2
)dt+
T∫0
E(|gn(t)− f(t)|2
)dt
)Usando (2.24) y (2.25), tenemos que:
lımn→∞
T∫0
E(|fn(t)− f(t)|2
)dt = 0. (2.26)
Finalmente estamos en condiciones de probar el caso general.
36 2.3. Integral Estocastica
Lema 2.5 Si f ∈ L2ad([0, T ] × Ω), entonces existe una sucesion de procesos es-
tocasticos (fn)n≥1 en E tal que:
lımn→∞
T∫0
E(|fn(t)− f(t)|2
)dt = 0 (2.27)
Demostracion:
Sea f ∈ L2ad([0, T ]× Ω) arbitrario; para todo n ≥ 1, definamos la funcion
hn(x) =
1 si |x| ≤ n
0 si |x| > n
y el proceso estocastico truncado:
gn(t, w) := f(t, w)hn(f(t, w)) , n ≥ 1
gn(t, w) =
f(t, w) si |f(t, w)| ≤ n
0 si |f(t, w)| > n
De la definicion del proceso gn tenemos que este es medible y adaptado a la filtracion
F = Ft; 0 ≤ t ≤ T, para todo n ≥ 1. Ademas:
|gn(t, w)| = |f(t, w)hn(f(t, w))| = |f(t, w)||hn(f(t, w))| ≤ n
Por lo tanto el proceso estocastico gn es acotado, para cada n ≥ 1, luego
E( T∫
0
|gn(t)|2dt)≤ n2T
asi:
gn ∈ L2ad([0, T ]× Ω) , ∀ n ≥ 1
Por otro lado |gn(t, w)| ≤ |f(t, w)|, entonces:
|gn(t)− f(t)|2 ≤ 2(|gn(t)|2 + |f(t)|2
)≤ 4|f(t)|2 (2.28)
T∫0
|gn(t)− f(t)|2dt ≤ 4
T∫0
|f(t)|2dt (2.29)
2. La Integral Estocastica de Ito 37
aplicando el teorema de la convergencia acotada obtenemos
lımn→∞
T∫0
|gn(t)− f(t)|2dt =
T∫0
lımn→∞
|gn(t)− f(t)|2dt = 0 (2.30)
y de (2.29)
lımn→∞
E( T∫
0
|gn(t)− f(t)|2dt)
= E(
lımn→∞
T∫0
|gn(t)− f(t)|2dt)
= 0 (2.31)
Por lo tanto:
lımn→∞
T∫0
E(|gn(t)− f(t)|2
)dt = 0 (2.32)
Ahora como cada gn es un proceso estocastico acotado ∀ n ≥ 1, podemos aplicar el
Lema 2.2 y ası escoger para cada n un fn ∈ E tal que
lımn→∞
T∫0
E(|gn(t)− fn(t)|2
)dt = 0 (2.33)
Con lo cual de (2.32) (2.33) obtenemos
|fn(t)− f(t)|2 ≤ 2(|fn(t)− gn(t)|2 + |gn(t)− f(t)|2
)T∫
0
E(|fn(t)− f(t)|2
)dt ≤ 2
( T∫0
E(|fn(t)− gn(t)|2
)dt+
T∫0
E(|gn(t)− f(t)|2
)dt
)y por lo tanto:
lımn→∞
T∫0
E(|fn(t)− f(t)|2
)dt = 0.
38 2.3. Integral Estocastica
2.3.4. Definicion de la integral estocastica de Ito en el espa-
cio L2ad([0, T ]× Ω) y sus propieades
Mostrada ya la densidad del espacio E en L2ad([0, T ]×Ω) con la topologıa fuerte,
definimos ahora la integral de Ito para procesos estocasticos f(t, w) en L2ad([0, T ]×Ω).
Para esto usamos el Lema 2.5 para obtener la sucesion (fn)n≥1 ⊂ E tal que
lımn→∞
T∫0
E(|fn(t)− f(t)|2
)dt = 0 (2.34)
Para cada n ≥ 1, I(fn) ya ha sido definida en la seccion 2.3.2, y usando el hecho de
que:
E(|I(fn)|2
)=
T∫0
E(|fn(t)|2
)dt.
tenemos:
E(|I(fn)− I(fm)|2
)=
T∫0
E(|fn(t)− fm(t)|2
)dt
pero:
T∫0
E(|fn(t)− fm(t)|2
)dt ≤ 2
( T∫0
E(|fn(t)− f(t)|2
)dt+
T∫0
E(|f(t)− fm(t)|2
))
y por (2.34), obtenemos:
lımn,m→∞
T∫0
E(|fn(t)− fm(t)|2
)dt = 0
por lo tanto:
lımn,m→∞
E(|I(fn)− I(fm)|2
)= 0
2. La Integral Estocastica de Ito 39
Ası (I(fn))n≥1 es una sucesion de Cauchy en L2(Ω), entonces lımn→∞
I(fn) existe,
por lo tanto definimos la integral estocastica de Ito como:
I(f) := lımn→∞
I(fn) en L2(Ω) (2.35)
Ahora surge una pregunta ¿ Esta I(f) bien definida ?
Sea (gn)n≥1 otra sucesion de procesos en E tal que
lımn→∞
T∫0
E(|f(t)− gm(t)|2
)dt = 0 (2.36)
E(|I(fn)− I(gm)|2
)= E
(|I(fn − gm)|2
)=
T∫0
E(|fn(t)− gm(t)|2
)dt
≤
( T∫0
E(|fn(t)− f(t)|2
)dt+
T∫0
E(|f(t)− gm(t)|2
)dt
)
Y de (2.34) y (2.36) tenemos:
lımn,m→∞
E(|I(fn)− I(gm)|2
)= 0
por lo tanto:
lımn→∞
I(fn) = lımm→∞
I(gm) = I(f) en L2(Ω) (2.37)
y ası la integral de Ito de procesos f en L2ad([0, T ]× Ω) esta bien definida.
Definicion 2.3 El lımite I(f) definido en (2.35) es llamado la integral estocasti-
ca de Ito del proceso f ∈ L2ad([0, T ]× Ω) y es denotado por:
I(f) =
T∫0
f(t, w)dW (t, w)
Claramente si a, b ∈ R y f, g ∈ L2ad([0, T ]× Ω) se cumple que:
I(af + bg) = aI(f) + bI(g)
asi la aplicacion I : L2ad([0, T ]× Ω) −→ L2(Ω) es lineal
40 2.3. Integral Estocastica
Teorema 2.1 Suponer que f ∈ L2ad([0, T ]×Ω) entonces la integral de Ito, I(f),
es una variable aleatoria en L2(Ω) con:
E(I(f)) = 0
E(|I(f)|2
)=
T∫0
E(|f(t)|2
)dt
Demostracion:
Por el Lema 2.5, existe una sucesion (fn)n≥1 en E tal que
lımn→∞
‖fn − f‖L2ad([0,T ]×Ω) = 0
y de (2.35) tenemos:
lımn→∞
‖I(fn)− I(f)‖L2(Ω) = 0
Usando la desigualdad:∣∣‖x‖ − ‖y‖∣∣ ≤ ‖x− y‖, obtenemos
lımn→∞
‖fn‖L2ad([0,T ]×Ω) = ‖f‖L2
ad([0,T ]×Ω) (2.38)
lımn→∞
‖I(fn)‖L2(Ω) = ‖I(f)‖L2(Ω) (2.39)
De (2.39) y del Lema 2.1, tenemos:
E(|I(f)|2
)= lım
n→∞E(|I(fn)|2
)= lım
n→∞‖fn‖L2
ad([0,T ]×Ω)
= ‖f‖L2ad([0,T ]×Ω) por (2,38)
=
T∫0
E(|f(t)|2
)dt
y por el Lema 2.1 tenemos:
E(I(f)) = lımn→∞
E(I(fn)) = 0.
2. La Integral Estocastica de Ito 41
Observacion : El teorema anterior nos dice que la integral de Ito es un operador
lineal acotado entre los espacios de Hilbert L2ad([0, T ]× Ω) y L2(Ω), ademas es una
isometrıa, es decir:
I : L2ad([0, T ]× Ω) −→ L2(Ω)
f 7−→ I(f)
y ‖I(f)‖2L2(Ω) = E
(|I(f)|2
)=
T∫0
E(|f(t, w)|2
)dt = ‖f‖2
L2ad([0,T ]×Ω)
por lo tanto:
‖I(f)‖L2(Ω) = ‖f‖L2ad([0,T ]×Ω)
Corolario 2.1 Si f, g ∈ L2ad([0, T ]× Ω), la siguiente igualdad es valida:
E
( T∫0
f(t)dW (t) ·T∫
0
g(t)dW (t)
)=
T∫0
E(f(t)g(t))dt
o equivalentemente:
< I(f), I(g) >L2(Ω)=< f, g >L2ad([0,T ]×Ω) (2.40)
Demostracion:
Si f, g ∈ L2ad([0, T ]× Ω) entonces f + g ∈ L2
ad([0, t]× Ω)
E((I(f) + I(g))2
)= E
((I(f + g)
)2)=
T∫0
E(|f(t) + g(t)|2
)dt
=
T∫0
E(|f(t)|2
)dt+ 2
T∫0
E(f(t)g(t)
)dt+
T∫0
E(|g(t)|2
)dt
pero
42 2.3. Integral Estocastica
E((I(f) + I(g)
)2)= E
(|I(f)|2 + 2I(f)I(g) + |I(g)|2
)= E
(|I(f)|2 + 2E
(I(f) · I(g)
)+ E
(|I(g)|2
))=
T∫0
E(|f(t)|2
)dt+ 2E
(I(f) · I(g)
)+
T∫0
E(|g(t)|2
)dt
Por lo tanto:
E(I(f) · I(g)
)=
T∫0
E(f(t)g(t)
)dt.
Ejemplo:
T∫0
W (t)dW (t) =1
2(W (T )2 − T )
Notar que f(t, w) = W (t, w) pertenece al espacio L2ad([0, T ] × Ω) pues W (t, w) es
adaptado a la filtracion F = Ft; 0 ≤ t ≤ T especificada en la seccion 2.3. AdemasT∫
0
E(|W (t)|2
)dt =
T 2
2.
Sabemos que W (t, w) es un proceso estocastico continuo y acotado ası podemos
aplicar el Lema 2.2, es decir para un particion P = tini=0 del intervalo [0, T ],
definimos el proceso estocastico:
fn(t, w) := W (ti−1, w) ; ti−1 ≤ t < ti
entoncesT∫
0
W (t)dW (t) = lımn→∞
I(fn) en L2(Ω)
pero:
I(fn) =n∑i=1
W (ti−1)(W (ti)−W (ti−1)
)=
1
2
(W (T )2 −
n∑i=1
(W (ti)−W (ti−1)
)2
)= Ln
2. La Integral Estocastica de Ito 43
Por lo tantoT∫
0
W (t, w)dW (t, w) = lımn→∞
Ln =1
2
(W (T )2 − T
)
2.3.5. Procesos estocasticos definidos por integrales de Ito
Recordar que al inicio de la seccion 2.3, fijamos un movimiento Browniano
W (t, w) y una filtracion F = Ft; 0 ≤ t ≤ T que satisface las condiciones a) y
b) de esa seccion. Sea f ∈ L2ad([0, T ]× Ω), entonces para cualquier t ∈ [0, T ]
t∫0
E(|f(t)|2
)dt ≤
T∫0
E(|f(s)|2
)ds <∞
Luego f ∈ L2ad([0, T ]×Ω). Esto implica que para cada t ∈ [0, T ], la integral estocasti-
ca de Ito
t∫0
f(s)dW (t) esta definida. Considerar un proceso estocastico definido por:
X(t, w) =
t∫0
f(s, w)dW (t, w) ; 0 ≤ t ≤ T , w ∈ Ω
Notar que por el teorema 2.1 tenemos
E(|X(t)|2) =
t∫0
E(|f(s)|2
)ds <∞
y ası E(|X(t)|) ≤[E(|X(t)|2
)]1/2< ∞. Luego para cada t, la variable aleatoria
X(t, ·) es integrable y ası podemos tomar la esperanza condicional de X(t, ·) con
respecto a la σ−algebra Fs. En la seccion 2.1, mencionamos que la integral de ItoT∫
0
f(t, w)dW (t, w) es definida de tal forma que el proceso estocastico X(t, w) =
t∫0
f(s, w)dW (s, w) sea un martingala. El siguiente teorema muestra que esto es
cierto para procesos en L2ad([0, T ]× Ω).
44 2.3. Integral Estocastica
Teorema 2.2 (Propiedad de Martingala) Suponer que f ∈ L2ad([0, T ] × Ω),
entonces el proceso estocastico:
X(t, w) =
t∫0
f(s, w)dW (s, w) ; 0 ≤ t ≤ T , w ∈ Ω
es un martingala con respecto a la filtracion F = Ft; 0 ≤ t ≤ T.
Demostracion: Ya vimos que E(|X(t)|) < ∞ en la discusion anterior ası que
primero consideremos el caso en que f ∈ E , debemos probar que para 0 ≤ s < t ≤
T , E(X(t) | Fs) = X(s), pero
X(t) = X(s) +
t∫s
f(τ)dW (τ)
entonces:
E(X(t) | Fs) = E(X(s) | Fs) + E
( t∫s
f(τ)dW (τ) | Fs
)
= X(s) + E
( t∫s
f(τ)dW (τ) | Fs
)
Ası debemos probar que:
E
( t∫s
f(τ)dW (τ) | Fs
)= 0
En efecto:
Si f ∈ E entonces:
f(τ, w) =n∑i=1
ξi−1(w)111[ti−1,ti〉(τ)
donde s = t0 < t1 < . . . < tn = t y ξi−1 es Fti−1−medible ∀ i = 1, 2, . . . , n con
E(ξ2i−1) <∞. Por la definicion de la integral de Ito de procesos en E , tenemos
t∫s
f(τ)dW (τ) =n∑i=1
ξi−1(w)(W (ti)−W (ti−1)
)
2. La Integral Estocastica de Ito 45
entonces:
E
( t∫s
f(τ)dW (τ) | Fs
)=
n∑i=1
(ξi−1(W (ti)−W (ti−1)) | Fs
)(2.41)
Ahora como Fs @ Fti−1, para todo i = 1, 2, . . . , n, tenemos:
E[ξi−1(W (ti)−W (ti−1)) | Fs
]= E
(E[ξi−1(W (ti)−W (ti−1)) | FTi−1
]| Fs
)= E
(ξi−1E(W (ti)−W (ti−1) | Fti−1
) | Fs)
= E(ξi−1E(W (ti)−W (ti−1)) | Fs
)= 0
(2.42)
Reemplazando (2.42) en (2.41) obtenemos lo que querıamos probar.
En el caso general cuando f ∈ L2ad([0, T ]× Ω), tomar (fn)n≥1 en E tal que:
lımn→∞
‖fn − f‖L2ad([0,T ]×Ω) = 0
Para cada n ≥ 1, definir el proceso estocastico:
Xn(t, w) =
t∫0
fn(τ, w)dW (τ, w)
por el primer caso Xn(t, w) es un martingala, para cada n.
Para s < t, escribir:
X(t)−X(s) =(X(t)−X(n)(t)
)+(X(n)(t)−X(n)(s)
)+(X(n)(s)−X(s)
)tomando esperanza condicional
E(X(t)−X(s) | Fs
)= E
(X(t)−X(n)(t) | Fs
)+ E
(X(n)(t)−X(n)(s) | Fs
)+ E
(X(n)(s)−X(s) | Fs
)y puesto que X(n)(t, w) es un martingala, el segundo termino del lado derecho de
la igualdad se elimina, quedando:
E(X(t)−X(s) | Fs
)= E
(X(t)−X(n)(t) | Fs
)+ E
(X(n)(s)−X(s) | Fs
)(2.43)
46 2.3. Integral Estocastica
Apliquemos la desigualdad condicional de Jensen (Teorema 1.1) con φ(x) = |x|2
para obtener: ∣∣∣E(X(t)−X(n)(t) | Fs)∣∣∣2 = E
(|X(t)−X(n)(t)|2 | Fs
)0 ≤ E
(∣∣E(X(t)−X(n)(t) | Fs)∣∣2) ≤ E
(E(|X(t)−X(n)(t)|2 | Fs
))= E
(|X(t)−X(n)(t)|2
)= E
(∣∣∣∣∣t∫
0
(f(τ)− fn(τ)
)dW (τ)
∣∣∣∣∣2)
=
t∫0
E(|f(τ)− fn(τ)|2
)dτ
≤T∫
0
E(|f(τ)− fn(τ)|2
)dτ
Por lo tanto tenemos:
lımn→∞
E(∣∣E(X(t)−X(n)(t) | Fs
)∣∣2) = 0 (2.44)
lo que significa que la variable aleatoria E(X(t) − X(n)(t) | Fs
)tiende a cero en
L2(Ω), cuando n −→∞.
E(X(n)(s)−X(s) | Fs
)= X(n)(s)−X(s), por ser X(n)(s)−X(s), Fs −medibles
=
s∫0
fn(τ)dW (τ)−s∫
0
f(τ)dW (τ)
= I(fn)− I(f) −→ 0 en L2(Ω)
(2.45)
De (2.44) y (2.45) en (2.43), obtenemos:
E(X(t)−X(s) | Fs
)= lım
n→∞
(E(X(t)−X(s) | Fs
)+ E
(X(n)(s)−X(s) | Fs
))= 0 en L2(Ω)
Por lo tanto:
E(X(t) | Fs
)= X(s)
y ası el proceso estocastico X(t, w) es un martingala.
2. La Integral Estocastica de Ito 47
Acontinuacion estudiamos la propiedad de continuidad del proceso estocasticoX(t, w)
definido por:
X(t, w) =
t∫0
f(s, w)dW (s, w) ; 0 ≤ t ≤ T , w ∈ Ω
Notar que la integral estocastica no es definida para cada ω fijo como una integral de
Riemann, Riemann - Stieltjes o Lebesgue. Por lo tanto, la continuidad del proceso
estocastico X(t, w) no es un hecho trivial como en el analisis real elemental.
Teorema 2.3 (Propiedad de Continuidad) Suponer que f ∈ L2ad([0, T ]×Ω),
entonces el proceso estocastico
X(t, w) =
t∫0
f(s, w)dW (s, w) , 0 ≤ t ≤ T.
es continuo, es decir sus funciones muestrales son continuas con probabilidad uno
sobre el intervalo [0, T ].
Demostracion:
Primero consideremos el caso cuando f ∈ E , ası:
f(s, w) =n∑i=1
ξi−1(w)111[ti−1,ti〉(s)
para cada w fijo la funcion muestral de X(t, w) esta dada por:
X(t, w) =k−1∑i=1
ξi−1(w)(W (ti, w)−W (ti−1, w)
)+ ξk−1(w)
(W (t, w)−W (tk−1, w)
)donde tk−1 ≤ t ≤ tk.
Recordar que parar casi todos los w, la funcion muestral W (·, w) es una funcion
continua. Luego para casi todos los w, la funcion muestral X(·, w) tambien es una
funcion continua sobre [0, T ].
Ahora consideraremos el caso general. Sea (fn)n≥1 en E tal que:
lımn→∞
T∫0
E(|f(s)− fn(s)|2
)ds = 0
48 2.3. Integral Estocastica
podemos asumir que:
T∫0
E(|f(s)− fn(s)|2
)ds ≤ 1
n6, ∀ n ≥ 1 (2.46)
Para cada n, definir el proceso estocastico:
X(n)(t, w) =
t∫0
fn(s, w)dW (s, w) , 0 ≤ t ≤ T
luego por el teorema anterior X(n)(t, w) es un martingala y por la primera parte de
la prueba X(n)(t, w) tiene casi todas sus funciones muestrales son continuas.
Aplicamos la desigualdad de Doob (Teorema 1.5) al martingala(X(t, w)−X(n)(t, w)
).
P[w ∈ Ω : sup
0≤t≤T
∣∣∣X(t, w)−X(n)(t, w)∣∣∣ ≥ 1
n
]≤ nE
(∣∣X(T )−X(n)(T )∣∣)
Por la desigualdad de Cauchy - Schwarz, teorema 2.1 y (2.46), obtenemos:
P[w ∈ Ω : sup
0≤t≤T
∣∣∣X(t, w)−X(n)(t, w)∣∣∣ ≥ 1
n
]≤ nE
(∣∣X(T )−X(n)(T )∣∣2)1/2
= n
( T∫0
E(∣∣f(s)− fn(s)
∣∣2)ds)1/2
≤ n
(1
n6
)1/2
=1
n2
(2.47)
Luego:∞∑n=1
P[w ∈ Ω : sup
0≤t≤T|X(t, w)−X(n)(t, w)| ≥ 1
n
]≤
∞∑n=1
1
n2
y puesto que∞∑n=1
1
n2<∞, por el Lema de Borel Cantelli, con:
An =w ∈ Ω : sup
0≤t≤T|X(t)−X(n)(t)| ≥ 1
n
tenemos:
P[An : para un numero infinito de ındices n
]= 0
tomando complemento obtenemos:
P[An : para un numero finito de ındices n
]= 1
2. La Integral Estocastica de Ito 49
Entonces existe Ω0 tal que P(Ω0) = 1 y para cada w ∈ Ω0, w ∈ An solamente para
un numero finito de ındices n, es decir existe N(w) ∈ N tal que:
sup0≤t≤T
|X(·, ω)−X(n)(·, ω)| < 1
npara todo n ≥ N(w)
Ası para cada w ∈ Ω0, la sucesion de funciones(X(n)(·, w)
)n≥1
converge uniforme-
mente a X(·, w), sobre [0, T ]. Pero para cada n, el proceso estocastico X(n)(t, w) es
continuo y ası existe un evento Ωn con P(Ωn) = 1,tal que para cualquier w ∈ Ωn, la
funcion X(n)(·, w) es continua.
Finalmente sea Ω =∞⋂n=0
Ωn. Luego tenemos P(Ω) = 1 y para cada w ∈ Ω, la sucesion:
X(n)(·, w) , n = 1, 2, 3, . . .
es una sucesion de funciones continuas que converge uniformemente a X(·, w) sobre
[0, T ]. Se sigue que X(·, w) es una funcion continua para cada w ∈ Ω. Luego casi to-
das las funciones muestrales del proceso estocastico X(t, w) son funciones continuas
sobre [0, T ].
Ası hemos mostrado que X(t, w) es un proceso estocastico continuo.
Teorema 2.4 Suponer que f ∈ L2ad([0, T ] × Ω) y asumir que f es un proceso
estocastico continuo y acotado con probabilidad uno. Entonces:
T∫0
f(t, w)dW (t, w) = lım‖P‖→0
n∑i=1
f(ti−1)(W (ti)−W (ti−1)) en L2(Ω)
donde P = 0 = t0 < t1 < . . . < tn = T y ‖P‖ = max1≤i≤n
(ti − ti−1).2
2Para demostracion ver[2]
50 2.3. Integral Estocastica
Capıtulo 3
Extension de la Integral Estocastica y la
Formula de Ito
En el capıtulo anterior, la integral estocastica I(f) =
T∫0
f(t, w)dW (t, w) fue
definida para integrandos f(t, w) en el espacio L2ad([0, T ]× Ω), en este caso la vari-
able aleatoria I(f) pertenece a L2(Ω). Ademas, el proceso estocastico X(t, w) =t∫
0
f(s, w)dW (s, w) con 0 ≤ t ≤ T , es un martingala. En este capıtulo extendemos
la definicion de la integral estocastica I(f) a un espacio de integrandos mas amplio,
cuyos elementos satisfacen condiciones mas debiles que las requeridas en el capıtulo
anterior. Los lemas 3.2 y 3.3 son los principales resultados para cumplir con este
objetivo
3.1. Un espacio mas amplio de integrandos
Como en el inicio de la seccion 2.3, fijamos un movimiento Browniano W (t, w)
y una filtracion F = Ft; 0 ≤ t ≤ T tal que:
(a) Para cada t, W (t) es Ft−medible.
(b) Para cualquier s ≤ t, la variable aleatoria W (t)−W (s) es independiente de la
σ−algebra Fs.
51
52 3.1. Un espacio mas amplio de integrandos
En este capıtulo, definimos la integral estocastica
T∫0
f(t, w)dW (t, w) para procesos
estocasticos f(t, w) que satisfacen las siguientes condiciones:
(1) f(t, w) es adaptado a la filtracion F = Ft; 0 ≤ t ≤ T;
(2) P
[w ∈ Ω :
T∫0
|f(t, w)|2dt <∞
]= 1.
NOTACION: Usamos Lad(Ω, L2[0, T ]) para denotar al espacio de procesos es-
tocasticos f(t, w) que satisfacen las condiciones (1) y (2).
Recordar que en la seccion 2.3 usamos L2ad([0, T ]×Ω) para denotar el espacio de
todos los procesos estocasticos adaptados a la filtracion F = Ft; 0 ≤ t ≤ T tales
queT∫
0
E(|f(t)|2
)dt <∞
Por el teorema de Fubbini: ET∫
0
(|f(t)|2
)dt =
T∫0
E(|f(t)|2
)dt <∞
Y por lo tanto P
[w ∈ Ω :
T∫0
|f(t, w)|2dt < ∞
]= 1, esto demuestra la relacion de
inclusion:
L2ad([0, T ]× Ω) ⊂ Lad(Ω, L
2[0, T ])
Ası tenemos una clase mas amplia de integrandos f(t, w) para la cual definiremos la
integral estocastica de Ito. La diferencia crucial es la posible falta de integrabilidad
del integrando f(t, w) con respecto a la variable w.
3. Extension de la Integral Estocastica y la Formula de Ito 53
Ejemplo 3.1: Considerar el proceso estocastico f(t, w) = e2W (t,w)2 , 0 ≤ t ≤ 1,
w ∈ Ω.
E(|f(t)|2
)= E
(e2W (t)2
)=
1√2πt
∞∫∞
e2x2 · e−x2/2tdx
=
1√
1−4tsi t ∈ [0, 1/4〉
∞ si t ∈ [1/4, 1]
Ası tenemos que
1∫0
E(|f(t, w)|2
)dt = ∞ entonces f /∈ L2
ad([0, T ] × Ω), notar sin
embargo que f(t, w) = eW (t,w)2 es continuo con probabilidad uno, ası para cada
w ∈ Ω fijo, f ∈ L2[0, 1], es decir:
P
[w ∈ Ω :
1∫0
|f(t, w)|2dt <∞
]= 1
Por lo tanto, f ∈ Lad(Ω, L2[0, 1]).
En general se requieren calculos un poco complicados para verificar si un proceso
estocastico pertenece a L2ad([0, T ]×Ω). Por otro lado es facil verificar si un proceso
estocastico f pertenece al espacio Lad(L2[0, T ]), pues solo se necesita que f(t, w) sea
adaptado a la filtracion F y que tenga funciones muestrales continuas sobre [0, T ]
con probabilida uno.
3.2. Lema de aproximacion
En esta seccion se demuestra un lema de aproximacion el cual sera necesario en la
seccion 3.3 para extender la definicion de la integral estocastica
T∫0
f(t, w)dW (t, w)
en el espacio Lad(Ω, L2[0, T ]) :
54 3.2. Lema de aproximacion
Lema 3.1 Sea f ∈ Lad(Ω, L2[0, T ]), entonces existe una sucesion (fn)n≥1 en
L2ad([0, T ]× Ω) tal que:
lımn→∞
T∫0
|fn(t)− f(t)|2dt = 0 con probabilidad uno.
Demostracion: Sea f ∈ Lad(Ω, L2[0, T ]) arbitrario, entonces si fijamos w ∈ Ω,
f(·, w) ∈ L2[0, T ], definamos I(t, w) =
t∫0
|f(s, w)|2ds y para cada n
fn(t, w) =
f(t, w) si I(t, w) ≤ n
0 caso contrario
(3.1)
Luego fn(t, w) es adaptado a la filtracion F = Ft; 0 ≤ t ≤ T.
Ahora definamos la variable aleatoria:
τn(w) = sup
t ;
t∫0
|f(s, w)|2ds ≤ n
.
entonces:
T∫0
|fn(t, w)|2dt =
τn(w)∫0
|f(t, w)|2dt con probabilidad uno.
por lo tanto tenemos:
T∫0
|fn(t, w)|2dt ≤ n con probabilidad uno.
lo cual implica que:
E
( T∫0
|fn(t)|2dt
)=
T∫0
(|fn(t)|2
)dt ≤ n
y ası fn ∈ Lad(Ω, L1[0, T ]) , ∀ n ≥ 1.
Sea w fijo, tan pronto como n sea tan grande que n ≥T∫
0
|f(t, w)|2dt, por ecuacion
(3.1), tenemos:
fn(t, w) = f(t, w) , ∀ t ∈ [0, T ]
3. Extension de la Integral Estocastica y la Formula de Ito 55
lo cual implica que:
lımn→∞
T∫0
|fn(t)− f(t)|2dt = 0.
Puesto que
T∫0
|f(t)|2dt < ∞ con probabilidad uno, la convergencia es valida con
probabilidad uno.
Lema 3.2 Sea f ∈ E , entonces la desigualdad
P
[w ∈ Ω :
∣∣∣∣∣T∫
0
f(t, w)dW (t, w)
∣∣∣∣∣ > ε
]≤ C
ε2+ P
[w ∈ Ω :
T∫0
|f(t, w)|2dt > C
].
es valido para todas las constantes positivas ε y C.
Demostracion:
Para cada C > 0 definir el proceso estocastico
fC(t, w) =
f(t, w) si I(t, w) ≤ C
0 si I(t, w) > C
Observar que:[w ∈ Ω : |I(f)| > ε
]⊂[w ∈ Ω : |I(fC)| > ε
]∪[w ∈ Ω : I(f) 6= I(fC)
].
Entonces por la subaditividad de P, tenemos:
P[w : |I(f)| > ε
]≤ P
[w ∈ Ω : |I(fC)| > ε
]+ P
[w : I(f) 6= I(fC)
](3.2)
por otro lado, puesto que f es un proceso estocastico escalonado, tenemos
[w ∈ Ω : I(f) 6= I(fC)
]⊂
[w ∈ Ω :
T∫0
|f(t, w)|2dt > C
].
por lo tanto:
P[w ∈ Ω : I(f) 6= I(fC)
]≤ P
[w ∈ Ω :
T∫0
|f(t, w)|2dt > C
]. (3.3)
563.3. Definicion de la integral estocastica de Ito en el espacio
Lad(Ω, L2[0, T ])
Reeemplazando (3.3) en (3.2):
P[w ∈ Ω : |I(f)| > ε
]≤ P
[w ∈ Ω : |I(fC)| > ε
]+ P
[w ∈ Ω :
T∫0
|f(t, w)|2dt > C
].
ahora usaremos la Desigualdad de Chebyshev:
P[w ∈ Ω|I(fC)| > ε
]≤ 1
ε2E(|I(fC)|2
)=
1
ε2
T∫0
E(|fC(t)|2
)dt (3.4)
pero de la definicion de fC tenemos que:
T∫0
|fC(t, w)|2dt ≤ C con probabilidad uno
entonces:T∫
0
E(|fC(t)|2
)dt ≤ C. (3.5)
De (3.5) en (3.4), obtenemos
P[w ∈ Ω : |I(fC)| > ε
]≤ C
ε2. (3.6)
Ası finalmente tenemos que:
P[w ∈ Ω : |I(f)| > ε
]≤ C
ε2+ P
[w ∈ Ω :
T∫0
|f(t, w)|2dt > C
].
3.3. Definicion de la integral estocastica de Ito en
el espacio Lad(Ω, L2[0, T ])
Lema 3.3 Sea f ∈ Lad(Ω, L2[0, T ]), entonces existe una sucesion (fn)n≥1 en E
tal que:
lımn→∞
T∫0
|fn(t)− f(t)|2dt = 0 en probabilidad.
3. Extension de la Integral Estocastica y la Formula de Ito 57
Demostracion:
Por el Lema 3.1, existe una sucesion (gn)n≥1 en L2ad([0, T ]× Ω) tal que
lımn→∞
T∫0
|gn(t)− f(t)|2dt = 0 en probabilidad. (3.7)
Por la densidad de E en L2ad([0, T ]× Ω), para cada gn existe un fn en E , tal que:
E
( T∫0
|fn(t)− gn(t)|2)<
1
n. (3.8)
Usando la desigualdad basica |a + b|2 ≤ (|a|2 + |b|2), podemos verificar la siguiente
relacion de inclusion:[w ∈ Ω :
T∫0
|fn(t)− f(t)|2dt > ε
]⊂
[w ∈ Ω :
T∫0
|fn(t)− gn(t)|2dt > ε
4
]
∪
[w :
T∫0
|gn(t)− f(t)|2dt > ε
4
].
Ası, por la subaditividad de P:
P
[w :
T∫0
|fn(t)− f(t)|2dt > ε
]≤ P
[w :
T∫0
|fn(t)− gn(t)|2dt > ε
4
].
+ P
[w :
T∫0
|gn(t)− f(t)|2dt > ε
4
].
(3.9)
Ahora, aplicamos la desigualdad de Chebyshev y (3.8) obtenemos
P
[w ∈ Ω :
T∫0
|fn(t)− gn(t)|2dt > ε
4
]≤ 4
εE
( T∫0
|fn(t)− gn(t)|2dt
).
<4
εn
(3.10)
Usando (3.7) y (3.10) en (3.9), tenemos finalmente que
P
[w ∈ Ω :
T∫0
|fn(t)− f(t)|2dt > ε
]≤ 4
εn+ P
[w ∈ Ω :
T∫0
|gn(t)− f(t)|2dt > ε
4
].
lımn→∞
P
[w ∈ Ω :
T∫0
|fn(t)− f(t)|2dt > ε
]≤ lım
n→∞P
[w ∈ Ω :
T∫0
|gn(t)− f(t)|2dt > ε
4
]
583.3. Definicion de la integral estocastica de Ito en el espacio
Lad(Ω, L2[0, T ])
∴ lımn→∞
P
[w ∈ Ω :
T∫0
|fn(t)− f(t)|2dt > ε
]= 0.
Finalmente estamos listos para definir la integral estocastica en el sentido de Ito
T∫0
f(t, w)dW (t, w).
para procesos estocasticos f ∈ Lad(Ω, L2[0, T ]).
Para esto sigamos los siguientes pasos:
1) Apliquemos el Lema 3.3, para elegir una sucesion (fn)n≥1 en E tal que:
lımn→∞
T∫0
|fn(t)− f(t)|2dt = 0 , en probabilidad
2) Para cada n ≥ 1, la integral estocastica
I(fn) =
T∫0
fn(t, w)dW (t, w)
ya ha sido definida.
3) Sea (fn − fm) ∈ E , entonces podemos aplicar el Lema 3.2 a este proceso con
ε > 0 y C = ε3
2:
P
[w ∈ Ω :
∣∣∣∣∣T∫0
(fn(t)− fm(t)
)dW (t)
∣∣∣∣∣ > ε
]≤ε
2+ P
[w ∈ Ω :
T∫0
|fn(t)− fm(t)|2dt >ε3
2
]
4) Usar la desigualdad |a+ b|2 ≤ 2(|a|2 + |b|2), para verificar la siguiente relacion
de inclusion:[w ∈ Ω :
T∫0
|fn(t)− fm(t)|2dt > ε3
2
]⊂
[w ∈ Ω :
T∫0
|fn(t)− f(t)|2dt > ε3
8
].
∪
[w ∈ Ω :
T∫0
|fm(t)− f(t)|2dt > ε3
8
].
3. Extension de la Integral Estocastica y la Formula de Ito 59
entonces:
P
[w ∈ Ω :
T∫0
|fn(t)− fm(t)|2dt > ε3
2
]≤ P
[w ∈ Ω :
T∫0
|fn(t)− f(t)|2dt > ε3
8
].
+ P
[w ∈ Ω :
T∫0
|fm(t)− f(t)|2dt > ε3
8
].
pero por el paso 1, tenemos que:
lımn→∞
P
[w ∈ Ω :
T∫0
|fn(t)− f(t)|2dt > ε3
8
]= 0.
lımm→∞
P
[w ∈ Ω :
T∫0
|fm(t)− f(t)|2dt > ε3
8
]= 0.
5) Ası:
lımn,m→∞
P
[w ∈ Ω :
T∫0
|fn(t)− fm(t)|2dt > ε3
2
]= 0.
esto significa que existe N ∈ N, tal que:
P
[w ∈ Ω :
T∫0
|fm(t)− f(t)|2dt > ε3
2
]<ε
2, ∀ n,m ≥ N.
Usando este resultado en el paso 3, obtenemos:
P
[w ∈ Ω :
∣∣∣∣∣T∫
0
(fn(t)− fm(t)
)dW (t)
∣∣∣∣∣ > ε
]≤ ε
2+ε
2= ε ,
P[w ∈ Ω : |I(fn)− I(fm)| > ε
]< ε
Esto demuestra que la sucesion de variables aleatorias (I(fn))n≥1 es de Cauchy, y
converge en probabilidad, ası podemos definir
I(f) =
T∫0
f(t, w)dW (t, w) := lımn→∞
I(f) en probabilidad.
ademas el lımite es independiente de la sucesion (fn)n≥1, ası la integral estocastica,
I(f), esta bien definida.
60 3.4. La formula de Ito
Teorema 3.1 Suponer que f es un proceso estocastico con funciones muestrales
continuas, adaptado a F = Ft; 0 ≤ t ≤ T, entonces f ∈ Lad(Ω, L2[0, T ]) y
T∫0
f(t, w)dW (t, w) = lım‖P‖→0
n∑i=1
f(ti−1)(W (ti)−W (ti−1)) en probabilidad.
donde P = tini=0 es una particion de [0, T ].1
Ejemplo 3.2:
Sea f(t, w) = eW (t,w)2 , vimos en la seccion 3.1 que f /∈ L2ad([0, T ] × Ω) pero como
para cada w fijo, f(·, w) es una funcion continua tenemos que f ∈ Lad(Ω, L2[0, T ]).
Ası la integral
1∫0
eW (t)2dW (t) esta definida, veremos en la siguiente seccion que usando
la formula de Ito, podemos calcular esta integral:
1∫0
eW (t)2dW (t) =
W (1)∫0
et2
dt−1∫
0
W (t)eW (t)2dt.
3.4. La formula de Ito
En esta seccion se demuestra uno de los principales resultados del calculo es-
tocastico de Ito (Teorema 3.3), conocido como la Formula de Ito o la regla de la
cadena estocastica.
La regla de la cadena en el calculo de Newton-Leibniz es la formula
(f g)′(t) = f ′(g(t))g′(t)
donde f y g son funciones diferenciales.
O escrito en su forma integral
f(g(t))− f(g(0)) =
t∫0
f ′(g(s))g′(s)ds
1Para demostracion ver[2]
3. Extension de la Integral Estocastica y la Formula de Ito 61
Por otro lado, la regla de la cadena en el calculo de Ito, para el caso mas simple,
establece que:
f(W (t))− f(W (0)) =
t∫0
f ′(W (s))dW (s) +1
2
t∫0
f ′′(W (s))ds (3.11)
donde W (t) es un movimiento Browniano y f ∈ C2, o en su forma simbolica :
df(W (t)) = f ′(W (t))dW (t) +1
2f ′′(W (t))dt (3.12)
Donde el ultimo termino del lado derecho de la integral, es llamado termino correc-
cion de Ito y es consecuencia de que [W,W ](t) = t.
La formula (3.11) fue demostrada por Kiyosi Ito en su paper “Stochastic Integral”
de 1944.
Ahora sea f(t, x) y coloquemos x = W (t), ası obtenemos un proceso estocastico:
f(t,W (t)), notar que t aparece en dos lugares:
i) Como una variable de f (Calculo de Newton).
ii) En el movimiento Browniano W (t), en lugar de x (Calculo de Ito).
Supongamos que f(t, x) es continua y tiene derivadas parciales continuas ∂f∂t
(t, x),∂f∂x
(t, x) y ∂2f∂x2
(t, x) sobre [0, T ]× R, entonces Ito demostro que:
f(t,W (t))− f(0,W (0)) =
t∫0
∂f
∂x(s,W (s))dW (s) +
t∫0
[∂f
∂t(s,W (s)) +
1
2
∂2f
∂x2(s,W (s))
]ds (3.13)
Observamos en estas dos primeras versiones:
1. f(W (t))− f(W (0)) =∫ t
0f ′(W (s))dW (s) + 1
2
∫ t0f ′′(W (s))ds, f ∈ C2(R).
2. f(t,W (t))−f(0,W (0)) =∫ t
0fx(s,W (s))dW (s)+
∫ t0
[ft(s,W (s))+1
2fxx(s,W (s))
]ds,
f ∈ C2([0, T ]× R).
que estas contienen dos tipos de Integrales: Riemann(o Lebesgue) e Ito.
62 3.4. La formula de Ito
Notacion: Usaremos Lad(Ω, L1[0, T ]) para denotar el espacio de todos los proce-
sos estocasticos f(t, w) adaptados a F = Ft; 0 ≤ t ≤ T tal que
t∫0
|f(t, w)|dt <∞,
casi seguro.
Definicion 3.1 Un proceso de Ito es un proceso estocastico de la forma
X(t) = X(0) +
t∫0
f(s)dW (s) +
t∫0
g(s)ds , 0 ≤ t ≤ T (3.14)
donde X(0) es F0-medible, f ∈ Lad(Ω, L2[0, T ]) y g ∈ Lad(Ω, L
1[0, T ]) o en su forma
simbolica:
dX(t) = f(t)dW (t) + g(t)dt (diferencial estocastica)
Nota: Casi todos los procesos estocasticos, excepto aquellos que tienen saltos son
procesos de Ito.
Denotemos con:
I(t) =
t∫0
f(s)dW (s) , f ∈ Lad(Ω, L2[0, T ])
R(t) =
t∫0
g(s)ds , g ∈ Lad(Ω, L1[0, T ])
ambas funciones continuas en la variable t, por lo tanto X(t) tambien es continuo.
Lema 3.4 Sea f ∈ Lad(Ω, L2[0, T ]), P = 0 = t0 < t1 < . . . < tn = T particion
de [0, T ], definamos las siguientes sucesiones de variables aleatorias
An =n∑k=1
( tk∫tk−1
f(t)dt
)2
, n ≥ 1
Bn =n∑k=1
( tk∫tk−1
f(t)dW (t)
)2
, n ≥ 1
entonces se cumple que Bnn≥1 es uniformemente acotada en probabilidad y An → 0
en probabilidad.
3. Extension de la Integral Estocastica y la Formula de Ito 63
Demostracion:
Consideremos la sucesion fN(t) = f(t)gN(It),N ≥ 1, donde cada fN ∈ Lad(Ω, L2[0, T ])
y
gN(x) =
0 , |x| > N
1 , |x| ≤ N
, It =
t∫0
f 2(s)ds
Sea BNn =
n∑k=1
( tk∫tk−1
fN(t)dW (t)
)2
, c > 0 y N > 0 arbitrarios, entonces se cumple
que:
si w ∈ Ω es tal que
T∫0
f 2(s, w)ds ≤ N entonces Bn(w) = BNn (w), en consecuencia:
P[w ∈ Ω : |Bn| > c] = P[w ∈ Ω : Bn > c]
≤ P[w ∈ Ω : BNn > c] + P
[w ∈ Ω :
T∫0
f 2(s)ds > N
](3.15)
Aplicando la desigualdad de Chebyshev y la propiedad de isometrıa
P[w ∈ Ω : BNn > c] ≤ 1
cE(BN
n ) =1
c
n∑k=1
E
( tk∫tk−1
fN(t)dW (t)
)2
=1
c
n∑k=1
tk∫tk−1
E(f 2N(t))dt
=1
c
T∫0
E(f 2N(t))dt ≤ N
c
Por lo tanto de la desigualdad (3.15) se obtiene:
P[w ∈ Ω : |Bn| > c] ≤ N
c+ P
[w ∈ Ω :
T∫0
f 2(s)ds > N
]∀ N > 0, ∀ c > 0
Entonces para cada ε, podemos elegir Ny c de modo que
N
c+ P
[w :
T∫0
f 2(s)ds > N
]< ε , pues f ∈ Lad(Ω, L
2[0, T ])
64 3.4. La formula de Ito
ası concluimos que P[w ∈ Ω : |Bn| > c] < ε, ∀ n ≥ 1, ε > 0 arbitrario y todo c
suficientemente grande.
Por lo tanto la sucesion de v.a. (Bn)n≥1 es uniformemente acotada en probabilidad.
Ahora la desigualdad de Cauchy implica que:
tk∫tk−1
f(t)dt ≤
( tk∫tk−1
f 2(t)dt
)1/2( tk∫tk−1
1.dt
)1/2
=√
∆kt
( tk∫tk−1
f 2(t)dt
)1/2
entonces
An =n∑k=1
( tk∫tk−1
f(t)dt
)2
≤n∑k=1
∆kt
tk∫tk−1
f 2(t)dt ≤ ‖P‖T∫
0
f 2(t)dt , ∀ n ≥ 1
Como f ∈ Lad(Ω, L2[0, T ]), para cada ε > 0, siempre existe una particion ∆n tal
que:
0 ≤ P
[w ∈ Ω : ‖P‖
T∫0
f 2(t)dt > ε
]<
1
n
Si ‖P‖ → 0 cuando n→∞, entonces:
lım‖P‖→0
P[w ∈ Ω : |An| > ε] ≤ lımn→∞
P
[w ∈ Ω : ‖P‖
T∫0
f 2(t)dt > ε
]= 0
en consecuencia An → 0 en probabilidad.
Lema 3.5 Sea Y un proceso estocastico adaptado y continuo con probabilidad
uno y f, f 2 ∈ Lad(Ω, L2[0, T ]). Para cada particion P = 0 = t0 < t1 < . . . < tn =
T de [0, T ], sean las v.a.:
Hn =n∑k=1
Y (tk−1)
( tk∫tk−1
f(t)dW (t)
)2
hn =n∑k=1
Y (tk−1)
tk∫tk−1
f 2(t)dt
entonces Hn − hn → 0 en probabilidad cuando ‖P‖ → 02.
2Ver demostracion en [6]
3. Extension de la Integral Estocastica y la Formula de Ito 65
Teorema 3.2 Sea f ∈ Lad(Ω, L2[0, T ]) y una sucesion (fn)n≥1 ⊂ Lad(Ω, L
2[0, T ])
tal que
a) fn −→ f(t) en probabilidad ∀ t ∈ [0, T ].
b) Existe ϕ ∈ Lad(Ω, L2[0, T ]) tal que:
|fn(t)| ≤ |ϕ(t)| , ∀ n ≥ 1 y |f(t)| ≤ |ϕ(t)| , ∀ t ∈ [0, T ]
entonces:
lımn→∞
T∫0
fn(t)dW (t) =
T∫0
f(t)dW (t) en probabilidad
Ademas se cumple la desigualdad:
E
∣∣∣∣∣b∫
a
f(t)dW (t)
∣∣∣∣∣4
≤ 36(b− a)
b∫a
E|f(t)|4dt3
Teorema 3.3 (Formula de Ito) Sea X(t) un proceso de Ito dado por:
X(t) = X(0) +
t∫0
f(s)dW (s) +
t∫0
g(s)ds , 0 ≤ t ≤ T, es decir dX(t) = f(t)dW (t) + g(t)dt
Suponer que:
V : [0, T ]× R −→ R
(t, x) 7−→ V (t, x)
es una funcion continua tal que Vt, Vx, Vxx ∈ C([0, T ] × R) entonces el proceso
estocastico:
Y (t) = V (t,X(t)), tambien tiene una diferencial estocastica dada por:
dY (t) =[Vt(t,X(t))− Vx(t,X(t))g(t) +
1
2Vxx(t,X(t))f2(t)
]dt+ Vx(t,X(t))f(t)dW (t) (3.16)
Demostracion:
Debemos probar que para 0 ≤ t ≤ T
Y (t)− Y (0) =
t∫0
(Vt(s,X(s)) + Vx(s,X(s))g(s) +
1
2Vxx(s,X(s))f 2(s)
)dt
+
t∫0
Vx(s,X(s))f(s)dW (s)
3Ver la demostracion en [6]
66 3.4. La formula de Ito
Escojamos una particion ∆ntini=0 de [0, T ], podemos entonces escribir
Y (t)− Y (0) =
n∑k=1
(Y (tk)− Y (tk−1)
)=
n∑k=1
[V (tk, X(tk))− V (tk−1, X(tk−1))
]=
n∑k=1
[V (tk, X(tk))− V (tk−1, X(tk))
]+
n∑k=1
[V (tk−1, X(tk))− V (tk−1, X(tk−1))
]aplicando la formula de Taylor a los dos ultimos sumandos, obtenemos:
Y (t)− Y (0) =n∑k=1
Vt(tk−1 + ρk∆kt,X(tk))∆kt+n∑k=1
Vx(tk−1, X(tk−1))∆kX
+1
2
n∑k=1
Vxx(tk−1, X(tk−1) + λk∆kX)(∆kX)2
(3.17)
donde ρk, λk ∈ 〈0, 1〉, ∆kt = tk − tk−1, ∆kX = X(tk)−X(tk−1).
Como X y Vt son continuas, se cumple que:
lım‖P‖→0
n∑k=1
Vt(tk−1 + ρk∆kt,X(tk))∆kt =
t∫0
V (s,X(s))ds (a)
para el segundo sumando de (3.2), tenemos
n∑k=1
Vx(tk−1, X(tk−1))∆kX =n∑k=1
Vx(tk−1, X(tk−1))(X(tk)−X(tk−1))
=n∑k=1
Vx(tk−1, X(tk−1))
tk∫tk−1
f(t)dW (t)
+n∑k=1
Vx(tk−1, X(tk−1))
tk∫tk−1
g(t)dt
Para el primer sumando, consideremos
fn(t) =n∑k=1
1[tk−1,tk〉Vx(tk−1, X(tk−1))f(t)
entoncest∫
0
fn(t)dW (t) =n∑k=1
Vx(tk−1, X(tk−1))
tk∫tk−1
f(t)dW (t)
3. Extension de la Integral Estocastica y la Formula de Ito 67
Como X y V son continuas en [0, T ]
supk|Vx(tk−1, X(tk−1))| ≤ sup
tsup
|x|≤sups |X(s)||Vx(t, x)| ≤M <∞
por consiguiente:
|fn(t)| ≤M |f(t)| , ∀ t ∈ [0, T ]
y
fn(t) −→ Vx(t,X(t))f(t) , ∀ t ∈ [0, T ]
por lo tanto aplicando el teorema 3.2, se cumple
lım‖P‖→0
n∑k=1
Vx(tk−1, X(tk−1))
tk∫tk−1
f(t)dW (t) = lımn→∞
t∫0
fn(s)dW (s) =
t∫0
Vx(s,X(s))f(s)dW (s)
en probabilidad.
El segundo sumandon∑k=1
Vx(tk−1, X(tk−1))
tk∫tk−1
g(t)dt, como Vx y X son funciones
continuas sobre [0, T ] y R(t) =
t∫0
g(s)ds es de variacion acotada ya que g ∈
Lad(Ω, L1[0, T ])
tk∫tk−1
g(t)dt = R(tk)−R(tk−1)
entonces
lım‖P‖→0
n∑k=1
Vx(tk−1, X(tk−1))(R(tk)−R(tk−1)) =
t∫0
Vx(s,X(s))dR(s)
=
t∫0
Vx(s,X(s))g(s)ds
En consecuencia:
lım‖P‖→0
n∑k=1
Vx(tk−1, X(tk−1))∆kX =
t∫0
Vx(s,X(s))g(s)ds+
t∫0
Vx(s,X(s))f(s)dW (s) (b)
en probabilidad.
Finalmente debemos probar que el tercer sumando en (3.17) converge a:
1
2
t∫0
Vxx(s,X(s))f 2(s)ds , entonces
68 3.4. La formula de Ito
∣∣∣∣∣n∑k=1
Vxx(tk−1, X(tk−1) + λk∆kX)(∆kX)2 −t∫
0
Vxx(s,X(s))f 2(s)ds
∣∣∣∣∣≤
n∑k=1
|Vxx(tk−1, X(tk−1+λk∆kX)|( tk∫tk−1
g(t)dt
)2
+
∣∣∣∣∣2n∑k=1
Vxx(tk−1, X(tk−1+λk∆kX)
tk∫tk−1
g(t)dt
tk∫tk−1
f(t)dW (t)
∣∣∣∣∣
+
∣∣∣∣∣n∑k=1
Vxx(tk−1, X(tk−1)λk∆kX)
( tk∫tk−1
f(t)dW (t)
)2
−t∫
0
Vxx(s,X(s))f 2(s)ds
∣∣∣∣∣pero X y Vxx son continuas sobre [0, T ]
supk|Vxx(tk−1, X(tk−1) + λk∆kX)| ≤ sup
tsup
|x|≤sups |X(s)||Vxx(t, x)| ≤ L <∞
entonces por el lema 3.4, obtenemos que:
n∑k=1
|Vxx(tk−1, X(tk−1) + λk∆kX)|
( tk∫tk−1
g(t)dt
)2
≤ Ln∑k=1
( tk∫tk−1
g(t)dt
)2
→ 0
en probabilidad.
Tambien por la desigualdad de Cauchy y el lema 3.4 obtenemos∣∣∣∣∣n∑k=1
Vxx(tk−1, X(tk−1) + λk∆kX)
tk∫tk−1
g(t)dt
tk∫tk−1
f(t)dW (t)
∣∣∣∣∣≤ L
n∑k=1
∣∣∣∣∣tk∫
tk−1
g(t)dt
tk∫tk−1
f(t)dW (t)
∣∣∣∣∣≤ L
[n∑k=1
( tk∫tk−1
g(t)dt
)2]1/2[ n∑k=1
( tk∫tk−1
f(t)dW (t)
)2]1/2
≤ L(Bn)1/2
[n∑k=1
( tk∫tk−1
g(t)dt
)2]1/2
, Bn es uniformemente acotada, ∃C > 0 tal que
≤ LC
[n∑k=1
( tk∫tk−1
g(t)dt
)2]1/2
−→ 0 en probabilidad.
Y por ultimo aplicando el lema 3.5 con Y (tk−1) = Vxx(tk−1, X(tk−1) + λk∆kX) se
obtienen∑k=1
Y (tk−1)
( tk∫tk−1
f(t)dW (t)
)2
−→t∫
0
Vxx(s,X(s))f 2(s)ds
3. Extension de la Integral Estocastica y la Formula de Ito 69
en probabilidad cuando ‖P‖ → 0.
En consecuencia
n∑k=1
Vxx(tk−1, X(tk−1) + λk∆kX)(∆kX)2 −→t∫
0
Vxx(s,X(s))f 2(s)ds (c)
en probabilidad.
Por lo tanto (a), (b) y (c) implican que cuando ‖P‖ → 0 en (3.17) se cumple
Y (t)− Y (0) =
t∫0
[Vt(s,X(s)) + Vx(s,X(s))g(s) +
1
2Vxx(s,X(s))f 2(s)
]ds
+
t∫0
Vx(s,X(s))f(s)dW (s).
70 3.4. La formula de Ito
Capıtulo 4
Aplicaciones de la Integral Estocastica
Una de las herramientas mas utiles en las matematicas financieras modernas
es el calculo estocastico o tambien llamado calculo de Ito, sobre el cual descansa
toda la teorıa economica y el analisis financiero en tiempo continuo y en ambientes
estocasticos.
En este ultimo capıtulo se desarrollan varias aplicaciones de la Integral estocastica y
la Formula de Ito a fin de comprender la potencia de estos resultados en el desarrollo
de la teorıa economica y financiera.
4.1. Motivacion: Ecuaciones Diferenciales Estocasti-
cas
Muchos fenomenos naturales se pueden modelar por una ecuacion diferencial
ordinaria: x(t) = b(t, x(t)) , t ∈ I ⊂ R
x(0) = x0
(4.1)
Sin embargo cuando se considera un efecto perturbador aleatorio, como por ejemplo
el ruido blanco, el cual se define formalmente como la derivada generalizada del
movimiento Browniano con respecto al tiempo.
ξ(t) :=dW (t)
dt= W (t)
71
72 4.1. Motivacion: Ecuaciones Diferenciales Estocasticas
el modelo se puede representar del siguiente modo:
dX(t)
dt= b(t,X(t)) + σ(t,X(t))ξ(t)
donde σ(t, x) es “intensidad” del ruido en el punto x en el instante t.
En el calculo de Ito, W (t) y dt son combinados para formar la diferencial Brow-
niana dW (t). Ası la ecuacion diferencial estocastica:
“dX(t) = b(t,X(t))dt+ σ(t,X(t))dW (t)”
es justamente la expresion simbolica de este hecho.
La cual debe ser interpretada formalmente en su forma integral es decir:
X(t) = X(0) +
t∫0
b(s,X(s))ds+
t∫0
σ(s,X(s))dW (s) , 0 ≤ t ≤ T (4.2)
En terminos estrictos el objeto de estudio del calculo estocastico es la integral y no la
diferencial. Cuando se escribe una ecuacion diferencial estocastica realmente se esta
pensando en una integral estocastica, asi pues una ecuacion diferencial estocastica
es una notacion simplificada de una integral estocastica.
Ejemplo 4.1 (Modelo de Louis Bachelier) Louis Bachelier (1870-1946), de
nacionalidad francesa , por susu excepcionales contribuciones a la teorıa financiera
ha sido llamado el “Padre de las matematicas financieras modernas”. Su tesis doc-
toral titulada “Theorie de la Speculation”, presentada en 1900, cuando tenia 30
anos, en la Sorbonne de Parıs distingue a las finanzas como una ciencia sujeta
al rigor matematico. Louis Bachelier se adelanto a su tiempo con la introduccion
de conceptos tales como: Movimiento Browniano, proceso Markovniano, esperanza
condicional y martingala, lo sorprendente es que todos estos conceptos fueron redes-
cubiertos y popularizados por prominentes matematico, varios anos despues, tales
como Markov, Kolmogorov y Levy.
En su tesis, Louis Bachelier propone el siguiente modelo estocastico del compor-
4. Aplicaciones de la Integral Estocastica 73
tamiento aleatorio de los precios de las acciones de la Bolsa de Parıs:dX(t) = µdt+ σdW (t) , t ≥ 0, µ ∈ R y σ ∈ R+
X(0) = x0 > 0
(1)
donde X = (X(t))t≥0 es el proceso estocastico que representa el precio del activo
financiero, µ es el rendimiento medio esperado del activo y σ > 0 la volatilidad
instantanea del activo y W (t, w) un movimiento Browniano definido en un espacio
fijo de probabilidad (Ω,F ,P) equipado con una filtracion F = Ft; 0 ≤ t ≤ T .
Entonces la ecuacion (4.2) implica que su solucion con valor inicial x0 (precio
inicial) es:
X(t) = X(0) +
t∫0
µds+
t∫0
σdW (s) = x0 + µt+ σW (t)
Ası la solucion de (1) es un movimiento Browniano con valor inicial x0, tendencia
µ y volatilidad σ, ademas E[X(t)] = x0 + µt y V ar[X(t)] = σ2t.
Ejemplo 4.2 dX(t) = µdt+ σtdW (t) , 0 ≤ t ≤ T
X(0) = X0
(2)
Su solucion es dada por:
X(t) = X(0) +
t∫0
µds+
t∫0
σsdW (s)
X(t) = (X0 + µt) + σ
t∫0
sdW (s)
X(t) = X0 + µt+ σtW (t)− σt∫
0
W (s)ds
donde se ha utilizado el hecho de que f(s) = s es continua y de variacion acotada
para definir la integral
t∫0
f(s)dW (s) := f(s)W (s)∣∣t0−
t∫0
W (s)df(s)
74 4.2. Aplicaciones de la formula de Ito
este tipo de integral donde el integrando no es aleatorio es llamada integral de Wiener
y es un caso particular de integral de Ito.
Ası la solucion de (2) es un proceso Gaussiano mas no un movimiento Brow
niano, para cada t, X(t) es una variable aleatoria normal con media y varianza
dadas por:
E[X(t)] = X0 + µt
V ar[X(t)] =
[(X0 + µt)2 + σ2 t
3
3
]− (X0 + µt)2 ,
= σ2 t3
3.
4.2. Aplicaciones de la formula de Ito
Aun cuando una ecuacion diferencial estocastica es la notacion simplificada de
una integral estocastica, las reglas que se establecen con la notacion diferencial y los
resultados que a partir de ella se desprenden son consistentes con las propiedades
de la integral estocastica.
Asombrosamente, la diferencial estocastica permite, en muchos casos, obtener re-
sultados de una manera mas rapida y sencilla sobre la integral estocastica, como se
vera en el transcurso de la presente seccion.
Sea X(t); 0 ≤ t ≤ T la solucion de la ecuacion diferencial estocastica
dX(t) = b(X(t), t)dt+ σ(X(t), t)dW (t)
y f(x, t) una funcion determinıstica la cual es continuamente diferenciable en t y dos
veces continuamente diferenciable en x, entonces el proceso estocastico f(X(t), t); 0 ≤
t ≤ T es solucion de la siguiente ecuacion diferencial estocastica, (Teorema 3.3).
df(X, t) =
[∂f(X, t)
∂t+b(X, t)
∂f(X, t)
∂x+
1
2σ2(X, t)
∂2f(X, t)
∂x2
]dt+σ(X, t)
∂f(X, t)
∂xdW
O en forma alternativa:
df(X, t) =
[∂f
∂t(X, t) +
∂f
∂x(X, t)dX
]+
1
2σ2(X, t)
∂2f
∂x2(X, t)dt
4. Aplicaciones de la Integral Estocastica 75
Esta es la version uno−dimensional de la Formula de Ito, el el caso multidimen-
sional tenemos el siguiente resultado.
Sean W1(t),W2(t), . . . ,Wm(t) m−movimientos Brownianos independientes, conside-
rar n procesos de Ito X1(t), X2(t), . . . , X(m)(t) dados por:
X(i)(t) = X(i)(0) +m∑k=1
t∫0
σik(s)dWk(s) +
t∫0
bi(s)ds , 1 ≤ i ≤ n (4.3)
donde σij ∈ Lad(Ω, L2[0, T ]) y bi ∈ Lad(Ω, L
1[0, T ]) para todo 1 ≤ i ≤ n y
1 ≤ k ≤ m. Si introducimos la siguiente notacion matricial:
W (t) =
W1(t)
...
Wm(t)
, X(t) =
X(1)(t)
...
X(n)(t)
σ(t) =
σ11(t) · · · σ1m(t)
.... . .
...
σn1(t) · · · σnm(t)
, b(t) =
b1(t)
...
bn(t)
Entonces la ecuacion (4.3) puede escribirse como:
X(t) = X(0) +
t∫0
b(s)s+
t∫0
σ(s)dW (s)
Podemos extender la formula de Ito al caso multidimensional:
Teorema 4.1 Sea f(t, x1, x2, . . . , xn) una funcion continua sobre [0, T ] × Rn y
con derivadas parciales continuas∂f
∂t,∂f
∂xi,∂2f
∂xi∂xjpara 1 ≤ i, j ≤ n. Entonces la
diferencial estocastica de f(t,X(1)(t), . . . , X(n)(t)) es dada por:
df(t,X(1)(t), . . . , X(n)(t)) =∂f
∂t(t,X(1)(t), . . . , X(n)(t))dt
+
n∑i=1
∂f
∂xi(t,X(1)(t), . . . , X(n)(t))dX(i)(t)
+1
2
n∑i,j=1
∂2f
∂xi∂xj(t,X(1)(t), . . . , X(n)(t))dX(i)(t)dX(j)(t) (4.4)
donde el producto dX(i)(t)dX(j)(t) debe ser calculado usando la siguiente tabla (lla-
mada tabla de Ito)1
1Para la demostracion ver [3]
76 4.2. Aplicaciones de la formula de Ito
X dWj(t) dt
dWi(t) δijdt 0
dt 0 0
Otro resultado importante es la formula de integracion por partes estocastica o
regla del producto estocastico, la cual es una consecuencia de la formula de Ito
multidimensional al considerar la funcion:
f : [0, T ]× R2 −→ R
(t, x, y) 7−→ f(t, x, y) = xy
∂f
∂t= 0 ,
∂f
∂x= y ,
∂f
∂y= x ,
∂f
∂y∂x=
∂f
∂x∂y= 1 ,
∂2f
∂x2=∂2f
∂y2= 0
reemplazando en la ecuacion (4.4) para dos procesos de Ito X(t) e Y (t) obtenemos:
d(X(t)Y (t)) = Y (t)dX(t) +X(t)dY (t) + dX(t)dY (t) (4.5)
Por lo tanto:
X(t)Y (t) = X(0)Y (0) +
t∫0
Y (s)dX(s) +
t∫0
X(s)dY (s) +
t∫0
dX(s)dY (s) (4.6)
Ecuacion (4.5) es llamada regla del producto estocastico y ecuacion (4.6) formula
de integracion por partes estocastica.
Ejemplo 4.3 (Modelo de Tasa Corta de Interes de Hull y White) . Jhon
Hull y Alan White, de la Universidad de Toronto, han acumulado una prominenete
produccion de mas de 20 artıculos elaborados de manera conjunta. Sus investiga-
ciones han abordado muchas y muy variadas areas de las matematicas financieras.
En 1990 publican el artıculo “Pricing Interest Rate Derivative Securities”, en el
“Review of Financial Studies”, donde proponen que el nivel de largo plazo de la tasa
corta depende del tiempo la cual se denotara por β(t) asi la dinamica de la tasa
corta es conducida por la siguiente ecuacion diferencial estocastica:
dr(t) = α(β(t)− r(t))dt+ σdW (t) (4.7)
donde α y σ son constantes positivas.
4. Aplicaciones de la Integral Estocastica 77
Consideremos primero el caso especial σ = 0 y β(t) = 0 ∀ t > 0.
En este caso la ecuacion se convierte en una EDO
dr
dt= αr
Esta EDO tiene la solucion Ce−αt con constante arbitraria C, ahora busquemos la
solucion de (4.10) en la forma:
r(t) = Y (t)e−αt , Y (t) = r(t)eαt
para algun proceso incognita Y = (Y (t))t≥0. Para obtener una EDE para Y = (Y (t))
aplicamos el Lema de Ito a la funcion f(t, r) = reαt :
∂f
∂t(t, r) = αf(t, r) ,
∂f
∂r(t, r) = eαt y
∂2f
∂r2(t, r) = 0
Ası:
dY = αY dt+ eαtdr = αY dt+ eαt(α(β(t)− r(t))dt+ σdW )
= αY dt+ αβ(t)eαtdt− eαtαr(t)dt+ σeαtdW
= αeαtβ(t)dt+ σeαtdW
Notar que el lado derecho de la ecuacion no depende de Y (t), entonces integrando
ambos lados directamente obtenemos
Y (t) = Y (0) + α
t∫0
e−αsβ(s)ds+ σ
t∫0
eαsdW (s)
La condicion adicional esta dada por:
Y (0) = r(0)e0 = r(0)
Por lo tanto:
r(t)eαt = r(0) + α
t∫0
eαsβ(s)ds+ σ
t∫0
eαsdW (s) ,
r(t) = r(0)e−αt + α
t∫0
eα(t−s)β(s)ds+ σ
t∫0
eα(s−t)dW (s)
78 4.2. Aplicaciones de la formula de Ito
Notar que el unico termino aleatorio es
σ
t∫0
eα(s−t)dW (s)
Se sigue del teorema 2.1 que este termino representa una variable aleatoria normal
con media cero y varianza dada por:
σ2
t∫0
e2α(s−t)ds
Entonces para cada t fijo, r(t) es una variable aleatoria normal con media y varianza
dados por:
E[r(t)] = r(0)e−αt + α
t∫0
eα(s−t)β(s)ds
V ar[r(t)] = σ2
t∫0
e2α(s−t)ds =σ2
2α[−1− e−2αt]
Por lo tanto el proceso r = (r(t))t≥0 es un proceso Gaussiano, mas no un movimiento
Browniano.
Un caso particular es cuando β(s) = β (Proceso de Tasa Corta del Modelo de
Vasicek), en este caso la solucion esta dada por:
r(t) = r(0)e−αt + β(1− e−αt) + σ
t∫0
eα(s−t)dW (s)
si r(0) = β entonces E[r(t)] = β ∀ t ≥ 0, asi el proceso presenta reversion a la
media.
y si r(0) 6= β, lımt→∞
E[r(t)] = β > 0 y
lımt→∞
V ar[r(t)] =σ2
2α> 0
Entonces r(t) ∼ N
(β,σ2
2α
)cuando t → ∞, en particular existe una probabilidad
positiva de que r(t) sea negativa, esta es una de las principales objeciones de este
modelo.
4. Aplicaciones de la Integral Estocastica 79
El profesor Oldrich Alfons Vasicek ha publicado mas de 30 artıculos en Journals
financieros y matematicos y ha recibido varios premios y reconocimientos por su
destacada labor academica. Su modelo de equilibrio para determinarla estructura
de plazos de la tasa de interes “An Equilibrium Characterization of the Term Struc-
ture”, publicada en 1977, es reconocida generalmente como pionero en la teorıa de
tasas de interes en tiempo continuo.
Ejemplo 4.4 (Modelo de Tasa Corta de Interes de Cox, Ingersoll y Ross) El
modelo propuesto por Cox, Ingersoll y Ross en su artıculo “A Theory of the Term
Structure of Interest Rate ”, publicado en 1985 en “Econometrica” se concentra en la
dinamica de la tasa corta conducida por la siguiente ecuacion diferencial estocastica:
dr(t) = α(β − r(t))dt+ σ√r(t)dW (t) (4.8)
α, β y σ constantes positivas. A diferencia del Modelo de Vasicek la ecuacion (4.8)
no tiene una solucion explıcita, la ventaja de (4.8) sobre el modelo anterior es que
la tasa de interes en el modelo de Cox, Ingersoll y Ross no toma valores negativos.
Si r(t) alcanza el valor cero, entonces el termino de difusion σ√r(t) se anula y el
termino de direccion α(β − r(t)) > 0, conduce el proceso a una region donde toma
nuevamente valores positivos1.
Aunque no podemos obtener una solucion explıcita de (4.8), podemos determinar
la distribucion de r(t) para cada t > 0.
para esto usamos la funcion f(t, x) = eαtx y la formua de Ito para calcular:
d(eαtr(t)) = df(t, r(t))
=∂f
∂t(t, r(t))dt+
∂f
∂x(t, r(t))dr(t) +
1
2
∂2f
∂x2(t, r(t))dt
= αeαtr(t)dt+ αeαt(β − r(t))dt+ eαtσ√r(t)dW (t)
= αβeαtdt+ σeαt√r(t)dW (t) (4.9)
1Ver [9]
80 4.2. Aplicaciones de la formula de Ito
Integrando ambos lados de (4.9)
eαtr(t) = r(0) + αβ
t∫0
eαsds+ σ
t∫0
eαs√r(s)dW (s)
= r(0) + β(eαt − 1) + σ
t∫0
eαs√r(s)dW (s)
recordando que la media de una integral de Ito es cero, obtenemos:
eαtE[r(t)] = r(0) + β(eαt − 1)
E[r(t)] = r(0)e−αt + β(1− e−αt)
la cual es la misma, como en el modelo de Vasicek.
Para calcular la varianza de r(t), sea X(t) = eαtr(t)
dX(t) = αβeαtdt+ σeαt√r(t)dW (t)
= αβeαtdt+ σeαt2
√X(t)dW (t)
y asi E[X(t)] = r(0)+β(eαt−1). Usando nuevamente la formula de Ito con f(x) = x2,
f ′(x) = 2x y f ′′(x) = 2
d(X2(t)) = 2X(t)dX(t) + dX(t)dX(t)
= 2αβeαtX(t)dt+ 2σeαt2 X
32 (t)dW (t) + σ2eαtX(t)dt
Integrando:
X2(t) = X2(0) + (2αβ + σ2)
t∫0
eαsX(s)ds+ 2σ
t∫0
eαs2 X
32 (s)dW (s)
Tomando esperanzas y usando la formula ya obtenida para E[X(t)], obtenemos
E[X2(t)] = X2(0) + (2αβ + σ2)
t∫0
eαsE[X(s)]ds
= r2(0) + (2αβ + σ2)
t∫0
eαs (r(0) + β(eαs − 1)) ds
= r2(0) +
(2αβ + σ2
α
)(r(0)− β) (eαt − 1) +
2αβ + σ2
2αβ(e2αt − 1)
4. Aplicaciones de la Integral Estocastica 81
Por lo tanto:
E[r2(t)] = e−2αtE[X2(t)]
E[r2(t)] = e−2αtr2(0)+
(2αβ + σ2
α
)(r(0)− β) (e−αt−e−2αt)+
β(2αβ + σ2)
2α(1−e−2αt)
Finalmente
V ar[r(t)] = E[r2(t)]− [E(r(t))]2
=σ2
αr(0)(e−αt − e−2αt) +
βσ2
2α(1− 2e−αt + e−2αt)
En particular cuando t→∞ la distribucion de r(t) converge a una variable aleatoria
con la siguiente distribucion:
lımt→∞
E[r(t)] = β
lımt→∞
V ar[r(t)] =βσ2
2α
Ejemplo 4.5 (Modelo de Paul Samuelson) En 1965,Paul Samuelson publi-
ca su artıculo “Rational Theory of Warrant Price”, en donde se introduce el con-
cepto de Movimiento economico Browniano, lo que en la actualidad se conoce co-
mo Movimiento Geometrico Browniano. Cuando Samuelson resuelve el problema de
Bachelier, eliminando la posibilidad de que un activo financiero tenga precios nega-
tivos, se crean nuevos inconvenientes con la aparicion de parametros desconocidos,
el primer parametro es el rendimiento medio esperado del activo, y el segundo la
volatilidad instantanea del mismo.
Samuelson supone que la dinamica estocastica del precio del activo es conducido por
un proceso de la forma:dS(t) = µS(t) + σS(t)dW (t) 0 ≤ t ≤ T
S(0) = S0
(4.10)
donde µ > 0 es el rendimiento medio esperado del activo, σ 6= 0 la volatilidad instan-
tane por unidad de tiempo y S = (S(t))t≥0 es el proceso estocastico que representa
el precio del activo financiero.
82 4.2. Aplicaciones de la formula de Ito
El precio inicial S(0) = S0 es conocido y no aleatorio.
Puesto que (4.10) no puede ser resuelta directamente, buscamos un cambio de va-
riable adecuado que nos permita resolver la ecuacion.
Asumir que σ = 0, tenemos:
dS = µSdt o d(lnS) = µdt
Esto nos sugiere que la transformcion adecuada debe de ser f(t, S) = lnS, aplicando
la formula de Ito obtenemos el proceso estocastico seguido por f(t, S):
d(lnS) =
(µ− σ2
2
)dt+ σdW (4.11)
y ası podemos integrar directamente
lnS(t) = lnS(0) +
t∫0
(µ− σ2
2
)ds+
t∫0
σdW (s)
= lnS0 +
(µ− σ2
2
)t+ σW (t)
Por lo tanto la solucion de la ecuacion (4.10) es:
S(t) = S0 exp
(µ− σ2
2
)t+ σW (t)
(4.12)
Notar que S(t) > 0 ∀ t ∈ [0, T ]. El proceso S(t) es llamado movimiento Geometrico
Browniano.
Para calcular la media y la varianza del proceso S(t), utilizamos la funcion generante
de momentos de una variable aleatoria normal Z ∼ N(0, 1) la cual es dada por
E[exp (sZ)] = exp
(1
2s2
)y puesto que Z =
W (t)√t∼ N(0, 1), obtenemos
E[S(t)] = E[S0 exp
[(µ− σ2
2
)t
]· exp (σW (t))
]= S0 exp
[(µ− σ2
2
)t
]· E[exp (σW (t))]
= S0 exp
[(µ− σ2
2
)t
]· exp
[σ2
2t
]= S0e
µt
4. Aplicaciones de la Integral Estocastica 83
E[S2(t)] = E[S2
0 exp
(2
(µ− σ2
2
)t+ 2σW (t)
)]= S2
0 exp
(2
(µ− σ2
2
)t
)E [exp (2σW (t))]
= S20 exp
(2
(µ− σ2
2
)t
)exp (2σ2t)
Y ası:
V ar[S(t)] = S20 exp (2µt)[exp (σ2t)− 1]
En la siguiente seccion bosquejamos una de las mas importantes aplicaciones a
la matematica financiera.
4.3. La ecuacion diferencial parcial de Black, Mer-
ton y Scholes
En 1973, Fisher Black y Myron Scholes publicaron su artıculo “The Pricing Op-
tions and Corporate Liabilities”, en el “Journal of Political Economy”, en este Black
y Scholes obtienen una ecuacion diferencial parcial de segundo orden parabolica y
lineal, cuya solucion es el precio de una opcion europea de compra.1. Sin duda, es
tambien inportante destacar el articulo de Robert Merton, “Theory of Rational Op-
tion Pricing”, publicado en 1973 en el “Bell Journal and Management Science”,en
donde se obtuvieron resultados similares a los de Black y Scholes y varias exten-
siones.
Suponer que el precio del activo subyacente al tiempo t , S(t) ( por ejemplo ac-
ciones de una companıa financiera), es conducido por el Movimiento Geometrico
Browniano, propuesto por Samuelson
dS(t) = µS(t) + σS(t)dW (t) 0 ≤ t ≤ T
1Una opcion (financiera)europea de compra, es un acuerdo entre dos partes que obliga (legal-
mente) a una de las partes a vender un activo financiero, S, mientras que la contraparte le otorga
el derecho mas no la obligacion de comprar dicho activo a un precio preestablecido, P, en una fecha
futura, T.
84 4.3. La ecuacion diferencial parcial de Black, Merton y Scholes
La pregunta basica es la siguiente:
¿Cual es el “precio justo” en el instante t = 0, de esta opcion?
En otras palabras, si tu eres un corredor de bolsa y deseas vender a tus clientes esta
opcion de compra, ¿cuanto deberıas cobrar?.
Sea s ≥ 0 y 0 ≤ t ≤ T , u(s, t) denotara el “precio justo” de la opcion en el instante
t, dado S(t) = s, entonces u(S0, 0) es el precio justo que estamos buscando.
Necesitamos calcular u, para esto, notar que en la fecha de vencimiento t = T ,
tenemos
u(s, T ) = (s− P )+ (s ≥ 0)
Ademas, si s = 0, entonces S(t) = 0 para todo 0 ≤ t ≤ T y ası
u(0, t) = 0 (0 ≤ t ≤ T )
Definimos el proceso estocastico:
C(t) := u(S(t), t) (0 ≤ t ≤ T )
Ası C(t) es el valor de la opcion de compra en el instante t y es aleatorio puesto que
el precio del activo S(t) es aleatorio. Usando la formula de Ito y ecuacion (4.10),
obtenemos:
dC(t) =∂u
∂t(S(t), t)dt+
∂u
∂s(S(t), t)dS(t) +
σ2
2S2(t)
∂2u
∂s2(S(t), t)dt
=
[∂u
∂t(S(t), t) +
∂u
∂s(S(t), t)µS(t) +
σ2
2S2(t)
∂2u
∂s2(s(t), t)
]dt
+σS(t)∂u
∂s(S(t), t)dW (t) (4.13)
Se supone que existe un mercado de credito libre de riesgo de incumplimiento, es
decir un sistema bancario en la que los agentes pueden prestar o pedir prestado a
una tasa constante r, a todos los plazos y en consecuencia libre de riesgo de mercado,
la cual se aplica en forma continuamente capitalizable.
4. Aplicaciones de la Integral Estocastica 85
Por ejemplo, si un agente deposita B(0) unidades monetarias, entonces el saldo en
su cuenta bancaria, al tiempo t, esta dada por la solucion de la ecuacion diferencial
ordinaria: dB(t) = rB(t)dt
B(0) = 1
(4.14)
Ası B(t) = ert, la idea clave (de R.Merton) es encontrar dos procesos estocasticos φ
y ψ tales que
C = φS + ψB (0 ≤ t ≤ T ) (4.15)
el punto es que si podemos construir φ y ψ tal que (4.15) sea valido y ademas que
el cambio de C solo dependa del correspndiente en S y B, esto es:
dC = φdS + ψdB (4.16)
entonces podemos eliminar el riesgo (o aleatoriedad).
Combinando las ecuaciones (4.13), (4.14) y (4.16), obtenemos
φ[µSdt+ σSdW ] + ψrBdt =
(∂u
∂t+∂u
∂sµS +
σ2
2S2∂
2u
∂s2
)dt+ σS
∂u
∂sdW (4.17)
Ası si (4.15) es valido, (4.17) tambien lo debe ser, e intentaremos seleccionar φ y ψ
tal que esto sea ası:
σφSdW = σS∂u
∂sdW
entonces
φ(t) :=∂u
∂s(S(t), t) 0 ≤ t ≤ T
Ası (4.17) se simplifica: (∂u
∂t+σ2
2S2∂
2u
∂s2
)dt = rψBdt
pero ψB = C − φS = u− ∂u
∂sS, en consecuencia
(∂u
∂t+σ2
2S2∂
2u
∂s2
)dt = r
(u− ∂u
∂sS
)dt(
∂u
∂t+ rS
∂u
∂s+σ2
2S2∂
2u
∂s2− ru
)dt = 0
86 4.3. La ecuacion diferencial parcial de Black, Merton y Scholes
Finalmente para evaluar nuestra opcion de compra, debemos resolver el problema
de valor de frontera1.∂u∂t
+ rs∂u∂s
+ σ2
2s2 ∂2u
∂s2− ru = 0 (s > 0, 0 ≤ t ≤ T )
u = (s− P )+ (s > 0, t = T )
u = 0 (s = 0, 0 ≤ t ≤ T )
(4.18)
1Detalles sobre la solucion explıcita de este problema se encuentran en [10]
Conclusiones
Al realizar el presente trabajo, se ha llegado a las siguientes conclusiones:
1. Se ha definido la integral estocastica en el sentido de Ito, la cual es una integral
del tipo Riemann-Stieltjes de una funcion medible con respecto a otra funcion
llamada Movimiento Browniano, ambas de variacion no acotada.
2. Se ha definido la integral estocastica de manera progresiva sobre la cadena de
espacios de procesos estocasticos:
E ⊂ L2ad([0, T ]× Ω) ⊂ Lad(Ω, L
2[0, T ])
usando la densidad de cada uno en el siguiente.
3. Se deduce la formula de Ito, la cual es la version estocastica de la regla de la
cadena del calculo determinıstico.
4. Se aplica la formula de Ito para deducir modelos matematicos en las finan-
zas, tales como el modelo de Louis Bachelier, Paul Samuelson, Fischer Black y
Myron Scholes entre otros. Asimismo, se discutieron las relaciones y la evolu-
cion de las ideas y formulaciones de dichos modelos, destacando el contexto
historico y social en los que se desarrollaron.
87
88 4.3. La ecuacion diferencial parcial de Black, Merton y Scholes
Bibliografıa
[1] Black F.; Scholes M. The pricing of option and corporate liabilities, Journal
of Political Economic Vol 81, 1973
[2] Hui Hsiung Kuo. Introduction to Stochastic Integration, Springer 2005.
[3] Kiyosi Ito. Stochastic Integral, Proceedings of the Imperial Academy of
Tokyo, 1944.
[4] Lawrence, Evans. Introduction to Stochastic Differential Equations, UC
Berkeley, 2006
[5] Marek Capinsky. Measure Integral and Probability, Springer, 2007
[6] Rubio M, Obidio E. Ecuaciones Diferenciales Estocasticas, Tesis. 1990.
[7] Venegas M, Francisco. Riesgos Financieros y Economicos, Cengage Learn-
ing, 2008
[8] Wilmott Paul, Howison Sam, Dewynne Jeff. The Mathematics of Fi-
nancial Derivatives. Cambridge, University Press, 1995
89