wschebor-procesos-estocasticos

Upload: cesar-a-ramos-millan

Post on 07-Apr-2018

215 views

Category:

Documents


0 download

TRANSCRIPT

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    1/76

    NOTAS PARA EL CURSO DE INTRODUCCION

    A LOS PROCESOS ESTOC ASTICOS.

    2o. SEMESTRE DE 2003.

    Mario WscheborE mail: [email protected]

    February 27, 2004

    1 MARTINGALAS CON TIEMPO DISCRETO.

    1.1 Esperanzas condicionales

    Denici on.(, A , P ) espacio de probabilidad

    X : Rvariable aleatoria, X L1.F sub--algebra de A .

    Se dene, para cada A

    F ,(A) = E (X. 1A)

    es una medida nita signada sobre F , absolutamente continua con respectoa P/ F . Por la tanto, existe la derivada (de Radon-Nykodim) de conrespecto a P/ F , que denotamos ddP .

    Se dene la esperanza condicional de la variable aleatoria X dada la-algebra F :

    E (X/ F ) =ddP

    .

    es decir que E (X/ F ) es la unica funci on (m odulo la probabilidad P ) de

    Rtal que1. E (X/ F ) es F -medible,

    2. A X dP = A E (X/ F ) dP AF1

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    2/76

    Propiedades de las esperanzas condicionales.

    1. X E (X/ F ) es lineal y mon otona.

    2. Si F = {, }, entonces E (X/ F ) = E (X ) c.s. [notar que E [E (X/ F )] =E (X )].

    3. Mas en general, si FG son sub -algebras de A , se verica que c.s.

    E (X/ F ) = E [E (X/ G ) / F ]

    4. X n 0, X n X c.s. =E (X n / F ) E (X/ F ) c.s.5. Si X es F -medible y XY

    L

    1, entonces

    E (XY/ F ) = XE (Y/F ) c.s.

    Para probar esto, hacerlo primero cuando Y 0, X = 1 B , bF .Luego extender.6. X independiente de F (i.e. las variables aleatorias X y 1A son inde-

    pendientes AF ) =

    E (X/ F ) = E (X ).

    7. (caso nito)Sea {A1,...,A m}una particion medible de (es decir que A1,...,A m A , son 2 a 2 disjuntos y j = m j =1 A j = ). Suponemos que P (A j ) > 0, j = 1 ,...,m y denotamos F = (A1,...,A m ) = mnima -algebra departes de que contiene a los conjuntos A1,...,A m = familia de todaslas posibles uniones de los conjuntos dados A1,...,A m .

    Sea X : Runa variable aleatoria que toma un n umero nito devalores, {x1,....,x n}.Entonces,

    E (X/ F ) () =n

    k=1

    xk .P (X = xk /A j ) A j (1)

    donde si P (F ) > 0, P (E/F ) = P (E F )P (F ) .

    2

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    3/76

    Es decir que sobre cada conjunto A j , E (X/ F ) es constante y asume elvalor indicado; es claro que esa funcion es .F -medible. De modo quepara probar (1) hay que probar que

    A X dP = A m j =1 1A jn

    k=1

    xk .P (X = xk /A j ) dP AF .

    Basta hacerlo para A = A j . Es inmediato.

    En particular , si Y es una nueva variable aleatoria que toma un n umeronito de valores (2 a 2 =) y1,...,ym y A j = {Y = y j}, usaremos lanotaci on

    E (X/Y = y j ) =

    n

    k=1xk .P (X = xk /Y = y j )

    donde el primer miembro se debe interpretar como E (X/ F ) () conY () = y j .

    Observaciones .

    Si en lugar de una partici on nita consideramos una partici onnumerable de , todo lo anterior vale sin cambios signicativos. Heursticamente, el signicado de E (X/Y = y j ) es el del valor

    esperado de la variable aleatoria X , cuando sabemos ocurrio

    el evento de que la variable aleatoria Y toma el valor y j , esdecir, el valor esperado de una variable aleatoria que toma losmismos valores posibles que X , o sea x1,....,x n , pero no con lasprobabilidades originales (que son P (X = xk) , k = 1 ,...,n ) sinocon las probabilidades condicionales P (X = xk /Y = y j ). Claroque esto es posible si P (Y = y j ) > 0, aplicando la denicionelemental de probabilidad condicional.En cambio, si la variable aleatoria Y no es discreta (es decir,si la distribucion de Y no es puramente at omica) tenemos di-cultades, porque el evento {Y = y j }que gura como condicion,puede tener probabilidad nula. Podramos tratar de aproximarese evento por eventos pr oximos con probabilidad peque na, es-cribir la probabilidad condicional como cociente y luego pasar allmite; esta es la idea de derivar la probabilidad, aunque la formarigurosa de hacerlo en el caso general es mediante el teorema deRadon-Nykodim. Este es el motivo de la denicion formal deesperanza condicional que dimos al principio.

    3

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    4/76

    8. (pareja de variables aleatorias con densidad conjunta)

    Consideremos como espacion de probabilidad el espacio producto E 1E 2, donde E 1 R, E 2 R, y una medida P sobre la -algebra deBorel, absolutamente continua con respecto a la medida de Borel, condensidad f (x, y).

    Denotamos mediante X, Y las variables aleatorias coordenadas (es de-cir, X (x, y) = x, Y (x, y ) = y), que son variables aleatorias a valoresreales, cuyas distribuciones de probabilidad tienen densidades respec-tivas

    pX (x) =

    +

    f (x, y)dy, pY (y) =

    +

    f (x, y)dx

    (las densidades marginales).

    Sea F la sub -algebra de la -algebra de Borel de E 1E 2 engendradapor todos los conjuntos de la forma E 1 B, donde B es un Borelianoen E 2. Observar que una funcion denida en E 1 E 2, medible conrespecto a F , es solo funcion de la segunda coordenada y. Eso ocurre,por lo tanto con E (X/ F ) y tenemos derecho a escribir

    (y) = E (X/ F ) (x, y ).

    Entonces, para cada pareja de reales y1, y2, y1 < y 2 :

    E X 1[y1 ,y2 ](Y ) = E E (X/ F ) 1[y1 ,y2 ](Y ) (2)

    usando 2. y 4. ut supra (observar que la variable aleatoria 1 [y1 ,y2 ](Y )es F -medible).

    Reemplazando en ambos miembros de (2), se tiene la igualdad:

    + dx y2

    y1x.f (x, y)dy = + dx

    y2

    y1(y).f (x, y )dy

    que implica (Teorema de Fubini mediante):

    (y) = 1 pY (y)

    +

    x.f (x, y)dx = +

    x.f (x/y )dx con f (x/y ) = f (x, y)

    pY (y)

    donde la igualdad vale m odulo P Y , la distribucion de probabilidad deY .

    f (x/y ) es la densidad condicional de X dado que Y = y.

    4

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    5/76

    9. (desigualdad de Jensen para esperanzas condicionales)

    Sean : R1 R1 convexa, X una variable aleatoria en L1 y tal queY = X L1.Entonces

    [E (X/ F )] E ( (X ) / F ) c.s. (3)Para probar (3), como es convexa, para cada x Rpodemos en-contrar (x) (coeciente angular de una recta de apoyo al gr aco de en x), de modo que

    (y) (x) + (x)(y x) y R (4)Mas aun, podemos elegir la funcion de modo que sea Borel-medible,ya que una elecci on posible es

    (x) = limn+

    (x + 1n ) (x)1n

    y para cada n, la funcion

    x(x + 1n ) (x)

    1n

    es continua y, por lo tanto, Borel medible. (Recordar que el lmite

    puntual de funciones medibles es medible).Reemplazando en (4) y por X () y x por E (X/ F ) () se obtiene:

    (X ) (E (X/ F )) + (E (X/ F )) [X E (X/ F )](donde, como es habitual, hemos suprimido en ambos miembros).Ahora tomamos esperanza condicional dada F en ambos miembros yusamos que la variable aleatoria

    (E (X/ F ) ())

    es F -medible (composicion de una funci on F -medible con una funcionBorel-medible), conjuntamente con la propiedad 4. ut-supra. Estoprueba (3).

    10. X n X en L1 =E (X n / F ) E (X/ F ) en L1.Aplicando la desigualdad de Jensen:

    E [|E (X n / F ) E (X/ F )|] E [E (|X n X | / F )] = E (|X n X |) 0.

    5

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    6/76

    11. (La esperanza condicional como proyecci on ortogonal en L2)

    Sea S el subespacio de L2 = L2(, A , P ) de las variables aleatorias avalores reales que son F -medibles. Es obvio que S es cerrado.

    Sea S la proyecci on ortogonal de L2 sobre S .

    Entonces, si X L2 se tiene

    S (X ) = E (X/ F ) (5)

    Observar que si X L2, entonces tambien X L

    1, de modo que laesperanza condicional est a bien denida. Notar adem as que E (X/ F )L2 ya que:

    E [E (X/ F )]2 E E X 2/ F = E X 2 < (5) se sigue de que

    E [(X E (X/ F )) Y ] = 0para toda variable aleatoria Y S .

    1.2 Filtraciones. Denici on de martingala discreta.

    Denici on. (, A , P ) espacio de probabilidad.En lo que sigue, una ltraci on {F n}nT es una sucesi on de sub -algebras de A , creciente, i.e. F n F n+1n. Por un largo trecho, supon-

    dremos que el conjunto T es el de los naturales o el de los enteros; masadelante, tendremos que modicar una serie de puntos para encarar losproblemas cuando el par ametro vara en los reales, o en alg un otro conjuntode ndices.

    Usamos las notacionesF =

    n

    F n

    yF

    =

    n

    F n

    para representar, respectivamente, la -algebra engendrada por la uni on delas F n s y la -algebra interseccion de las F n s.

    Denici ones .Un proceso estoc astico denido en el mismo espacio de probabilidad (o

    lo que es lo mismo en nuestro caso, una sucesi on de variables aleatorias)

    6

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    7/76

    {X n

    }n

    T es adaptado a la ltraci on

    {F n

    }n

    T si X n es F n -medible paratodo n

    T.

    El proceso estoc astico {X n}nT es previsible con respecto a la ltraci on{F n}nT si X n es F n1-medible para todo nT.Un proceso estoc astico {X n}nT es una submartingala (respectiva-mente supermartingala , martingala ) con respecto a la ltracion {F n}nT si cumple las siguientes condiciones:1. {X n}nT es adaptado a {F n}nT .2. X n L

    1nT .

    3. casi seguramente E (X n +1 / F n )

    X n (respectivamente

    , =)

    Observaciones .- En la denici on la condici on 2. puede reemplazarse por X +n L

    1

    (respectivamente X n L1, X n L

    1) nT .- Un caso especial importante, es aquel en que el proceso estoc astico

    {X n}nT est a dado y se dene la ltracion mediante G n = (X m : m n),la mnima -algebra con respecto a la cual las variables aleatorias {X m : m n}son medibles. Es decir que G n contiene la informacion generada por el pro-ceso hasta el instante n. La ltraci on {G n}nT as denida, se denomina laltracion engendrada por el proceso dado.

    1.2.1 Propiedades iniciales y ejemplos.

    1. (Paseo al azar)

    Sea 1, 2, .... una sucesi on de variables aleatorias independientes, n L1, E (n ) = 0 n.

    DenimosX 0 = 0 , X n = 1 + ... + n para n 1

    F 0 =

    {,

    }, F n = (m : m

    n) para n

    1

    Entonces, {X n}es una F n -martingala.2. Si en el ejemplo anterior se reemplaza E (n ) = 0 por E (n ) 0, seobtiene una submartingala.

    7

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    8/76

    3. Si

    {X n

    },

    {Y n

    }son F n -martingalas y a,b n umeros reales, entonces

    {aX n + bY n

    }es tambien F n -martingala. Del mismo modo, si {X n}, {Y n}son F n -submartingalas (respectivamente supermartingalas) y a,b n umeros realesno negativos, entonces {aX n + bY n}es tambien F n -submartingala (resp.supermartingala).

    4. Sea {X n}una F n -martingala y : R Runa funci on convexa. Sedene Y n = ( X n ).

    Entonces, si Y n L1n, resulta que {Y n}es una F n -submartingala.

    En particular, si X n L pn, p 1, entonces {|X n | p}es una F n -

    submartingala.

    5. Sea {X n}una F n -submartingala y : R Runa funci on convexa y creciente . Se dene Y n = ( X n ). Entonces, si Y n L1 n, resulta que{Y n}es una F n -submartingala.En particular, {X +n }es una F n -submartingala.

    6. Sea Y L1 y {F n}nT una ltracion.

    DenimosX n = E (Y/F n ) (nT ) (6)

    Se prueba f acilmente que {X n}nT es una {F n}nT -martingala.Mas adelante consideraremos la pregunta inversa, a saber en quecondiciones, dada una {F n}nT -martingala {X n}nT , se puede encon-trar una variable aleatoria Y tal que (6) se cumpla para todo n? Ymas aun, c omo se puede describir Y ?

    7. (Derivaci on en un espacio abstracto)

    (X, F , ) espacio de probabilidad. n = {A1,....,A m n }particion medible nita de X , creciente conn en el sentido de que n +1 es un renamiento de n .

    F n = (n )

    F n +1

    Sea otra medida signada nita sobre ( X, F , ), y n , nlas restricciones de , respectivamente a F n .Es claro que

    Ln =d ndn

    =m n

    j =1

    (A j )(A j )

    1A j

    8

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    9/76

    con la convenci on de que (A j )(A j ) = 0 is (A j ) = 0 .Veamos que {Ln}es una {F n}-martingala.Es claro que Ln es F n -medible, ya que las funciones F n -mediblesson justamente las que son constantes sobre los conjuntos de laparticion que dene a F n .Hay que ver que E (Ln +1 / F n ) = Ln c.s., es decir, que

    E (Ln +1 1A) = E (Ln 1A) AF n (7)

    Basta vericar (7) para A = A j ( j = 1 ,...,m n ), ya que cadaA

    F n es una uni on nita disjunta de esos A j .

    Pero si A j

    Fn , entonces, dado que

    Fn +1 es un renamientode

    F n , se puede escribir

    A j =k= j

    k=1

    Ak con AkF n +1 , 2 a 2 disjuntos

    con lo cual

    E Ln +1 1A j =k= j

    k=1

    E (Ak )(Ak )

    1Ak =k= j

    k=1

    (Ak ) = (A j ) = E Ln 1A j .

    Una pregunta natural es ba jo que condiciones Ln converge cuandon y en ese caso, si el lmite es la derivada de Radon-Nydodim d d , dando una interpretaci on deesta similar a la derivaci onordinaria en un espacio euclidiano.

    1.3 Compensador de una sucesi on adaptada de variables aleato-rias. Descomposici on de Doob elemental (caso discreto).

    Sea (, A , P ) un espacio de probabilidad, {F n}n =0 ,1,2,... una ltracion denidaen el y {X n}n =0 ,1,2,... una sucesi on de variables aleatorias adaptada a {F n}n =0 ,1,2,... ,X n L

    1n.

    Proposici on .

    una unica sucesi on de variables aleatorias X n n =0 ,1,2,...tal que:

    1. X 0 = 0 .

    2. X nn =0 ,1,2,...

    es previsible

    9

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    10/76

    3. X n

    X n

    n =0 ,1,2,...es una

    {F n

    }-martingala.

    Demostraci on . Denimos:

    X 0 = 0

    X n =n

    j =1

    E (X j X j1/ F j1) n 1

    1. y 2. son obvias. En cuanto a 3., si n 1:E X n +1 X n +1 X n X n / F n

    = E [X n +1 X n / F n ] n +1

    j =1

    E (X j X j1/ F j1) +n

    j =1

    E (X j X j1/ F j1) = 0

    Si n = 0 , se verica de manera igualmente trivial.En cuanto a la unicidad, supongamos que X n y tambien X n veri-can 1.,2.,3.Entonces,

    E X 1 X 1/ F 0 = X 0 X 0 = X 0 c.s.

    E X 1 X 1/F

    0 = X 0 X 0 = X 0 c.s.por lo que

    X 1 X 1 = E X 1 X 1/ F 0 = 0 c.s.ya que X 1 X 1 es F 0-medible. El mismo tipo de argumento permite probarpor inducci on completa que X n X n = 0 c.s. n.Denici on . X n

    n =0 ,1,2,...se denomina el compensador (previsible) de

    la sucesion {X n}n =0 ,1,2,... .

    Notas y ejemplo basico .

    X n = 0 n si y solo si el proceso dado {X n}es una {F n}-martingala.

    X n es creciente (en sentido amplio) si y s olo si el proceso dado {X n}es una {F n}-submartingala.

    10

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    11/76

    Sea

    {X n

    }n =0 ,1,2,... una

    {F n

    }n =0 ,1,2,... -martingala, y supongamos adem as

    que X n L2

    n. Entonces Y n = X 2n (n = 0 , 1, 2,... ) es una submartin-gala y el compensador es, para n 1 :

    Y n =n

    j =1

    E (Y j Y j1/ F j1) =n

    j =1

    E X 2 j X 2 j1/ F j1

    =n

    j =1

    E (X j X j1)2 / F j1 .

    De modo que X 2n Y n es una martingala.

    Un caso particular de lo anterior es el siguiente.Sea X 0 = 0 , X n = 1 + ... + n (n 1), donde 1, 2,... es una sucesi onde variables aleatorias independientes, E (n ) = 0 , V ar(n ) = 2n .Entonces, el compensandor de X 2n es

    n j =1

    2 j , es decir que X

    2n n j =1 2 j

    es una martingala con respecto a la ltraci on engendrada por {n}.Observese que en este caso el compensador es determinstico.

    La situaci on es ligeramente distinta si consideramos un proceso indizadoen Z en lugar de N . Vemos la modicaci on con respecto a la proposicionanterior en la proposici on siguiente:Proposici on.

    Sea (, A , P ) un espacio de probabilidad, {F n}nZ una ltracion denidaen el y X = {X n}nZ una submartingala adaptada a {F n}nZ .Suponemos ademas quesupn< 0

    E X n < .Entonces, una martingala M= {M n}nZ y un proceso A= {An}nZ previsible, integrable y creciente, tales que

    X =

    M+

    A(8)

    Si ademas limn

    An = 0, entonces la descomposici on (8) es unica.

    Si ademas es X n 0n =E (An ) E (X n ) n.Demostraci on .Ponemos

    Y j = E (X j X j1/ F j1) 011

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    12/76

    Para n < m :

    E n

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    13/76

    {X n

    }n =0 ,1,2,... sucesion de variables aleatorias a valores reales.

    F n = {X m : m n}ltraci on engendrada por la sucesi on. a RSe dene el tiempo que demora el proceso en llegar al conjunto [ a, + )

    mediante

    a = inf {n : X n a} si {} = a = + si {}=

    1.4.1 Propiedades de los tiempos de parada.(a) Una variable aleatoria a valores en T {}es un tiempo de paradasi y solo si { n} F n n.(b) F es una -algebra.

    (c) Generalizacion del ejemplo anterior.

    {X n}n =0 ,1,2,... sucesion de variables aleatorias a valores en un espaciomedible ( E, E ) . AE

    A = inf {n : X n A} si {} = A = + si {}=

    (d) n es tiempo de parada(e) Si 1, 2 son {F n}-tiempos de parada, entonces 1 2 y 1 2tambien son {F n}-tiempos de parada.(f) Si 1, 2 son {F n}-tiempos de parada, 1 2, entonces F 1 F 2 .En efecto, si AF 1 =AF , A { 1 = n}. Por lo tanto:

    A

    { 2 = n

    }=

    mn[A

    { 2 = n

    } { 1 = m

    }]

    F n

    ya que en la uni on, A { 1 = m} F m F n .(g) (Proceso estoc astico parado)

    13

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    14/76

    Sean

    X =

    {X n

    }n

    T un proceso

    {F n

    }n

    T -adaptado y un tiempo deparada con respecto a esta ltraci on. Se dene el proceso estoc astico paradoen :X = {X n }nT mediante:

    X n () = X n () ()

    Proposici on .Si {X n}n =0 ,1,2,.. es {F n}n =0 ,1,2,... -martingala (resp. supermartingala, sub-

    martingala) entonces X es {F n}n =0 ,1,2,... martingala (resp. supermartin-gala, submartingala).Demostraci on .Probamos, lo que es mas general, que si {n}n =1 ,2,... es un proceso es-

    toc astico predecible, acotado y 0, la misma conclusi on del enunciado valepara el proceso {Y n}n=0 ,1,2,.. denido mediante:Y 0 = X 0Y n = Y n1 + n (X n X n1) para n 1

    La proposici on resultara de aplicar esto a n = 1 { n}, porque en esecaso se verica facilmente que Y n = X n .Para el caso martingala, tenemos que ver que para n 1 :

    E (Y n / F n1) = Y n1 c.s. (9)

    Para los otros casos, es similar. Pero:

    E [n (X n X n1) / F n1] = n E [(X n X n1) / F n1] = 0 c.s.lo que prueba (9).

    1.5 Desigualdades para martingalas, convergencia, leyes de

    grandes n umeros.

    Teorema (del muestreo opcional de Doob) .Sea

    X =

    {X n

    }n

    0,1,2,... una

    {F n

    }n

    0,1,2,.. -martingala (resp. supermartin-gala, submartingala).

    Consideramos una sucesi on (nita) creciente de tiempos de parada 1 2 ... n , que suponemos uniformement acotados superiormente, en elsentido de que existe una constante C tal que k C k = 1 ,...,n .

    Entonces, {X k }k=1 ,...,n es una {F k }k=1 ,...,n -martingala (resp. super-martingala, submartingala).

    14

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    15/76

    Demostraci on .Basta probar el enunciado para n = 2 .Empecemos por probar que

    E (X 2 ) = E (X 1 ) (resp. , ) (10)Aplicamos lo visto en la demostraci on de la proposici on anterior, con

    la misma notacion, poniendo n = 1 { 1

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    16/76

    Teorema (desigualdades de Doob) .Sea {X n}0nN una submartingala con respecto a la ltraci on {F n}0nN y > 0.Entonces:(i)

    P max0nN

    X n E X N 1{max 0 n N X n } E X +N E (|X N |)

    (12)

    P min0nN

    X n E (X 0)+ E X N 1{min 0 n N X n } E X 0 + E X +N

    (13)(ii ) Si

    {X n

    }0nN es martingala y E (

    |X n

    | p) 1, entonces:

    E max0nN |X n |

    p p

    p 1 p

    E (|X N | p) (15)Demostraci on .(i) Probamos (12). (13) es similar.Sea

    = min {n : 0 n N, X n } si {} = = N si {}=

    En virtud del teorema del muestreo opcional de Doob, {X , X N }es unasubmartingala con respecto a la ltraci on {F , F N }. Por lo tanto,E (X N ) E (X ) = E X 1{max 0 n N X n } + E X N 1{max 0 n N X n

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    17/76

    ya que ( p

    1)

    + 0 p21

    {M

    }d = M p1.

    Aplicando la desigualdad de H older:

    E (M p) p

    p 1[E (|X N | p)]

    1p [E (M p)]

    p 1p

    Pasando el ultimo factor al primer miembro, resulta ( iii ).

    1.5.1 Teorema de convergencia de martingalas.

    1. {X n}n =0 ,1,2,.. submartingala, sup n E (X +n ) < =c.s. limn+ X n =X , X L

    1.

    2. Bajo las condiciones de 1., se puede extender {X n}n =0 ,1,2,.. a una sub-martingala denida en {0, 1, 2...}{+ }agregando + X , si ysolo si, {X +n }n =0 ,1,2,.. es uniformemente integrable.3. Sea Y L

    1 y {F n}n =0 ,1,2,... una ltracion.Entonces, X n = E (Y/F n ) es una martingala adaptada a {F n}n =0 ,1,2,... ,uniformemente integrable y existe lim n+ X n = X , casi segura-mente y en L1. Adem as, X = E (Y/F).

    4. X = {X n}n =0 ,1,2,.. submartingala, inf n E (X n ) > = X esuniformemente integrable y

    limn

    X n = X

    , c.s. y en L1.

    La demostracion se basa en el lema siguiente, debido a Doob.Lema (sobre cruces) .Sea {X n}n =0 ,1,2,.. una submartingala con respecto a la ltraci on {F n}n =0 ,1,2,..

    y a, b dos numeros reales, a < b .Entonces:

    E U XN (a, b) 1

    baE (X N a)+ (X 0 a)+ (16)

    Aqu, U XN (a, b) = n umero de cruces hacia arriba de la banda [ a, b] entre

    0 y N, que se puede denir formalmente de la manera siguiente:

    17

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    18/76

    Para cada trayectoria

    {X n

    }n=0 ,1,2,.. , denimos por recurrencia la sucesi on

    0 = 0 1 = min {n : X n a} 2 = min {n : n 1, X n b}

    ................................ 2k+1 = min {n : n 2k , X n a} 2k+2 = min {n : n 2k+1 , X n b}

    donde se usa la convencion de que min () = + , y si un cierto es iguala + , desde all en adelante los sucesivos tambien valen + .Entonces,

    U XN (a, b) = max {k : 2k N }Demostraci on del lema .Consideramos el nuevo proceso Y = {Y n}denido por Y n = ( X n a)+ ,

    que tambien es una submartingala, ya que la funci on x x+ es convexa ycreciente (en sentido amplio).

    Es claro queU XN (a, b) = U

    Y N (0, b a)

    Denimos la sucesi on 0, 1, 2,... como antes, pero para el proceso Y en lugar de X . Es inmediato que es una sucesion creciente de tiempos deparada.

    Sea n = n N. { n}n =0 ,1,2,... es tambien una sucesi on creciente detiempos de parada, acotada por N. Elegimos adem as el natural K de talmodo que 2K > N. Dado que mientras que los n son nitos, forman unasucesion estrictamente creciente, tiene que ser 2K > N y, por lo tanto, 2K = N .

    Se tiene:

    Y N Y 0 =2K

    n =1Y n Y n 1 =

    K

    n =1Y 2n Y 2n 1 +

    K 1

    n =0Y 2n +1 Y 2n

    El primer termino est a minorado por ( ba)U Y N (0, b a). Tomando esper-anzas:

    E (Y N ) E (Y 0) (ba)E U Y N (0, b a) +K 1

    n =0E (Y 2n +1 ) E (Y 2n )

    18

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    19/76

    Por el teorema del muestreo opcional de Doob, Y n es una submartingalay cada termino en la ultima suma es 0. Se deduce que

    E (X N a)+ (X 0 a)+ = E (Y N ) E (Y 0) (ba)E U Y N (0, b a)Esto prueba (16).

    Disgresi on . (Sobre integrabilidad uniforme).A ttulo de repaso, recordemos que la sucesi on de variables aleatorias

    {Z n}n =0 ,1,2,.. , denidas en el espacio de probabilidad ( , A , P ) , Z n L1, esuniformemente integrable si

    supn

    E

    |Z n

    |1{|Z n |a}

    0

    cuando a + .El lector vericara que si la sucesi on {Z n}es acotada en L p para alg un p > 1, entonces es uniformemente integrable. Tambien que si, casi segura-

    mente, Z n Z cuando n + , entonces Z n Z en L1 si y solo si{Z n}es uniformemente integrable. Mostrar un ejemplo en el cual esto ultimose verica, pero no se cumplen las condiciones del teorema de convergenciadominada de Lebesgue.

    Demostraci on del teorema de convergencia .Para la parte 1. se trata de probar que

    P (limX n < limX n ) = 0 .Sea U Y (a, b) = lim N + U

    Y N (a, b). Entonces:

    limX n < limX n =r,sQ, r

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    20/76

    Para probar 2. supongamos que

    {X +n

    }es uniformemente integrable.

    Entonces,

    a > 0, c.s. X m

    (a) X (a) no solo casi seguramentesino tambien en L. Por lo tanto, para cada n jo, E (X m(a)/ F n ) E (X (a)/ F n ) en L1 cuando m + y casi seguramente sobre unasubsucesi on {mk}. Como {X n(a)}es submartingala,

    E (X (a)/ F n ) = limk+ E (X m k (a)/F n ) X n(a) c.s.

    Haciendo a + , resultaE (X / F n ) X n c.s.

    Recprocamente, si E (X

    / F n )

    X n c.s.

    n, entonces (desigualdad deJensen)

    E X +/ F n [E (X / F n )]+ X +n c.s.

    y como {X +n x}es F n -medible,E X +n 1{X +n x} E X

    +1{X +n x} (17)

    Se trata de probar que {X +n } es uniformemente integrable, es decir queE X +n 1{X +n x} 0 cuando x + , uniformemente en n. En virtud de(17) y de que X +L1, basta probar que P (X +n x) 0 cuando x + ,uniformemente en n. Esto se deduce de ( x > 0):

    P (X +n x) 1x

    E (X +n ) 1x

    E (X +).

    La demostracion de 3. es analoga. Para probar que X = E (Y/F )basta ver que E (X 1B ) = E (Y 1B ) B F . Para esto, observar quela familia {B : E (X 1B ) = E (Y 1B )} es un algebra y tambien una clasemonotona que contiene a F n n, por lo que contiene a

    F .La parte de convergencia casi segura en la demostraci on de 4. es igual a

    la an aloga de 1. La parte de la integrabilidad uniforme se ve como sigue.E (X n ) decrece cuando n decrece. La hip otesis dice que lim nE (X n )

    es nito. Sea n0 tal que E (X n ) > E (X n 0 ) si n n0. Entonces, sin n0 y x > 0:E |X n |1{|X n |x} = E X n 1{X n x} + E X n 1{X n > x} E (X n )

    E X n 0 1{X n x} + E X n 0 1{X n > x} E (X n 0 ) + = E X n 0 1{X n x} E X n 0 1{X n x} + E |X n 0 |1{|X n |x} +

    20

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    21/76

    Analogamente a lo anterior, falta ver que P (

    |X n

    | x)

    0 cuando x

    +

    ,

    uniformemente en n. Esto se deduce de:

    P (|X n | x) 1x

    E (|X n |) =1x

    2E (X +n ) E (X n )

    1x

    2E (X +0 ) E (X n 0 ) + .

    1.5.2 Aplicaci on. Teorema de Wald.

    Teorema (Wald) .

    Sea S 0 = 0 , S n = 1 + ... + n (n 1), donde 1, 2,... es una sucesi onde variables aleatorias independientes, E (n ) = , E (|n |) = n.Denotamos por {F n}n =0 ,1,2,.. la ltraci on engendrada por {n}n = o 1,2,...

    F 0 = {, }.Sea un tiempo de parada con respecto a {F n}n =0 ,1,2,.. y supongamos

    que E ( ) < .Entonces,(a)

    E (S ) = E ( )

    (b) Si adem as V ar(n ) = 2 < , entoncesE (S )2 = 2E ( )

    Demostraci on . {S n n}n =0 ,1,... es una {F n}n =0 ,1,2,.. -martingala =(usando el teorema del muestreo opcional) que tambien {S n (n )}n =0 ,1,...es una {F n}n =0 ,1,2,.. -martingala =

    E [S n (n )] = 0o sea que

    E (S n ) = E (n ) (18)

    Queremos hacer n + . El segundo miembro tiende a E ( ). En cuandoal primero, si las variables aleatorias n son todas 0, se pasa al lmite enel primero aplicando el teorema de Beppo Levi y eso prueba (a).

    En caso contrario, se aplica el teorema a la sucesi on {|n |}n =1 ,2,... enlugar de {n}n =1 ,2,... Si ponemos S 0 = 0 , S n = |1| + ... + |n | (n 1),resulta entonces

    E S = E ( ) < 21

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    22/76

    y como

    |S n

    | S

    n, podemos aplicar el teorema de convergencia domi-nada para pasar al lmite en el primer miembro de (18).

    La demostracion de (b) es similar, teniendo en cuenta que (S n n )2 n 2es martingala.

    Ejemplo .Se considera un paseo al azar ( p,q). Esto signica que en el ejemplo

    anterior, las variables aleatorias independientes de la sucesi on {n}tienentodas la misma distribuci on y es la siguiente: P (n = 1) = p, P (n = 1) =q, p + q = 1.

    Sean adem as a, b dos enteros positivos y a,b = min {n : S n = a o S n = b}. a,b

    es un tiempo de parada con respecto a la ltraci on engendrada porel proceso.

    Entonces:

    1. P ( a,b < ) = 1, lo que signica que la probabilidad de que el procesoquede eternamente comprendido estrictamente entre las barreras ay b es igual a cero.2. Denotamos

    a = P (S a,b = a), b = P (S a,b = b) donde a + b = 1

    a (resp. b) es la probabilidad de que el proceso llegue antes a labarrera a (resp. b) que a la barrera b )(resp. a).Entonces:

    E (S a,b ) = a a + b(1 a ) = ( p q)E ( a,b )Esta igualdad resultar a del teorema de Wald, una vez que probemosque a,b L

    1, lo cual implicar a a su vez la validez de la armacionhecha en 1.

    3. Para el caso en que p = q = 1 / 2 se deduce que a = ba+ b .

    En el ejemplo anterior, podemos modicar las cosas de modo que loscalculos combinatorios que hacen posible la obtenci on de las formulas sinrecurrir al teorema de Wald, resulten muy complicados o imposibles. Por

    22

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    23/76

    ejemplo, supongamos que en cada paso, el salto del paseo al azar puedatomar 3 valores en lugar de 2, a saber 1, 0, 1 y que

    P (n = 1) = pn , P (n = 1) = qn , P (n = 0) = r n pn + qn + r n = 1 . Ademas, suponemos que inf( pn ) > 0, inf(qn ) > 0.

    Las formulas anteriores permanecen v alidas, incluyendo a = ba+ b cuando1n ( pn qn ) 0.

    Tambien podemos modicar el teorema de Wald, permitiendo que lasmedias de los saltos no sean todas iguales, i.e. E (n ) = n , con las hip otesis

    1 + ... + nn , |

    1 + ... + n |n

    acotada

    La formula ( a) del teorema de Wald permanece v alida.El unico punto que queda pendiente es que a,b L

    1. Esto es un casoparticular de la proposici on siguiente, que tiene interes en si misma, por susnumerosas aplicaciones.

    Proposici on .Sea {n}n =1 ,2,.. una sucesi on de variables aleatorias reales, independi-entes con igual distribuci on F . Suponemos que F no se reduce a un atomo

    en el origen. Entonces,

    P (limn+ |S n | = + ) = 1Mas aun, si P (1 > 0) > 0 y P (1 < 0) > 0, entonces P (limn+ S n =+ , limnS n = ) = 1.Si P (1 > 0) > 0 y P (1 < 0) = 0, es inmediato que casi seguramente{S n}es monotona creciente y tiende a + .

    Demostraci on .Basta demostrar que a, b reales, a < b , se tiene P ( a,b < ) = 1 .

    Probamos un resultado m as fuerte, que implica que

    E ( a,b )k < k = 1 , 2, .. (19)Sean , > 0 tales que P (1 ) y P (1 ) y tal que.

    a + b.Se tiene:

    P ( a,b > n. )

    P |S | < a + b, |S 2 S | < a + b, ....., S n S (n1) < a + b= [P (|S | < a + b)]n= [1 P (|S | a + b)]n

    23

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    24/76

    Por otra parte,

    P (S a + b) P (1 ,..., ) = [P (1 )] P (S (a + b)) P (1 ,..., ) = [P (1 )]

    Por lo tanto,P ( a,b > n. ) n

    donde 0 < < 1 y depende de la pareja a, b de partida. En conclusi on,

    P ( a,b > m ) m1 (20)para m

    m0, donde 1 es una nueva constante, 0 < 1 < 1.

    Es facil ver que (20) implica (19). En efecto, para cada entero positivok,

    E ( a,b )k =

    j =1

    P ( a,b j1k )

    j =1

    (1) j

    1k

    donde [] denota la parte entera. La ultima serie es convergente.

    1.5.3 Leyes fuertes de los grandes n umeros para sumas de vari-ables aleatorias independientes.

    Teorema (Kolmogorov) . Sea

    {Y n

    }n =0 ,1,... una sucesi on de variables aleato-

    rias reales, independientes, con los dos primeros momentos nitos, E (Y n ) =0, Var (Y n ) = 2n .

    Si se cumple que

    n =1

    2nn2

    < (21)entonces se tiene

    P limn+

    Y 1 + .... + Y nn

    = 0 = 1 (22)

    (en otros terminos, casi seguramente, los promedios Y 1 + .... + Y nn

    0 cuando

    n + ).Demostraci on .Se dene la sucesi on de variables aletorias

    X 0 = 0 , X n =n

    j =1

    Y j j

    si n 1

    24

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    25/76

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    26/76

    Teorema .Sea {Y n}n =0 ,1,... una sucesi on de variables aleatorias reales, independi-entes, con igual distribuci on y esperanza nita .Entonces,

    P limn+

    Y 1 + .... + Y nn

    = = 1 (23)

    Demostraci on . Basta considerar el caso = 0 . Denotamos por F lafuncion de distribucion (comun) de las Y n s.

    Introducimos la nueva sucesi on de variables aleatorias independientes

    Y n = Y n 1{|Y n |

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    27/76

    Es claro que V ar(Z n ) = E (Y 2n )

    2n

    E (Y 2n ). Por lo tanto:

    n =1

    V ar(Z n )n2

    n =1

    E Y 2n 1{|Y n | 0 se cumple que P (|X n X | ) 0 cuando n + .Naturalmente, la convergencia en probabilidad es cierta bajo condicionesmas debiles que aquellas en las que podemos asegurar la convergencia casisegura.

    27

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    28/76

    No habremos de extendernos sobre este punto, pero habr a de ocurrirque probemos convergencia en probabilidad directamente. Por ejemplo, esinmediato que si X n X en L p para alg un p > 0, entonces X n X enprobabilidad, ya que

    P (|X n X | ) 1 p

    E (|X n X | p) .

    28

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    29/76

    2 Convergencia debil de medidas de probabilidaden R.

    2.1 Denici on y primeras propiedades.

    En lo que sigue, todas las medidas de probabilidad son medidas de Borel en

    R1. Con frecuencia haremos el abuso de notaci on de llamar a las medidasy a sus funciones de distribuci on, con la misma letra.En lo que sigue, para simplicar la exposici on, denominaremos medidas

    de probabilidad a las medidas de Borel F tales que la medida de todo elespacio F (R) es menor o igual que 1. Si F (R) = 1, diremos que F es unamedida de probabilidad propia y si F (R) < 1, diremos que es defectiva.Asimismo, si I es el intervalo ( a, b] en la recta, la notacion F (I ) es, como eshabitual, la medida del intervalo semiabierto ( a, b] o tambien F (b) F (a),donde ahora llamamos F a la funci on de distribucion.

    Denici on 1 . Sea {F n}n =01 ,2,... y F respectivamente, una sucesi on demedidas y una medida en la recta. Diremos que {F n}converge debilmentea F (notacion: F n =F ) si F n (I ) F (I ) para todo intervalo I en cuyosextremos la funcion F es continua.

    Denici on 2 . Sea {F n}n =01 ,2,... una sucesi on de medidas de probabilidadpropias. Diremos que la convergencia debil de F n a F es propia, si F espropia.

    Ejemplos .

    1. Sea F n = xn (n = 1 , 2,... ), donde a denota la medida de Dirac en elpunto a de la recta real, es decir que a ({a}) = 1 y a (R\ {a}) = 0.Entonces, xn x implica que xn x .

    2. Sea : R R+ una funci on Borel-medible, +

    (x)dx = 1 .Se dene la sucesi on de medidas de probabilidad F n (dx) = 1a n

    xa n dx,

    donde an 0.Entonces, F n =0.

    29

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    30/76

    3. Sea F n (dx) = f n (x)dx, donde la sucesi on

    {f n

    }es de funciones no-

    negativas, + f n (x)dx = 1 n.

    Si f n f , uniformemente en cada compacto de R, entonces F n =F , donde F (dx) = f (x)dx.

    4. Sea F n (dx) = 1 {n,n +1 }(x) dx. Entonces F n =0, donde 0 indica lamedida identicamente nula.

    Propiedades basicas .

    1. F n =F implica que F (R) 1.2. F n =

    F si y solo si

    f

    C 0(R) se cumple que Rf dF n Rf dF .(C 0(R) denota el espacion de las funciones de Ren R, continuas yque tienen lmite cero en + y en ).

    3. F n =F propia, si y s olo sif C b(R) se cumple que Rf dF n Rf dF .(C b(R) denota el espacion de las funciones de Ren R, continuas yacotadas).4. F n =F propia, si y s olo si, F n (x) F (x) para todo x de continuidadde F y F (

    R) = 1.

    5. Sea {F n}n =01 ,2,... una sucesi on de medidas de probabilidad. Entonces,siempre existe una subsucesi on que converge debilmente.

    Demostraciones .

    1. inmediato

    2. Supongamos que F n =F .

    La funci on de distribucion F es monotona creciente (en sentido am-

    plio); por lo tanto el conjunto D = {x : F no es continua en x} esnumerable.Sea f C 0(R). Dado > 0 se puede encontrar una funci on en escalera:

    g (x) =m

    i=1

    f (a i)1(a i ,bi ](x)

    30

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    31/76

    que verica que los puntos a i , bi (i = 1 ,...,m ) son puntos de con-tinuidad de F , a1 < b1 = a2 < b 2 = ... = am < b m y que adem as

    f g < donde h = sup xR|h(x)|.Por lo tanto:

    Rf dF n Rf dF R|f g| dF n + R|f g| dF + Rg dF n . Rg dF 2. + Rg dF n . Rg dF = 2 . +

    m

    i=1

    f (a i ) [F n (( a i , bi ]) F ((a i , bi ])]

    Haciendo n + , cada termino en la suma tiende a cero, de modoque lim n+ Rf dF n Rf dF 2.. Como > 0 es arbitrario,eso prueba que lim n+ Rf dF n Rf dF = 0 .Recprocamente, supongamos que f C 0(R) se cumple que Rf dF n

    Rf dF y sea I = ( a, b] con a, b puntos de continuidad de F .

    Para > 0 dado, elegimos > 0 de tal modo que

    F (a + ) F (a), F (a) F (a ), F (b + ) F (b), F (b) F (b)sean todos

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    32/76

    Es obvio que f, g

    C 0(

    R) y que, por lo tanto, el primer miembro

    y el tercero de (25) tienden respectivamente a

    Rg dF F (I ) 2e Rf dF F (I ) + 2 Esto prueba que lim n+ |F n (I ) F (I )| 2 y termina la pruebade la propiedad 2.

    3. Probemos previamente la propiedad siguiente, que tiene interes en simisma:

    F n =F propia, si y s olo si (a) F n =F y (b) > 0 A tal queF n ({x : |x| > A }) < n.En efecto, supongamos que F n =F propia. Se trata de probar (b).Dado > 0, elegimos A1 > 0, de modo que A1 y A1 sean ambospuntos de continuidad de F y sucientemente grande como para que

    F (A1) F (A1) > 1 2

    lo cual es posible porque F es propia. Entonces, como hay convergencia

    debil, F n (A1) F n (A1) F (A1) F (A1) y n0 tal que F n (A1) F n (A1) > 1 n n0. Para que F n (A) F n (A) > 1 secumpla para todo n, basta con elegir A > A 1 y adem as sucientementegrande para vericarla para n = 1 ,...,n 0 1. Finalmente, notar queF n ({x : |x| > A }) 1 [F n (A) F n (A)].Recprocamente, supongamos que se cumplen (a) y (b). Si elegimosen (b) A > 0 de modo que A y A sean puntos de continuidad deF , podemos pasar al lmite en F n ({x : |x| A}) > 1 , obteniendoF (R) F ({x : |x| A}) > 1 . Esto prueba que F (R) = 1.Probemos ahora la propiedad 3. Supongamos que se cumple que

    F n =

    F propia y sea > 0. Sea A > 0 punto de continuidad deF tal que F n (A) F n (A) > 1 n y construimos una funci oncontinua (cuyo graco es trapezoidal) gA : R [0, 1], que vale 1 enel intervalo [A, A] , 0 fuera de algun intervalo de la forma [ B, B ] ,con B > A , y tiene por gr aco un segmento de recta en los intervalos[B, A] y [A, B ] .

    32

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    33/76

    Sea f

    C b(

    R). Es claro que f.g A

    C 0(

    R) y se tiene:

    Rf dF n Rf dF Rf gAdF n Rfg A dF + Rf (1 gA)dF n + Rf (1 gA)dF Rf gAdF n Rfg A dF + 2 .. f

    Haciendo n + , el primer termino del ultimo miembro tiende acero, y resulta lim n+ Rf dF n Rf dF 2.. f .Recprocamente, si

    f

    C b(

    R) se cumple que

    Rf dF n

    Rf dF ,

    es claro que se cumple la denicion de convergencia debil y tomandof = 1 , resulta que F es propia.

    4. A cargo del lector.

    5. El lector que conozca la dualidad en los espacios de Banach, recono-cera un caso particular del teorema de Banach-Alaoglou. Damos unademostracion directa mas elemental, basada en el proceso diagonal deCantor.

    Como para cada x, {F n (x)}es una sucesi on acotada de numeros reales,podemos construir una subsucesi on {F n k }con la propiedad de queF n k (x) converge cuando k + para todo racional x. Sea F (x) =limk+ F n k (x) (x Q) y denamos F (x) = inf F (y) : y > x, y Q.Se verica que F es creciente en sentido amplio y continua por laderecha y que F n k =F .

    2.2 Transformada de Fourier (funci on caracterstica) de me-didas de probabilidad en R 1.

    Sea una medida de probabilidad boreliana en R, posiblemente defectiva.Se dene su transformada de Fourier (o funci on caracterstica), :R Rmediante

    (t) = Rexp( itx ) (dx).Si es la distribucion de probabilidad de una variable aleatoria real di-remos - por extension - tambien que es la transformada de Fourier (o lafuncion caracterstica) de y denotaremos = .

    33

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    34/76

    2.2.1 Propiedades basicas y ejemplos.

    1. (0) = (R), |(t)| (R) 1t R.2. es uniformemente continua.

    3. Si a, b son constantes reales y es una variable aleatoria real, entoncesa + b = exp( itb) (at )

    4. Si , son variables aleatorias independientes, entonces + (t) =(t).(t)

    5. Ejemplos .

    con distribucion normal (0 , 1) =(t) = exp( t2

    2 ). con distribucion uniforme en el intervalo ( 1, 1) =(t) =sen t

    t .

    con distribucion de Cauchy (i.e., con densidad 1 (1+ x2 ) ) =(t) = exp( |t|).

    con distribucion de Poisson con parametro > 0 =(t) =exp (1 eit ) . con densidad 1cos xx 2 =(t) = (1 |t|)0.

    6. Unicidad, continuidad, inversi on .La identidad fundamental es la f ormula de Parseval (pars).Sean F, G distribuciones de probabilidad en la recta y , sus respec-tivas transformadas de Fourier.Entonces t R:

    + eit ( ) G(d ) = +

    (x t) F (dx) (26)

    La demostracion es inmediata, mediante aplicaci on del teorema deFubini.Teorema (unicidad) .F = G si y solo si (t) = (t) t R.Demostraci on. Es facil ver que basta considerar el caso en que ambasdistribuciones son propias.Aplicamos (26) tomando para G la distribucion normal (0 , 2), con locual (t) = exp(

    2 t22 ).Entonces

    12 + eit ( )exp

    2

    22d = + 2 exp 2(x t)22 F (dx)(27)

    34

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    35/76

    Sean , dos variables aleatorias independientes, con distribucionF y con distribucion normal (0 , 2). El segundo miembro de (27)es la densidad de la variable aleatoria + 1/ .

    Por lo tanto, si a, b son puntos de continuidad de F , se verica que

    12 ba dt + eit ( )exp

    2

    22d

    = ba dt + 2 exp 2(x t)22 F (dx) = P ( + 1/ [a, b])= P ([a, b]).

    cuando + , porque 1/ 0 en L2

    .Es decir que determina los incrementos de F en todos los intervaloscuyos extremos son puntos de continuidad de F , y por lo tanto, entodos los intervalos. Esto prueba que determina a F completamentey, al mismo tiempo, da una f ormula de inversion (calculo de F a partirde ), que por el momento no es muy comoda y es la siguiente.

    F (b) F (a) = lim+ 1

    2 ba dt + eit ( )exp 2

    22d (28)

    para a, b, a < b , puntos de continuidad de F . En particular , si L1,

    se deduce que F tiene densidad continua f y que esta se calculamediante la f ormula (m as agradable):

    f (x) =1

    2 + eix ( ) d (29)En efecto, vericar que si L

    1, entonces se puede pasar al lmitebajo el signo integral en (28) aplicando el teorema de convergenciadominada y resulta

    F (b) F (a) =1

    2 ba dt + eit ( ) d para a, b, a < b , puntos de continuidad de F y, por lo tanto, para todapareja a, b. Esto prueba que F es absolutamente continua con respectoa la medida de Lebesgue y que la densidad est a dada por (29).

    Teorema (Levy-Cramer) . Sea {F n}n=1 ,2,... una sucesi on de dis-tribuciones de probabilidad propias en R {n}n =1 ,2,... la sucesi on delas transformadas de Fourier respectivas.

    35

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    36/76

    Entonces, F n =

    F (propia) si y s olo si

    {n

    }n =1 ,2,... converge pun-

    tualmente y la funcion lmite es continua en t = 0 . En ese caso, esla transformada de Fourier de F y {n}converge uniformemente encada compacto.

    Demostraci on .

    Supongamos que F n =F (propia). Como la funcion x exp( itx ) =et (x) es continua y acotada, se deduce que para cada t R:

    n (t) = + exp( itx ) F n (dx) +

    exp( itx ) F (dx) = (t) (30)

    y tambien es la transformada de Fourier de F .

    Como adem as, si I es un intervalo compacto de la recta, la familia defunciones {et (.)}tI es equicontinua, se deduce que la convergencia en(30) es uniforme en cada compacto y es continua (probar cada unade estas armaciones!).

    Probemos el recproco, es decir, ahora supondremos que {n}n =1 ,2,...converge puntualmente y la funci on lmite es continua en t = 0 .Segun hemos visto, toda sucesi on de distribuciones contiene una sub-sucesion que converge debilmente. Por lo tanto, para probar que {F n}converge debilmente, alcanzar a con probar que todas las subsucesionesde ella que convergen debilmente, tienen el mismo lmite, en cuyo caso,este sera el lmite debil de la sucesi on entera.Sea entonces {F n k }una subsucesion que converge debilmente y F n k =F (observese que, a priori, F podra ser defectiva). Veremos que F es independiente de cual es la subsucesi on considerada y, mas aun,que F es propia y que tiene a la funcion lmite por transformadade Fourier.

    Aplicamos la igualdad (27), reemplazando F por F n k y por n k .Poniendo t = 0, se obtiene:

    1

    2 +

    n k ( )exp

    2

    22 d =

    +

    2exp

    2x2

    2F n k (dx)

    En el segundo miembro, el integrando pertenece a C 0(R) por lo tanto,podemos pasar al lmite cuando k + reemplazando F n k por F .En el primer miembro, podemos aplicar el teorema de convergenciadominada, ya que n k ( ) ( ) para cada y el valor absoluto del

    36

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    37/76

    integrando esta acotado por exp

    2

    22 , que esta en L1(

    R). Por lo

    tanto,

    12 + ( )exp

    2

    22d = + exp 2x22 F (dx)(31)

    Hacemos ahora 0. El segundo miembro tiende a F (R), usando elteorema de Beppo Levi.Como es continua en = 0, dado > 0 podemos elegir > 0, demodo que | | < = |( ) 1| < (notar que (0) = 1).Entonces:

    12

    +

    ( )exp 2

    22d 1

    =1

    2 + [( ) 1] exp 2

    22d

    +2

    2 | | exp 2

    22d

    = + 2 .P (|| )donde es una variable aleatoria normal (0 , 1). Se deduce que el primermiembro de (31) tiende a 1 cuando 0. Por lo tanto F (R) = 1 .Pero entonces, la convergencia F n k =

    F es propia y podemos apli-carle el directo de este mismo teorema, es decir que n k converge

    puntualmente a la transformada de Fourier de F . Pero, por hipotesis,n k converge puntualmente a la funci on , de modo que no es

    otra que la transformada de Fourier de F y por la vista unicidad, F no depende de la subsucesion. Esto termina la demostraci on.

    7. Propiedades complementarias de las transformadas de Fourierde medidas de probabilidad .

    + |x|

    m F (dx) < para un cierto natural m = es de clase C my

    (m ) (t) = +

    (ix )m exp( itx )F (dx).

    Se deduce que si F es la distribucion de probabilidad de una variablealeatoria , entonces

    (m )(0) = im E (m )

    37

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    38/76

    En particular, si E 2 0 y luego pasar al lmitecuando 0.

    (Propiedades aritmeticas).Sea la transformada de Fourier de una distribuci on de probabilidadpropia F .Entonces hay tres posibilidades mutuamente excluyentes:(a) |(t)| < 1 t = 0.(b)

    |(t)

    |= 1

    t

    Ry en ese caso F =

    {b

    }para alg un b

    R.

    (c) > 0 tal que |()| = 1 y |(t)| < 1t(0, ) y en ese caso, es periodica de perodo y un n umero real b tal que F (x + b) esla distribucion de una medida concentrada en los puntos de la forma

    2 m : m entero .(estas medidas se llaman aritmeticas, est an con-

    centradas en los puntos de una progresi on aritmetica).

    Para probar esto, supongamos que |(t0)| = 1 para algun t0 > 0. Sea(t0) = exp( ib), a real. Entonces (t) = exp( ib).(t) es tambien la trans-formada de Fourier de una distribuci on de probabilidad (observar que si es la transformada de Fourier de la variable aleatoria , entonces lo es de b). Entonces:

    0 = 1 (t0) = Re [1 (t0)] = +

    [1cos(t0x)] F (dx)

    lo cual solo es posible si F est a concentrada en los puntos de la forma2t0 m : m entero . Notar que F (x) = F (x+ b). Pero entonces es periodica

    de perodo t0 y lo mismo vale para .

    39

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    40/76

    Si el conjunto C =

    {t :

    |(t)

    |= 1 , t > 0

    }no es vaco, sea = inf( C ). Si

    = 0 , resulta periodica con perodos positivos arbitrariamente peque nos,y como es continua, es constante e igual a 1.

    Si > 0 estamos en el caso (c).

    2.3 Teorema del Lmite Central 1.

    Teorema . Sea {n}n=1 ,2,... una sucesi on de variables aleatorias independi-entes con igual distribuci on F .

    Suponemos que E (n ) = , V ar(n ) = 2.Se dene: S 0 = 0 , S n = 1 + ... + n (n 1).Entonces,

    S n nn =N (0, 1) cuando n + (es decir que la distribuci on de las sumas parciales normalizadas S n nnconverge debilmente a la distribuci on normal tpica).

    Demostraci on . Sea F n la distribucion de probabilidad de S n nn y (resp. n ) la transformada de Fourier de =

    1 (resp. F n ). Notar queE () = 0 y E (2) = 1 y, por lo tanto, ( ) = 1 12 2 + o( 2) cuando 0.Aplicando el teorema de Levy-Cramer bastar a probar que

    n (t) exp(t22 )cuando n + , ya que exp( t

    2

    2 ) es la transformada de Fourier de ladistribucion normal tpica.

    Usando las propiedades vistas de la transformada de Fourier, se vericaque:

    n (t) = t

    nn

    = 1 t2

    2n+ o

    t2

    2n

    n

    exp(t2

    2) cuando n +

    .

    2.4 Teorema del Lmite Central 2.

    Teorema de Lindeberg .Sea {k}k=1 ,2,... una sucesi on de variables aleatorias independientes. De-

    notamos por F k (resp. k ) la funci on de distribucion (resp. la transformadade Fourier) de k . Suponemos que E (k ) = 0 , Va r (k ) = 2k < .

    40

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    41/76

    Se dene: S 0 = 0 , S n = 1 + ... + n (n

    1) y denotamos V n =

    [V ar(S n )] 12 = nk=1 2k12 .

    Entonces, si se cumple la condicion (llamada de Lindeberg):

    > 0, n () =1

    V 2n

    n

    k=1

    E 2k 1{|k |V n } 0 cuando n + (33)

    entoncesS nV n

    =N (0, 1) cuando n + Demostraci on .

    La demostracion consiste en aplicar el teorema de Levy Cramer, probandoque la transformada de Fourier de S nV n converge puntualmente a exp( t

    2

    2 ),que es la trasformada de Fourier de la distribuci on normal tpica.

    Fijemos entonces t Rpara el resto de la demostraci on.Usando las hipotesis sobre F k , se tiene, usando (32) y la denicionde n ()

    kt

    V n 1 = + exp itxV n 1 itxV n F k (dx)

    +

    expitxV n 1

    itxV n

    F k (dx)

    +

    12

    txV n

    2F k(dx) =

    t22k2V 2n

    t2

    22 + n ()

    Como > 0 se puede elegir de manera arbitraria, la condici on de Lindebergimplica que

    sup1kn

    kt

    V n 1 0 cuando n + . (34)Por lo tanto, si n es sucientemente grande, est a bien denida la ramaprincipal de log k tV n k = 1 ,...,n y podemos escribir la transformada

    de Fourier de S nV n mediante:

    S nV n

    (t) = S n (t

    V n) =

    n

    k=1

    k(t

    V n) = exp

    n

    k=1

    log k (t

    V n)

    41

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    42/76

    En lo que sigue, probamos que el exponente tiende a

    t22 cuando n

    + .Primero, de aqu en adelante, elegimos n sucientemente grande de modoque

    sup1kn

    kt

    V n 1 0. Tenemos:

    |Rk,n | = + exp itxV n 1 itxV n 12 itxV n2

    F k (dx) |S k,n |+ |T k,n |donde S k,n = |x|V n y T k,n = |x|

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    44/76

    Si se verica que

    S nV n

    =N (0, 1) cuando n + y ademas nV n 0 y V n + , entonces se cumple la condicion de Lindeberg(33).

    Demostraci on .Primero, probar que

    sup1kn

    2kV 2n 0 cuando n +

    y deducir de aqu (mediante c alculos iguales a los de la demostracion delteorema de Lindeberg) que

    n

    k=1

    log k (t

    V n) +

    n

    k=1

    1 k (t

    V n) 0 cuando n +

    El primer termino tiende a t2

    2 , de modo que tomando partes reales, setiene, para > 0 y t jos, que

    t2

    2 n

    k=1 |x|

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    45/76

    La condici on de Liapunov es que

    > 2 tal que m,k < k y adem asn

    k=1

    m,k = o(V n ) cuando n + (36)

    El lector podra comprobar que la condicion de Liapunov implica lacondici on de Lindeberg y, por lo tanto, que se cumple el Teorema del LmiteCentral.

    En muchas situaciones, es m as comodo vericar la condicion de Liapunovque la de Lindeberg.

    2.5 Teorema del Lmite Central 3. Martingalas.

    En esta secci on, demostraremos un Teorema del Lmite Central de tipoLindeberg, pero para sumas parciales de variables que no tienen porque serindependientes, con tal que esas sumas parciales sean una martingala. Estoabre un extenso captulo relativo a la convergencia debil de las distribucionesde las sumas parciales de variables dependientes, del que solamente daremosel resultado contenido en esta secci on.

    Teorema (del Lmite Central para Martingalas) .Sea {M n}n =0 ,1,2,... una martingala de cuadrado integrable con respecto

    a la ltraci on {F n}n =0 ,1,2,... .Para cada n = 0 , 1, 2,... ponemos n = M n +1

    M n y 2n = E 2n / F n .

    Suponemos ademas que existe una constante positiva K tal que E | n |3 / F n K n.

    Denotamos por M n =n1k=0 2k el compensador de la submartingala

    M 2n n =0 ,1,2,... .Entonces, si la sucesion de variables aleatorias 1n M n converge en

    probabilidad a la constante 2 > 0, se cumple que1

    n M n =N (0, 2)Demostraci on . Es inmediato que no hay inconveniente en suponer que

    M 0 = 0 .Del mismo modo, alcanza con considerar el caso K = 1 (si no es as,

    multiplicar la martingala por una constante apropiada).Observemos ademas que, usando la desigualdad de Jensen para esperan-

    zas condicionales, es

    3n = E 2n / F n

    32 E | n |3 / F n 1

    45

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    46/76

    de modo que 0

    n

    1

    n y por lo tanto, tambien se cumple que 0

    1n M n 1n.Aplicamos el teorema de Levy-Cramer y por lo tanto, basta probar quepara cada t Rjo, se verica:

    limn+

    E exp itM nn +

    t22

    2= 1 . (37)

    Para probar (37), veamos que existe una constante universal K 1 tal que

    t[1, 1] se verica

    E exp itM n +t2 M n

    2= 1 + vn con |vn | nK 1t3 exp( nt 2) (38)

    Reemplazando en (38) t por tn resulta que para cada t R:

    limn+

    E exp itM nn +

    t2 M n2n

    = 1

    y (37) resulta de

    E expt22

    2 expt2 M n

    2n 0 cuando n + .Esto ultimo se deduce, a su vez, de que para t jo,

    Z n (t) = expt22

    2 expt2 M n

    2n

    tiende a cero en probabilidad y que la sucesi on de variables aleatorias {Z n (t)}est a acotada uniformemente por la constante exp( t

    2

    2 ), de modo que es posibleaplicar el teorema de convergencia dominada.

    De modo que se trata de probar (38).Para ello, usamos la formula de Taylor para probar que si x, t R,y[0, 1], entonces

    f (t) = exp itx + t2y = 1 + itx t2

    x2

    2 + t2y + R(t,x,y ) (39)

    donde |R(t,x,y )| K 2(1 + |x|3)t3 exp( t2).[Este es un c alculo inmediato, ya que f (t) = ( ix + 2 ty)f (t), f (t) =

    (ix + 2 ty)2 + 2 y f (t), f (t) = (ix + 2 ty)3 + 6 y(ix + 2 ty) f (t)]Fijemos t Ren lo que sigue.

    46

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    47/76

    Sean:

    Y n = exp itM n +t2 M n

    2

    Z n = exp it n +t22n

    2

    de modo que Y n +1 = Y n Z n . Usando (39) y teniendo en cuenta las hip otesis:

    E (Y n +1 / F n ) = Y n E (Z n / F n )

    = Y n E 1 + it n t2

    2 2n 2n + + R(t, n , 2n )/ F n

    = Y n 1 + E R(t, n , 2n )/ F n = Y n [1 + n ]

    donde | n | 2K 2t3 exp( t2).Ponemos ahora K 1 = 2 K 2 y probamos (38) por inducci on completa enn.

    Observar que

    1 + vn +1 = E (Y n [1 + n ]) = 1 + vn + E (Y n n )

    y que |Y n | exp t2 n2 . Por lo tanto, admitiendo la desigualdad para n :

    |vn+1 | nK 1t3 exp( nt 2) + exp t2n

    2K 1t3 exp( t2) (n + 1) K 1t3 exp( nt 2)

    Esto prueba (38) y, por lo tanto, concluye la demostraci on.

    Ejemplo . Sea {k}k=1 ,2,... una sucesi on de variables aleatorias indepen-dientes, que supondremos uniformemente acotadas por una cierta constanteC y S n = 1 + ... + n (n 1).

    Suponemos que E (k ) = = 0 , V ar(k ) = 1.Consideremos la sucesion {M n}, denida por:

    M 1 = S 1, M n = M n1 + 1n 1S n1(n ) para n 2 (40)

    Es inmediato vericar que {M n}n =1 ,2,... es una martingala con respectoa la ltraci on engendrada por la sucesi on {k}. Dado que la sucesi on S nnes acotada por la constante C , se deduce que E | n |3 / F n C 4.

    47

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    48/76

    Por otra parte,

    2n = E 2n / F n = E

    S nn

    2(n )2/ F n =

    S nn

    2

    En virtud de la ley fuerte de los grandes n umeros, casi seguramente S nn cuando n + . Por lo tanto 1n M n = 1n nk=1 2k 2 > 0 y el teoremaanterior implica que 1n M n =N (0,

    2).No parece obvio reducir este tipo de resultado a las sumas de variables

    aleatorias independientes.Observese adem as que este ejemplo se puede extender de varias maneras,

    a modelos m as generales, en los que se obtiene un resultado similar.Por ejemplo, si en lugar de (40) se pone

    M 1 = S 1, M n = M n1 + H S n1n 1

    (n ) para n 2 (41)y en lugar de la condici on = 0 ponemos H () = 0 , se obtiene el mismoresultado, cambiando 2 por [H ()]2 .

    Las ecuaciones de recurrencia (40) o (41) son casos particulares de mod-elos autorregresivos no lineales, en los que el estado del sistema en el in-stante n se obtiene a partir del estado en el instante n 1 mas una pertur-baci on aleatoria. Esta ultima contiene al ruido o innovaci on (n ) -independiente de lo ocurrido hasta el instante anterior - amplicado por unafuncion del pasado (que en algunos contextos se denomina la volatilidad),que para el ejemplo es de la forma H S n 1n1 , pero que podra ser distinta.

    2.6 Velocidad de convergencia. Teorema de Berry-Essen.

    Existe una gran variedad de teoremas que permiten estimar la velocidad deconvergencia en el Teorema del Lmite Central y otros resultados relaciona-dos. Nos limitamos aqu a un s olo resultado. Por mayores detalles, se puedeconsultar, por ejemplo, el libro de V. Petrov.

    Teorema (Berry-Essen) . Sea {n}n =1 ,2,... una sucesi on de variablesaleatorias independientes con igual distribuci on F , E (n ) = 0 , Va r (n ) =2 < .Como antes, S 0 = 0 , S n = 1 + ... + n (n 1).

    Suponemos ademas que 3 = E (|n |3) < 48

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    49/76

    Sea F n la funci on de distribucion de probabilidad de S nn y la funcionde distribucion normal tpica, i.e.

    F n (x) = P (S n

    n x) y (x) =1

    2 xexp(y22 ) dyEntonces,

    supxR|

    F n (x) (x)| 334

    33n

    La demostracion est a basada en el Lema siguiente.Lema . Sea F la distribucion de probabilidad de una variable aleatoria

    a valores en Ry su transformada de Fourier.Sea G : R Runa funci on de clase C 1, G() = 0 , G(+ ) = 1 , G =g, g m. Denotamos por la transformada de Fourier de g, i.e., (t) = + exp( itx )g(x)dx que suponemos bien denida y, adem as, C 1, (0) =1, (0) = 0 .Entonces, para todo T > 0 :

    supxR|

    F (x) G(x)| 1 T T (t) (t)t dt + 24.mT (42)

    Demostraci on .Paso 1 . Sean w1 la funci on (de Slepian)

    w1(t) = (1 |t|)0

    y para T > 0,

    wT (t) = w1tT

    wT es la transformada de Fourier de la medida de probabilidad T cuyadensidad es

    vT (x) =1 cos(T x)T x2 .

    Sean f T , gT las densidades de las convoluciones F T = T F y GT = T Grespectivamente y T , T sus transformadas de Fourier. Se tiene

    T = wT . T = wT .

    49

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    50/76

    y usando la f ormula de inversion:

    f T (x) gT (x) =1

    2 + exp(ixt ) [(t) (t)] wT (t) dt (43)De aqu se deduce la igualdad:

    F T (x) GT (x) =1

    2 + exp(ixt ) (t) (t)it wT (t) dt (44)ya que derivando ambos miembros de (44) se obtiene ambos miembros de(43) respectivamente, y adem as, ambos miembros de (44) se anulan en :el primero por denicion de las funciones de distribuci on y el segundo envirtud del Lema de Riemann-Lebesgue.

    Se deduce que

    |F T (x) GT (x)| 1

    2 + (t) (t)t dt (45)Paso 2 . Usamos las siguientes notaciones:

    = F G, T = F T GT , = , T = T Se tiene:

    T (t) = +

    ( t x)vT (x)dx

    |x|>h vT (x)dx + + h

    h( t x)vT (x)dx

    donde elegiremos luego h > 0.Por un lado:

    |x|>h vT (x)dx 4T +

    h

    dxx2

    =4

    T h= |x|h vT (x)dx 1 4T h .

    Como (+ ) = ( ) = 0 y posee lmites laterales, se deduce que x0tal que = ( x+0 ) o = ( x0 ). Entonces, si s > 0 :( x0 + s) = F (x0 + s) F (x0) + G(x0 + s) G(x0) ms

    (aqu, en cada caso, cuando corresponda habr a que poner o bien x0, o bienx+0 o bien x0 ).

    50

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    51/76

    Sea t = x0 + h. Si

    |x

    |< h =

    t

    x > t

    h = x0 y si s = t

    x

    x0 :

    T T (t) 4

    T h+ + hh [ m(t x x0)] vT (x)dx

    = 4

    T h+ [ mh ] + hh vT (x)dx

    4

    T h+ [ mh ] 1

    4T h

    Eligiendo h = 2m resulta T 2 12.mT y usando (45):

    2T +24.mT

    1

    +

    (t)

    (t)

    t dt +24.mT

    lo que prueba el Lema.

    Demostraci on del Teorema de Berry-Essen .Aplicamos el Lemma, reemplazando F por F n y G por la distribucion

    normal . Entonces

    supxR|

    F n (x) (x)| 1 T T n tn exp t22 1|t|dt + 24T (46)

    Usando la desigualdad (vercaci on sencilla a cargo del lector) 6

    < 23, re-

    sulta que |1 (t)| 12 2t2. Por lo tanto, |t| < 2

    3implica que |1 (t)|

    12 y tambien la validez del desarrollo en serie:

    log(t) =

    k=1

    1k

    [1(t)]k

    donde log representa la rama principal del logaritmo.Se deduce que si |t| <

    2

    3, entonces

    log(t) +1

    22t2

    1

    6

    3 |t

    |3 +

    1

    44t4

    5

    12

    3 |t

    |3

    Para terminar, poner en (46) T = 3

    3n y usar la acotacion simple et 1

    |t| .e|t | para obtener la conclusi on del teorema (estos calculos nales quedana cargo del lector).

    51

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    52/76

    2.7 Convergencia debil de medidas de probabilidad en

    Rd , d >

    1.

    Toda la teora anterior se extiende sin mayores dicultades a Rd para d > 1.(Convergencia debil de medidas de probabilidad, transformada de Fourier,teoremas del lmite central). No habremos de dar detalles aqu, sino in-dicar solamente algunos puntos, sin demostraciones, que por otra parte sonenteramente similares a las que hemos expuesto en dimensi on 1.

    1. Para la denici on de convergencia debil (todas las medidas son medidasde Borel en Rd) podemos adoptar la siguiente denici on.Una sucesi on {F n}n =1 ,2,... de medidas de probabilidad en Rd convergedebilmente a F (medida de probabilidad propia) si para todo conjuntode Borel B tal que F (B ) = 0, se tiene que F n (B ) F (B ) cuandon + . Se denota F n =F .Se verica que F n =F (propia) si y s olo si Rd f dF n Rd f dF f continua y acotada.

    2. Se dene la transformada de Fourier de F (o de una variable aleatoriaX a valores en Rd que tiene la distribuci on F - es decir que para todoboreliano B es P (X B ) = F (B ) - mediante:

    X (t) = (t) =

    Rd

    exp[i t, x ] F (dx), t Rd

    Aqu, , denota el producto escalar usual en Rd.Un caso particular importante es el de la distribuci on normal en Rd .Se dice que X es una variable aleatoria a valores en Rd con distribucionnormal, si su transformada de Fourier X tiene la forma:

    X (t) = exp i t, 12

    t, t

    donde Rd y es una matriz simetrica, denida no negativa con dlas y d columnas.Se verica sin mucha dicultad que, en este caso

    E (X ) = , V ar(X ) =

    donde las deniciones de la esperanza y la varianza para variablesaleatorias vectoriales es la siguiente, siempre y cuando existan cadauna de las esperanzas que guran:

    52

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    53/76

    Si en una base ortonormal de

    Rd el vector X se escribe X = ( X 1,...,X d)T ,

    entoncesE (X ) = ( E (X 1),...,E (X d))T

    V ar(X ) = (( jk )) j,k =1 ,...,d con jk = E [(X j E (X j ))( X k E (X k ))]o lo que es lo mismo

    V ar(X ) = E (X E (X ))( X E (X )T ) .3. Se verican propiedades analogas a las que vimos en dimension 1, in-

    cluyendo los teoremas de unicidad, f ormula de inversion y pasaje allmite (teorema de Levy-Cramer). En particular, la f ormula de in-versi on mas comoda adquiere la forma siguiente: si

    L1(Rd , d)(donde d denota la medida de Lebesgue), entonces F tiene una den-

    sidad continua f que est a dada por la f ormula

    f (x) =1

    (2)d Rd exp[i t, x ] (t) dtEn el caso particular de la distribuci on normal con parametros , ,se verica facilmente que si es denida positiva, entonces vale estaformula de inversion y

    f (x) =

    1

    (2) d2 [det()] 12 exp (x )T

    1

    (x )y si , en cambio, es singular, entonces la distribuci on no tiene densi-dad y est a concentrada en una variedad afn de dimensi on menor qued.

    4. Con los mismos metodos, se prueba el teorema del lmite central. Porejemplo, en el caso de sumas de variables aleatorias independientes conigual distribucion, se tiene el enunciado siguiente: Sea 1, 2, .... unasucesion de variables aleatorias independientes a valores en Rd , conigual distribucion, E (n ) = 0 , V ar(n ) = . Denimos la sucesi on de

    sumas parciales S n = 1 + ... + n , para n 1. Entonces,S n

    n convergedebilmente a la distribuci on normal en Rd , con media = 0 y matrizde varianza .

    53

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    54/76

    2.8 Grandes desviaciones.

    Sea {k}k=1 ,2,... una sucesi on de variables aleatorias independientes y supong-amos que E (k ) = ,Var (k) = 2 y pongamos como antes S n = 1+ ... + n(n 1). Entonces, bajo ciertas condiciones, hemos probado que la dis-tribucion de las sumas parciales normalizadas S n n converge debilmente ala distribucion normal tpica.

    Como sabemos esto signica que si a, b R,a < b , son numeros realesjos entonces

    P a 0,

    n () = P S nn 0

    cuando n + . Se suele decir que n () es la probabilidad del intervalode conanza de radio para la media .Dicho de otro modo, en esta aplicaci on estadstica sencilla de la ley de

    los grandes n umeros, estaremos interesados en saber, para cada > 0, elvalor de n (), o por lo menos, con que velocidad n () tiende a cero cuandon + . Nos interesa saber de que tama no deberamos elegir n (es decir,de que tamano debe ser la muestra que habremos de observar) para quela probabilidad de cometer un error mayor que , cuando reemplazamos lamedia te orica por la media emprica S nn , no supere un valor prestablecido.

    Si intentamos aplicar el Teorema del Lmite Central para calcular - oaproximar - el valor de n (), vemos que

    n () = 1 P n < S n n

    n 0

    t

    ( F , F ).Esto prueba que F es estrictamente convexa.

    Observar que si parametrizamos con la esperanza m la distribucion -usamos la notacion F m para la distribuci on de X y por lo tanto F 0es la distribucion de X m - entonces F m (t) = mt + F 0 (t) =hF m (a) = hF 0 (a m).

    Bajo las hip otesis que hemos hecho, podemos calcular la transformadade Cramer mediante las f ormulas siguientes:

    (a) Si F ( F ) < a < F ( F ), entonces el m aximo de la funci ont at

    F (t) ocurre en el interior del intervalo (

    F ,

    F ), en el

    punto t = ( F )1 (a) y vale

    hF (a) = a. F 1 (a) F F

    1 (a)

    (b) Si a F ( F ), entonces hF (a) = a. F F ( F ).(c) Si a F ( F ), entonces hF (a) = a. F F ( F ).

    El lector vericara facilmente que si F ( F ) < a < F ( F ), entonceshF (a) = F

    1 (a) y hF (a) =1

    F F 1

    (a)

    Por lo tanto, hF es estrictamente convexa en el intervalo ( F ( F ), F ( F )).

    Tambien dejamos a cargo del lector la vericaci on de queF (0) = m y hF (m) = 0 .

    56

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    57/76

    Finalmente, observemos que si a > m , entonces

    hF (a) = sup {at F (t) : t(0, F )}En efecto, a > m =(F )

    1 (a) > (F )1 (m) = 0. O bien el puntoen el que ocurre el m aximo de la funci on t at F (t) est a en elinterior de ( F , F ) y es (F )1 (a),o bien el supremo se alcanza parat F .

    Teorema (Chernof).Sea

    {k

    }k=1 ,2,... una sucesi on de variables aleatorias independientes a

    valores reales con igual distribuci on F y supongamos que E (k ) = m yS n = 1 + ... + n (n 1). Con la misma notaci on que antes, suponemosque 0J

    0 (interior del intervalo J ).Entonces:(a) a > m =P

    S nn a exp[n.h F (a)]

    a < m =P S nn a exp[n.h F (a)]

    En ambos casos es hF (a) > 0.

    (b) m < a < F ( F ) = limn+ 1n log P

    S nn a = hF (a)

    F ( F ) < a < m = limn+ 1n log P

    S nn a = hF (a).

    Demostraci on . Basta considerar el caso a > m . [Si a < m , reemplazark por k].Para la parte (a):

    P (S n n.a ) E (exp[u(S n n.a )]) u(0, F )que implica

    P (S n n.a ) inf u(0 , F ) E (exp [u(S n n.a )]) inf u(0 , F ) exp[n(u.a F (u))]

    = exp n supu

    (0 , F )(u.a F (u)) = exp[ n.h F (a)]

    Para la parte (b), usando (a) alcanza con probar que

    limn+ 1n

    log P S nn a hF (a) (50)

    57

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    58/76

    Para probar (50), poniendo sn = x1 + .... + xn :

    P (S n n.a ) = Rn 1{sn n.a }F (dx1)....F (dxn )= Rn 1{sn n.a }[F (t)]n exp[t.s n ] G(dx1)....G (dxn )

    donde G es la medida de probabilidad en la recta: G(dx) = [F (t)]1 exp[tx ] F (dx).Sea Y 1,...,Y n una sucesi on de variables aleatorias independientes con

    igual distribucion G y T n = Y 1 + ... + Y n (n 1). La igualdad anterior serescribe como

    P (S n n.a ) = [F (t)]n exp[nat ] E 1{T n n.a }exp ntT nn a

    (51)Sea m < a < F ( F ) y > 0 tal que a + < F ( F ) . Elegimos t tal que:

    a < F (t) < a + < F ( F ) = F 1 (a) < t < F

    1 (a+ ) < F .

    Observar que

    E (Y 1) = [F (t)]1 + x exp( tx ) F (dx) = F (t)F (t) = F (t)Por lo tanto, en virtud de la ley fuerte de los grandes n umeros, casi segura-mente, T nn F (t) cuando n + . Tenemos, a partir de (51):

    1n log P S n

    n a= at + F (t) +

    1n

    log E 1{T n n.a }exp ntT nn a

    at + F (t) +1n

    log E 1{na T n n (a+ )}exp ntT nn a

    at + F (t) +1n

    log [exp(nt ).P (na T n n(a + ))]= at + F (t) t +

    1n

    log P (a T nn a + )

    Esto prueba quelimn+

    1n

    log P S nn a at + F (t) t

    ya que P (a T nn a + ) 1. Como > 0, es arbitrario, dada la denici onde hF (a), esto termina la demostraci on.

    58

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    59/76

    2.8.1 Ejemplos.

    1. Consideremos, como en el teorema anterior, una sucesi on de vari-ables aleatorias independientes a valores reales con igual distribuci on

    {k}k=1 ,2,... , y que la distribucion comun F est a dada por P (k = 1) =P (k = 1) = 1 / 2.Es claro que E (k) = 0 , V ar(k) = 1.

    Supongamos que queremos estudiar el comportamiento de n () =P ( S nn ), para 0 < < 1.En virtud del teorema de Chernof, sabemos que 1n log[ n ()] hF ().Los calculos en este caso son inmediatos y se obtiene:

    - (t) = cosh t- (t) = log [cosh t]

    - hF () = tanh 1 log cosh tanh 1 = tanh 1 + 12 log 1 2(usar que cosh 2 x = 11tanh 2 x

    ).

    Si en lugar del teorema de grandes desviaciones se pone el equivalenteque viene del Teorema del Lmite Central, lo que se obtiene comoequivalente es

    21

    2

    +

    nexp

    x2

    2dx

    2

    1n exp

    2n2

    cuando n

    +

    o sea1n

    log 21

    2 + n exp x22 dx 22El comportamiento preciso, dado por hF () se ve que diere del queresulta de utilizar (inadecuadamente) las colas que da el TLC. Sinembargo, si se hace el desarrollo de Taylor de hF () en = 0, se ve queal primer orden signicativo, se obtiene

    2

    2 . Si es sucientementepequeno, ambos exponentes dieren poco, pero ello deja de ser ciertopara valores moderados de .

    2. Veamos una variante del ejemplo anterior. Supongamos que la dis-tribucion F est a dada por P (k = 1) = P (k = 1) = p, P (k =0) = r, 2 p+ r = 1 . Es claro que E (k ) = 0 y V ar(k ) = 2 p. Se obtiene(t) = log [2 pcosh t + r ] y

    hF (a) = a ( )

    59

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    60/76

    donde es la solucion de la ecuaci on

    a ( ) = a 2 psinh

    2 pcosh + r= 0

    Con estos ingredientes, se puede escribir los primeros terminos deldesarrollo de Taylor de hF (a) para a cerca de cero.

    3. Si F es la distribucion normal tpica, se verica inmediatamente que(t) = exp t

    2

    2 y por lo tanto ( t) =t22 , hF (a) =

    a 22 . El compor-

    tamiento asint otico del logaritmo de P ( S nn ) coincide con el delas colas en el TLC.

    4. Si F es la distribucion exponencial con parametro igual a 1 (es decirque para x > 0, es 1F (x) = exp( x)), entonces

    (t) = log(1 t) si t < 1 y (t) = + si t 1.Un calculo elemental muestra que

    hF (a) = a 1 log a siempre que a > 0y si 0 < :

    1n log P (

    S nn 1 ) log (1 + ) =

    2

    2 3

    3 +4

    4 donde el ultimo desarrollo vale si adem as 1.Del otro lado, si 0 < < 1 :

    1n

    log P (S nn 1 ) log (1 + )

    2.9 Distribuciones innitamente divisibles

    Preliminares, medidas can onicas .

    Denici on . Se dice que la medida M denida sobre los Borelianos de

    Res can onica si verica las condiciones:1. M (I ) < para todo intervalo acotado I

    60

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    61/76

    2.

    x > 0 se cumple que

    M + (x) = + x M (dy)y2 < M (x) = x+ M (dy)y2 <

    Ejemplo b asico . Si F es una medida de probabilidad en la recta yC es una constante positiva, entonces M (dx) = C.x 2.F (dx) es una medidacanonica.

    Denici on . Sea

    {F n

    }una sucesi on de medidas de probabilidad en

    Ry {cn}una sucesi on de numeros reales positivos. Diremos que cn .x2.F n (dx)converge propiamente a la medida can onica M (dx) si(a) cn . I x2.F n (dx) M (I ) intervalo I cuyos extremos son de continuidad de M (b) cn + x F n (dy)y2 M + (x), cn x+ M (dy)y2 M (x) si x, x son de cont de M Se verica facilmente que la pareja de condiciones (a),(b) es equivalente a(a),(b), donde

    (b )

    > 0

    a > 0 tal que cn [F n (a) + (1 F n (a))] < nProposici on tecnica auxiliar .Sea {F n} una sucesi on de medidas de probabilidad en R y {n} lasucesion de sus transformadas de Fourier. Consideramos la sucesi on de

    funcionesn (t) = cn [n (t) 1 i n t]

    donde cn > 0, n R.Entonces, para cada t R:

    n (t)

    (t)

    donde es una funci on continua, si y s olo si, existen una medida can onicaM y una constante real b, tales que:

    1. cn .x2.F n (dx) converge a M propiamente

    2. cn (bn n ) b, donde bn = + senx F n (dx).61

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    62/76

    En caso de que haya convergencia, el lmite es de la forma:

    (t) = (t) + ibt con (52)

    (t) = + exp( itx ) 1 i.t.senxx2 M (dx)La medida M est a unvocamente determinada por (52).

    Demostraci on . En realidad, no daremos una demostraci on completa deesta proposicion auxiliar, sino que indicaremos solamente los pasos a seguir,cuyos detalles quedan a cargo del lector.

    Antes que nada, reescribimos n (t) :

    n (t) = + [exp(itx ) 1 i.t.senx ] cn F n (dx) + i cn (bn n ) t (53)Paso 1 .Mostrar que si cn .x2.F n (dx) converge a M propiamente, en-

    tonces, para toda funci on continua y acotada f : R R, tal que f (x)x2 escontinua en x = 0, se tiene:

    + f (x) cn F n (dx) +

    f (x)x2

    M (dx)

    [Usar un metodo an alogo al empleado inicialmente para la convergencia debilde medidas de probabilidad].

    Paso 2 . Si n (t) (t) uniformemente en |t| t0 y 0 < h t0,entonces:

    + 1 sen (xh )xh cn F n (dx) 12h h

    h(t) dt

    Paso 3 . Si n (t) (t) uniformemente en |t| t0, entonces existe unasubsucesi on {nk}tal que cn k .x2.F n k (dx) converge a M propiamente, dondeM es una medida canonica.Para probar esto, usar el mismo tipo de argumento diagonal que para

    la compacidad debil de las medidas de probabilidad y tambien, el resultadodel paso 2.

    Paso 4 . Si M es canonica, la funci on denida por (52) es continua yla correspondencia M es inyectiva.

    62

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    63/76

    La continuidad es inmediata. Para ver la inyectividad, observar que, dela denici on de resulta que

    h > 0 :

    (t) (t + h) + (t h)

    2= + exp( itx ) 1 cos(xh )x2 M (dx)

    Dicho de otro modo, la funcion (t) (t+ h)+ (th)2 es la transformada deFourier de la medida nita h (dx) =

    1cos( xh )x2 M (dx). Por la unicidad yaconocida, esto dice que determina h h > 0. Esto casi determina M,salvo por eventuales atomos en los puntos x tales que cos( xh ) = 1. Quedaa cargo del lector mostrar que entonces M est a unvocamente determinada.

    Paso 5 . Con los elementos anteriores, el lector puede completar la de-mostracion de la Proposici on.

    Denici on . Se dice que la distribucion de probabilidad propia en larecta F es innitamente divisible si para cada entero positivo n existe unadistribucion de probabilidad F n tal que, si 1,..., n son n variables aleatoriasindependientes con igual distribuci on F n , entonces, la suma 1 + ... + n tienedistribucion F .

    De manera equivalente, podemos escribir esta condici on en terminos detransformadas de Fourier. Si denotamos por la transformada de Fourierde F , que esta es innitamente divisible signica que para cada entero pos-itivo n podemos encontrar una transformada de Fourier de una medida deprobabilidad propia, n tal que

    [n (t)]n = (t) t R

    El resultado fundamental de esta secci on es el teorema siguiente:Teorema (Levy, Kinchn) . es la transformada de Fourier de una

    distribucion de probabilidad innitamente divisible, si y s olo si, existen unamedida can onica M y una constante real b tales que:

    (t) = exp [ (t)] donde (54)

    (t) = ibt + +

    exp( itx ) 1 i.t.senxx2 M (dx)

    M y b son unicas.Antes que la demostraci on veamos algunos (primeros) ejemplos.

    63

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    64/76

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    65/76

    Calculamos la transformada de Fourier de la distribuci on de X, es decir:

    X (t) = E (exp( itX )) = E [E (exp( itX )/N = k)]

    =

    k=0

    E (exp( itS k)/N = k) P (N = k)

    =

    k=0

    E (exp( itS k)) P (N = k) =

    k=0

    [(t)]kk

    k!exp()

    = exp [ ((t) 1)] = exp itb + + exp( itx ) 1 i.t.senxx2 x2F (dx)con b =

    +

    senx F (dx).Es claro entonces que X tiene la forma indicada en (52) con b = .b y

    M (dx) = .x 2F (dx).El lector observara que es posible dar una demostraci on directa simple

    de que la distribucion de X es innitamente divisible, que no depende de(52).

    Observe el lector que en la proposicion tecnica auxiliar de esta secci on,exp[n (t)] son transformadas de Fourier de distribuciones de Poisson com-puestas, a menos de una traslaci on y un cambio de escala.

    Ejemplo 4 .- El lector vericara que si M (dx) = x.ex .1{x> 0} dx en-tonces F es la distribucion exponencial de parametro igual a 1. Para ver esto,observar que la transformada de Fourier de la exponencial con par ametro 1es (t) = 1 / (1 it ) y que (t) = log [(t)] = + 0 exp( itx )1x exp(x) dx.Ejemplo 5.- El lector probara que F es una distribucion innitamentedivisible concentrada en [0 , + ) si, y solo si, su transformada de Fourier se escribe como = exp( ) donde

    (t) = ibt + + 0 exp( itx ) 1x (dx)donde es una medida de Borel concentrada en la semirrecta (0 , + ) , + 0 11+ x (dx)

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    66/76

    donde b = b+

    +

    1{| x | < 1} senxx2 M (dx). Vease que esta ultima integral est a

    bien denida, en virtud de que M es una medida canonica.La forma que es quiz a la m as utilizada de la representaci on de Levy-

    Kinchn, es la siguiente

    (t) = ib t 12

    2t2 + + exp( itx ) 1 i.t 1{|x|< 1} N (dx) (57)donde se ha reescrito la medida can onica M como M (dx) = 20(dx) +x2N (dx). Aqu, 0 es la medida de Dirac en el punto x = 0, es decir que elprimer sumando es una masa de tama no 2, concentrada en el origen, y N es una medida de Borel en R \ {0}tal que

    |x|< 1 x2N (dx) < , |x|1 N (dx) < (58)Es inmediata la deducci on de estas condiciones de las que verica M por sercanonica.

    Demostraci on del teorema de Levy-Kinchn .Paso 1 . En este primer paso, probamos que si {n}es una sucesi onde transformadas de Fourier de distribuciones (propias) de probabilidad,

    entonces:

    nn puntualmente , continua n(n1) puntualmente , continua(59)

    En ese caso, (t) = exp [ (t)] .Probemos primero la implicaci on de derecha a izquierda. La hip otesis

    implica que n 1 puntualmente, y por lo tanto, uniformemente en cadacompacto, dado que tanto n como 1 son transformadas de Fourier de me-didas de probabilidad. Por lo tanto, si t vara en un compacto dado, cuandon es sucientemente grande est a bien denido log (la rama principal del log-aritmo) de n (t) y la hip otesis implica, desarrollo de Taylor mediante, quen log[n (t)] (t). Se sigue que [n (t)]n exp[(t)] . Es claro que estovale entonces para cada t jo.

    Veamos ahora (59) de izquierda a derecha. Como {nn} es tambienuna sucesi on de transformadas de Fourier de medidas de probabilidad, la

    hipotesis implica, a raz del teorema de Levy-Cramer, que la convergenciaes uniforme en cada compacto. Dado que es continua, elijamos t1 > 0tal que |t| t1 = |(t) 1| < 1/ 2. Por lo tanto, si n es sucientementegrande, esta denido log [n (t)]n (rama principal) t tal que |t| t1. Se

    66

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    67/76

    deduce entonces que n log[n (t)]

    log[(t)] =

    n [n (t)

    1]

    log[(t)]

    cuando |t| t1. Queremos ver que hay convergencia para todo t.De la convergencia en el intervalo [ t1, t 1] se deduce que existe unasubsucesi on n k tal que nk n k (t) 1 converge puntualmente en todala recta, a una funcion continua (Usar el Paso 3 de la demostraci on de laproposici on auxiliar). Pero entonces, podemos aplicar a esta subsucesi on laimplicaci on de derecha a izquierda de (59), que ya fue probada, y resultaque n k (t)

    n k exp[(t)] puntualmente, en toda la recta. Entonces estelmite es continuo y no depende de la subsucesi on. El lector aprovechar aesto para terminar la argumentaci on.

    Paso 2 . Veamos ahora el directo en el teorema de Levy-Kinchn.Supongamos que es innitamente divisible. Entonces,

    n = 1 , 2,...

    una transformada de Fourier n tal que nn = y por lo tanto estamos

    en las condiciones de aplicar la implicaci on de izquierda a derecha en (59)del Paso 1, y resulta que n(n 1) puntualmente , continua y que = exp( ). Aplicando ahora la proposici on auxiliar, resulta que tiene laforma requerida en (52).

    Paso 3 . Para el recproco, supongamos que tiene la forma de (54).Consideremos primero el caso en que la medida can onica M est a con-

    centrada en {x : |x| > }con > 0. Entonces, si denimos la medida deprobabilidad

    G(dx) =K x2

    M (dx)

    con K = + M (dx )x2 1

    y sea la transformada de Fourier de G. Ellector vericar a que entonces, con una eleccion apropiada de b, resulta(t) = exp ibt + K ( (t) 1) que es innitamente divisible (es una latransformada de Fourier de una Poisson compuesta, trasladada y con uncambio de escala).

    Veamos ahora el caso general, en que no necesariamente M est a concen-trada en un conjunto de la forma {x : |x| > }con > 0.Consideramos entonces, para cada > 0, la medida canonica M (dx) =1{|x|> }M (dx) y le aplicamos lo anterior. Denotamos por la transformadade Fourier de K x2 M (dx) (mismas notaciones). Aplicando nuevamente laproposici on auxiliar, resulta que exite el lmite puntual

    (t) = lim0

    (t) 12

    t2M ({0})y como exp (t) 12 t2M ({0}) es la transformada de Fourier de una dis-tribucion de probabilidad (convoluci on de una Poisson compuesta y una

    67

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    68/76

    normal) tambien exp [ (t)], en virtud del teorema de Levy-Cramer.Esto prueba que si tiene la forma (54), entonces es la transformada

    de Fourier de una distribuci on de probabilidad propia. Pero lo mismo seaplica si uno reemplaza, para cada n 1, M por 1n M y b por 1n b. Si nes la transformada de Fourier con esta medida can onica y esta constante,entonces es obvio que se verica que nn = .

    2.10 Distribuciones estables. Dominios de atracci on.

    Denici on . Sea F una distribucion de probabilidad (propia), F = 0.Diremos que F es estable en sentido amplio si para todo n, entero positivo,si X 1,...,X n son variables aleatorias independientes con distribuci on F yS n = X 1 + ... + X n entonces, existen numeros reales cn , dn , cn > 0 tales que

    S n(d)= cn X 1 + dn

    donde (d)= signica que las variables aleatorias y tienen la misma

    distribucion de probabilidad.Diremos que F es estrictamente estable, si una relaci on an aloga se

    verica con dn = 0 .

    Es obvio que si F es estable, entonces es innitamente divisible, ya quecon esa notaci on, para todo n 1, X 1 tiene la misma distribuci on quela suma de las n variables aleatorias independientes con igual distribuci onX k dnn 1cn (k = 1 ,...,n ). Entonces, su transformada de Fourier se puederepresentar mediante (54) y el primer objetivo de esta secci on es calcular las

    medidas canonicas M y las constantes b de las distribuciones estables. Elsegundo objetivo es relacionar las distribuciones estables con una extensi ondel teorema del lmite central para sumas de variables aleatorias independi-entes con igual distribuci on, cuando no se cumplen las hip otesis para que ladistribucion lmite sea normal, pero sin embargo hay convergencia debil.

    Denici on . Sea F una distribucion de probabilidad (propia). Se denela simetrizada de F , que denotamos F s , como la distribucion de probabil-idad de X Y , donde X e Y son variables aleatorias independientes, cadauna de ellas con distribuci on F .

    Es inmediato que si F es estable, entonces F s es estrictamente estable,con el mismo cn .

    68

  • 8/6/2019 Wschebor-Procesos-Estocasticos

    69/76

    Teorema . En la denici on de distribucion estable, necesariamente debeser cn = n

    1 para alg un real , 0 < 2.Demostraci on . El lector vericar a que basta probarlo cuando F es es-

    trictamente estable (usar F s ).En ese caso, con la misma notacion anterior, aplicando la denici on,

    resulta que si m,n,k son enteros positivos:

    cm + n X 1(d)= cm X 1 + cn X 2

    cm.n = cm .cn = cn k = ( cn )k

    Veamos que la sucesion {cn}n =1 ,2,.. es monotona creciente. E