tema3:modelosdeinferenciaparala distribució .tema3:modelosdeinferenciaparala distribuciónnormal

Download Tema3:ModelosdeInferenciaparala distribució .Tema3:ModelosdeInferenciaparala distribuciónNormal

Post on 01-Oct-2018

212 views

Category:

Documents

0 download

Embed Size (px)

TRANSCRIPT

  • Tema 3: Modelos de Inferencia para la

    distribucin Normal

    Introduccin

    En este tema se estudian mtodos de inferencia para el modelo de la distribucin normal.

    La importancia de este modelo se refleja en la teora de errores de mediaciones, o en la apro-

    ximacin, a travs de la normal, de otras muchas distribuciones como resultado del Teorema

    Central del Lmite.

    NOTA: La funcin de densidad de una v.a. normal con parmetros y 2 (X N(, )) es

    f(x|, ) = 12

    exp

    {

    (x )2

    22

    }

    donde < x

  • posteriori como

    (| x1, x2, . . . , xn) =f (x1, x2, . . . , xn; )

    f (x1, x2, . . . , xn)=f (x1, x2, . . . , xn|) ()

    f (x1, x2, . . . , xn)

    f (x1, x2, . . . xn|) () (

    n

    i=1

    exp

    {

    12

    (xi 1

    )2})

    exp{

    12

    ( 00

    )2}

    exp{

    12

    n

    i=1

    (xi 1

    )2}

    exp{

    12

    ( 00

    )2}

    exp{

    12

    [n

    i=1

    1

    21

    (x2i 2xi + 2

    )+

    1

    20

    (2 20 + 20

    )]}

    exp{

    12

    [n

    i=1

    1

    21

    (2xi + 2

    )+

    1

    20

    (2 20

    )]}

    exp{12

    (2(n

    21+

    1

    20

    ) 2

    (ni=1 xi21

    +020

    ))}

    exp{

    12

    (n

    21+

    1

    20

    )(

    2 2(

    n21x+ 1

    200

    n21

    + 120

    ))}

    ,

    NOTA:

    Si una v.a. Z se distribuye N(m,) entonces su funcin de densidad se puede escribir como

    f(z) exp(12 1s2

    (z m)2) exp

    (12 1s2(z2 2zm

    ))

    Por tanto, observando la expresin anterior, resulta que la distribucin a posteriori es una

    normal con media y varianza

    a =

    n21x+ 1

    200

    n21

    + 120

    ,

    b2 =1

    n21

    + 120

    ,

    esto es, |x N (a, b2) .Como consecuencia de todo lo anterior se verifica lo siguiente:

    Teorema 1 La distribucin normal es una distribucin conjugada respecto de la verosimilitud

    normal, con media desconocida y varianza conocida.

    2

  • Inferencia

    Estimacin puntual

    En este caso, coinciden la media, la moda y la mediana a posteriori, as, como estimador

    puntual se puede usar la media a posteriori que es, observando la expresin anterior,

    E [|x] =n21x+ 1

    200

    n21

    + 120

    =

    =

    n21

    n21

    + 120

    x+

    120

    n2

    + 120

    0,

    es, por tanto, una media ponderada entre la media muestral y la media a priori.

    Estimacin por intervalos

    Sea z2

    el valor, que para la normal N (0, 1) , verifica que

    P(|z| z

    2

    )= 1 ,

    por lo tanto, se toma como intervalo de probabilidad 1 [a z

    2b, a+ z

    2b],

    donde

    a =

    n21x+ 1

    200

    n21

    + 120

    y

    b =

    (n

    21+

    1

    20

    ) 12

    .

    Contraste de hiptesis

    Hiptesis nulas no puntuales

    Calculamos la probabilidad a posteriori de las hiptesis y nos quedamos con la que d mayor

    probabilidad. Supongamos, por ejemplo, que hay dos hiptesis y stas son

    H0 : c

    H1 : < c

    3

  • Se tiene que, calculando las probabilidades a posteriori de cada una de las hiptesis,

    P (H0|datos) = P ( c|datos) =

    c

    f (|datos) d = 1 (c ab

    )

    P (H1|datos) = (c ab

    ).

    donde es la funcin de distribucin de una N(0, 1).

    As, se dice que los datos apoyan H0 si

    1 (c ab

    ) (c ab

    )

    o, equivalentemente,

    (c ab

    ) 1

    2

    y viceversa.

    Hiptesis nulas puntuales

    Supongamos, por ejemplo, la hiptesis puntual

    H0 : = c

    H1 : = c

    Se calcula un intervalo de probabilidad 1 . Se dice, entonces, que los datos apoyan H0 si elvalor crtico c est dentro del intervalo. Especficamente, se dice que los datos apoyan H0 si

    c [a z

    2b, a+ z

    2b],

    donde

    a =

    n21x+ 1

    200

    n21

    + 120

    b =

    (n

    21+

    1

    20

    ) 12

    o, alternativamente, si a cb

    z2 .

    Prediccin

    Se tiene que calcular la distribucin de Xn+1|x. En general, se tiene que

    f (xn+1|x) =

    f (xn+1, |x) d =

    f (xn+1|,x) f (|x) d =

    =

    f (xn+1|) f (|x) d.

    4

  • En este caso, su esperanza es

    E (Xn+1|x) =

    xn+1f (xn+1|x) dxn+1 =

    =

    xn+1

    f (xn+1|) f (|x) ddxn+1 =

    =

    [

    xn+1f (xn+1|) dxn+1

    ]f (|x) d =

    =

    f (|x) d = a.

    y de modo anlogo se calcula su varianza.

    V ar (Xn+1|x) = 2 + b2.

    Se puede demostrar, escribiendo Xn+1 = (Xn+1 ) + y observando que ambos trminos sonvariables independientes:

    (Xn+1 ) N(0, 21)

    |x N(a, b2)

    de modo que

    Xn+1 N(a,(21 + b

    2)).

    donde

    a =

    n21x+ 1

    200

    n21

    + 120

    b2 =

    (n

    21+

    1

    20

    )1.

    Ejemplo

    Supongamos que nos proponen comparar los mtodos de produccin de cierta sustancia. Se

    realizan 16 mediciones y se calcula la diferencia de rendimiento entre ambos mtodos (el del

    primero menos el del segundo).

    3,7 6,7 10,5 6,1 17,6 2,3 7,9 8,94,5 7,7 9,4 10,4 10,9 9,3 16,7 7,2

    5

  • Suponemos que

    Xi N(, 21 = 25

    ),

    donde la distribucin a priori de es

    N(0 = 0,

    20 = 100

    ).

    Se puede observar que el intervalo de probabilidad 0.95 a priori es (20, 20) , que incluye todaslas observaciones.

    Como tenemos x = 7,99, n = 16, aplicando los resultados anteriores, se tiene

    a =1625(7,99) + 1

    1000

    1625+ 1

    100

    = 7,87

    b2 =1

    1625+ 1

    100

    = 1,54.

    Estimador puntual: el estimador puntual de la diferencia entre ambas medidas es la media

    a posteriori, esto es, a = 7,87.Estimacin por intervalos: el intervalo de probabilidad 0.95 es

    [a z

    2b, a+ z

    2b]=

    =[7,87 1,96

    1,54;7,87 + 1,96

    1,54]=

    = [10,288;5,452]

    Contraste de hiptesis: el contraste de hiptesis que se considera es:

    H0 : 0

    H1 : < 0,

    luego

    P (H0|datos) = P ( 0) = P(+ 7,87

    1,54 7,87

    1,54

    )= P (Z 6,34) 0,

    por tanto, se rechaza la hiptesis nula, esto es, el rendimiento del segundo es mayor.

    Prediccin:

    X17 N(7,87;

    (1,54 + 52

    )) N (7,87; 26,54) .

    6

  • Asignacin de la distribucin a priori

    Se considera ahora la asignacin de la distribucin a priori de , N (0, 20) . Se nece-sitan dos juicios para fijar los dos parmetros. Habitualmente, se emplea un valor tpico como

    media (que es igual a la moda) y un valor extremo con su probabilidad asociada, para asig-

    nar la desviacin tpica. Usualmente se hace alguna comprobacin adicional para evaluar la

    consistencia de las asignaciones.

    Ejemplo

    Se considera el volumen de agua que entra en un embalse durante el mes de Enero. Se

    consulta a un experto. Este dice que el valor tpico es 2000 y nunca suele entrar ms de 3000.

    Hago 0 = 2000 y

    1,960 = 3000 2000

    de modo que 0 500, esto es,

    N (2000, 0 = 500) .

    Como recomendacin general, cuanto mayor sea la incertidumbre (o menor sea la informa-

    cin disponible), 0 deber ser mayor de modo que la densidad pasa a ser casi plana en la regin

    de inters.

    Distribuciones de Referencia o no informativas

    A veces no se quiere introducir informacin en la distribucin a priori, porque

    7

  • (i) No se sabe nada previamente sobre el problema,

    (ii) Se quiere ser objetivo.

    En estas situaciones se tienen que elegir distribuciones a priori no informativas. Se pueden

    considerar diferentes soluciones.

    El principio de la razn insuficiente:

    Este principio (Bayes 1763, Laplace 1814), que es muy intuitivo, dice que si no hay informa-

    cin para diferenciar entre valores diferentes de , se debe dar la misma probabilidad a todos

    los valores. Esto implica considerar una distribucin a priori uniforme para .

    Si el soporte de es infinito, la distribucin a priori ser impropia (no integra 1) resulta ser,

    () 1.

    La crtica ms importante es que la distribucin uniforme no es invariante en caso de trans-

    formaciones, es decir, frente a cambios de unidades de medida, por ejemplo.

    Distribuciones a priori de Jeffreys

    Jeffreys introdujo una distribucin a priori con la propiedad de invarianza.

    Sea unidimensional, la distribucin a priori de Jeffreys es

    () I()

    donde

    I() = VarX

    [

    log f(X|)

    ]= EX

    [(

    log f(X|)

    )2]

    = EX[2

    2log f(X|)

    ]

    es la informacin esperada de Fisher.

    Si = () y se elige () I(), entonces ()

    I().

    La distribucin a priori de Jeffreys es invariante en el sentido de que la inferencia no depende

    de la escala elegida para el parmetro. El problema es que no funciona adecuadamente para

    parmetros multivariantes.

    En el caso de la normal se busca una distribucin a priori sobre el parmetro ; si se aplica

    el principio de la razn insuficiente (que coincide en este caso con el mtodo de Jeffreys) la

    distribucin impropia inicial de es

    () 1, R

    8

  • de manera que la metodologa clsica es equivalente a la bayesiana.

    Si () 1 entonces

    (|x) () f (x1, . . . , xn | )

    1 exp[

    1221

    n

    i=1

    (xi )2]

    exp[ 1221

    (n2 2nx

    )]

    exp

    12(21n

    ) ( x)2

    ,

    resultando,

    |x N(x,21n

    )

    que no depende de la informacin a priori sobre .

    Este caso equivale a considerar que 0 , ya que

    (|x) f (x1, x2, . . .