pruebas estadísticas en medicina
TRANSCRIPT
Test estadísticos
Curso de metodología de la investigación
Dr Juan Carlos López Robledillo
Mèdico especialista en Reumatologìa Doctor en Medicina Diplomado superior de Metodologia de Investigacion Clìnica Experto universitario en estadistica de la salud
● Describir ● Realizar inferencias ● Predecir ● Obtener evidencias
A) Atendiendo a la escala de medida ● Cuantitativas
o Discretas: número finito de valores o Continuas: número infinito de valores
● Cualitativas (atributos o factores) o Nominales: clasificación sin graduación o Ordinales: clasificación con orden o graduación implícita
B) Según la manipulación del investigador ● Dependientes: se miden o registran sin manipulación ● Independientes: permiten manipulación
● Nominal o clasificatoria :
Escala cualitativa de clasificación de personas, objetos o características sin graduación implícita
● Ordinal o de rango:
Escala cualitativa de clasificación que lleva implicita un orden o graduación
● De intervalo
Escala cuantitativa con un punto 0 arbitrario
● De proporción Escala cuantitativa con un valor 0 real
Variables discretas ● Binonial ● Poisson
Variables continuas ● Gaussiana (normal)
¿ Distribución normal ?
Edad de los niños que acuden a urgencias del HNJ con neumonía
Edad de los niños que acuden a urgencias del HNJ con neumonía
Variables continuas
Valorar normalidad de las variables de estudio
Realizar transformación que normalize la variable
Utilizar estadística no paramétrica
● Estadística descriptiva o Medidas de tendencia central: media, mediana, moda
o Medidas de dispersión: varianza, desviación típica, rango
Población externa
Población diana (target)
Población muestreada (actual)
Muestra (study pop)
Inferencia estadística
Validez interna
Validez externa
● Estadística inferencial o Contraste de hipótesis (significación estadística) o Intervalos de confianza (significación y precisión)
P<0,05
Procedimiento estadístico mediante el cual se llega a aceptar o rechazar una hipótesis. 1. Planteamiento de hipótesis. • Hipótesis nula • hipótesis alternativa 2. Elección de una prueba de significación estadística • Normal • T de Student • Chi cuadrado etc 3. Rechazo o aceptación de las hipótesis iniciales
1. Planteamiento de las hipótesis a contrastar: ● Hipótesis nula Ho:
Es la hipótesis que se quiere contrastar y por lo tanto se rechazará o no se rechazará.
● Hipótesis alternativa H1:
Es la hipótesis contraria o alternativa y se aceptará si se rechaza la hipótesis nula
2. Elección de la prueba de significación estadística ● Tipo de variables.
● Existencia o no de apareamiento
● Condiciones de aplicación de cada prueba:
o pruebas paramétricas
o pruebas no paramétricas
Prueba de significación: Estadístico del contraste Variable de distribución conocida en cuyos valores nos basamos para rechazar o no la hipótesis nula. ● “Z” Distribución normal estandarizada ● “t” de Student ● “Chi-cuadrado” ● “F” de Snedecor
⏐ Oi-Ei ⏐ 2
Ei χ2 = ∑
Con (f-1) . (c-1) gdl
3. Rechazo o aceptación de las hipótesis ● p < 0,05 Rechazar hipótesis nula
- Existen diferencias significativas - Se acepta la hipótesis alternativa ● p >0,05 No rechazar hipótesis nula
- No encontrar diferencias no significa que no las haya - No equivale a “aceptar” la hipótesis nula - No equivale a rechazar la hipótesis alternativa
Error de tipo I (alfa): rechazar Ho siendo cierta (encontrar diferencias significativas cuando no las hay) Error de tipo II (beta): aceptar Ho siendo falsa (no encontrar diferencias significativas cuando las hay) Nivel de significación del test (1-alfa): no rechazar Ho siendo cierta probabilidad de no encontrar diferencias cuando no las hay Potencia del contraste (1-beta): probabilidad de rechazar Ho siendo falsa (encontrar diferencias significativas cuando las hay)
● Probabilidad de rechazar la hipótesis nula (ausencia de efecto o asociación) cuando es cierta.
● Probabilidad de encontrar diferencias significativas cuando en
realidad no las hay. ● Probabilidad de encontrar un efecto o asociación debido al azar
(cuando en la población no existe) ● “SEGURIDAD” en el efecto o asociación encontrados
● Probabilidad de error que cometemos al aceptar los resultados
observados como válidos (representativos de la población)
Comparación de dos medias muestras independientes
Prueba de la “Z” tamaño de las muestras >30
Prueba “t” de Student-Fisher tamaño de las muestras <30
Prueba “U” de Mann-Whitney
Si no se cumplen condiciones de aplicación
Diferencia de peso = 100 IC 95 % (27,53 ; 172,46)
P = 0.007
Ejemplo Comparación de dos medias (muestras independientes)
Diferencia de peso = 100 IC 95 % (0 ; 207)
P = 0.15
Ejemplo Comparación de dos medias (muestras independientes)
Comparación de dos medias muestras apareadas
Prueba “t” de Student-Fisher para datos apareados.
Prueba de Wilcoxon
Si no se cumplen condiciones de aplicación
VSG antes y después de antibioterapia IV
Ejemplo Comparación de dos medias (muestras apareadas)
Comparación de más de dos medias muestras independientes
Analisis de la varianza (ANOVA de 1 vía o factor)
Prueba de Kruskall- Wallis
Si no se cumplen condiciones de aplicación
P = 0,375
Estancia media según tipo de antibiótico
Ejemplo Comparación de más de dos medias: ANOVA
Ejemplo Comparación de más de dos medias
Comparación de más de dos medias muestras dependientes
Analisis de la varianza (ANOVA de 2 vías o factores)
Prueba de Friedman
Si no se cumplen condiciones de aplicación
Comparación de proporciones muestras independientes
Prueba “Chi cuadrado”. Prueba exacta de Fisher. (frecuencia esperada < 5 % en más del 20 % de las celdillas de la tabla)
Frecuencia en población 51,61 %
Ejemplo: comparación de dos proporciones χ2
62,50 % 31,82 %
● H0: frecuencia observada de caries = frecuencia esperada
● H1: hay diferencias (y por lo tanto asociación)
● Estadístico del contraste: Chi-cuadrado
● Resultado: p= 0,0010 ● Conclusión= rechazamos la H0, y asumimos que hay diferencias
significativas. “Existe asociación entre el lugar de residencia y la caries dental”
Ejemplo:
comparación de dos proporciones χ2
P=0,001
N=80 N=44
Ejemplo:
comparación de dos proporciones χ2
ciudad campo
Comparación de proporciones muestras apareadas
Prueba de Mc Nemar Pruebas de concordancia (prueba de Kappa)
Correlación lineal
Coeficiente de correlación de Pearson “r” Coeficiente de correlación de Spearman
Si no se cumplen condiciones de aplicación
∑ (x-x) (y-y)
∑ √ ∑ (x-x) 2 ∑ (y-y) 2 r = (n-1) gdl
Condiciones de aplicación:
Distribución conjunta de ambas variables normal
Relación lineal
r= 0,875
p=0,004
VSG
PCR
r
r r
r
= 0,9
= 0
= - 0,9
= 0,45
= 0,5 r
x
y
r= -0,3
x
y
= 0,04 r
x
y
r =0,8
x
y
r =0,1
x
y r = - 0,31
Principales pruebas estadísticas
Cualitativa / cualitativa
Cuantitativa / cualitativa
Cualitativa / cualitativa
Correlación
Cuantitativa / cuantitativa
Verdadero valor poblacional
0
100 Nº de muestras
Media muestral
Definición de límites entre los que se espera que esté situado el verdadero valor poblacional con un nivel de confianza fijado (95 %)
µ×
Intervalo confianza
Nivel de confianza (1-α) 90 % 95 % 99 %
Tipo de medida: ● Media ● Proporción ● Diferencia de medias ● Diferencia de proporciones
● Coeficiciente de correlación
● Riesgo relativo ● Odds ratio ● Kappa
Fórmula
m ± (Zα x ES)
media
Muestras grandes (n>30)
X ± Zα x ESM (ESM= s / √n)
Muestras pequeñas (n<30)
X ± tn-1, α x ESM (ESM= s / √n)
proporción
p ± Zα x ESP (ESP= √ p x (1-p) / n) aplicable cuando np y n(1-p) son iguales o superiores a 5
Muestras grandes:
(X2-X1) ± Zα x ESdM
ESdM= √ ES12 + ES22
Muestras pequeñas
(X2-X1) ± t n-2,α x ESdM ESdM= (N1-1) S12 + (N2-1) S22 1 + 1
N1 + N2 - 2 x N1 N2
Diferencia de medias muestras independientes
Muestras grandes:
(X2-X1) ± Zα x ESdM ESdM= ES (X2-X1) Muestras pequeñas
(X2-X1) ± t n-1,α x ESdM
ESdM= ES (X2-X1)
Diferencia de medias muestras apareadas
(p2-p1) ± Zα x ESdP
ESdP= √ (p1 x (1-p1) / n1) + (p2 x (1-p2) / n2)
Diferencia de proporciones muestras independientes