anÁlisis de fiabilidad.anÁlisis de fiabilidad. estudio
TRANSCRIPT
ANÁLISIS DE FIABILIDAD.ANÁLISIS DE FIABILIDAD.ANÁLISIS DE FIABILIDAD.ANÁLISIS DE FIABILIDAD.
ESTUDIO TEÓRICO Y PRÁCTICOESTUDIO TEÓRICO Y PRÁCTICOESTUDIO TEÓRICO Y PRÁCTICOESTUDIO TEÓRICO Y PRÁCTICO CON SPSS.CON SPSS.CON SPSS.CON SPSS.
Gema Manzano VenturaGema Manzano VenturaGema Manzano VenturaGema Manzano Ventura
Dirigido por
D. Rafael Pérez OcónD. Rafael Pérez OcónD. Rafael Pérez OcónD. Rafael Pérez Ocón
Trabajo Fin de MásterTrabajo Fin de MásterTrabajo Fin de MásterTrabajo Fin de Máster
Máster en Estadística Aplicada
Universidad de Granada
Septiembre, 2013
Este trabajo se presenta para la obtención del Título Oficial del Máster
Universitario “Estadística Aplicada”. Ha sido posible gracias a la inestimable ayuda
del Sr. D. Rafael Pérez Ocón, catedrático de la Facultad de Ciencias de Granada, a
quien debo agradecer su excelente labor como profesor y su implicación como
director en este proyecto.
A mi Abuela,
Por dejarme el tesoro infinito de tus palabras, tus abrazos, tus
besos, tu sonrisa. Por enseñarme tantas pequeñas y grandes cosas. Por
tu coraje y alegría que hoy me impulsan a vivir, a pesar de tener que
hacerlo en un mundo en el que tú ya no estás. Por regalarme tu
recuerdo eterno.
Gema Manzano Ventura
1
RESUMEN.......................................................................................................................... 3
Capítulo 1: FIABILIDAD ......................................................................................................... 5
1. Introducción .................................................................................................................... 6
1.1. Introducción a la Fiabilidad ................................................................................................ 6
1.2. Contexto Histórico .............................................................................................................. 8
2. Fiabilidad en el tiempo ................................................................................................... 10
2.1. Definición formal de fiabilidad ......................................................................................... 10
2.2. Medidas de la fiabilidad ................................................................................................... 12
2.3. Distribuciones de vida ...................................................................................................... 20
3. Análisis Paramétrico ...................................................................................................... 28
3. 1. Introducción ..................................................................................................................... 28
3.2. Método Probability Plotting ( Q-Q PLOT) ......................................................................... 29
3.2.1. Obtención de los puntos a ajustar .......................................................................................... 30
3.2.2. Regresión lineal mínimo-cuadrática ..................................................................................... 32
3.3. Método de máxima verosimilitud .................................................................................... 37
4. Análisis no paramétrico .................................................................................................. 39
4.1. Tiempos de censura .......................................................................................................... 40
4.2. Estimación Kaplan-Meier ................................................................................................. 41
5. Mantenimiento .............................................................................................................. 43
5.1. Tiempo de reparación-TTR ............................................................................................... 44
Capítulo 2. ESTUDIO REAL DE FIABILIDAD ........................................................................... 46
1. Introducción .................................................................................................................. 47
1.1. Justificación del estudio .................................................................................................... 47
1.2. Estudio de fiabilidad con SPSS .......................................................................................... 50
2. Fiabilidad: Análisis de los tiempos de fallo ...................................................................... 51
2.1. Análisis descriptivo de los tiempos de fallos .................................................................... 51
2.2. Análisis paramétrico ......................................................................................................... 55
2.2.1. Regresión lineal ............................................................................................................................. 59
2.3. Propiedades de fiabilidad del generador eléctrico .......................................................... 63
2.4. Análisis no paramétrico .................................................................................................... 67
2.4.1. Regresión lineal a partir de la estimación........................................................................... 70
2.5. Análisis paramétrico & Análisis no paramétrico .............................................................. 72
2.5.1. Comparación parámetros estimados .................................................................................... 72
2.5.2. Comparación funciones de fiabilidad .................................................................................. 73
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
3. Mantenimiento: Análisis de tiempos de reparación ........................................................ 74
3.1. Análisis descriptivo de los datos ....................................................................................... 74
3.2. Análisis paramétrico ......................................................................................................... 76
3.2.1. Regresión lineal ............................................................................................................................. 78
3.3. Propiedades de reparación del sistema ........................................................................... 81
3.4. Análisis no paramétrico ................................................................................................... 85
3.5 Análisis paramétrico & Análisis no paramétrico .............................................................. 88
3.5.1. Comparación de parámetros estimados .............................................................................. 88
3.5.2. Comparaciones de funciones de mantenibilidad ............................................................. 88
Apéndice del Capítulo 2: Simulación ................................................................................... 90
A.1. Introducción ..................................................................................................................... 91
A.2. Distribución Weibull ....................................................................................................... 91
A.2.1.Generación de una v.a. que sigue una distribución Weibull ........................................ 91
A.2.2. Comprobación ajuste Weibull para tiempos de fallos ................................................... 92
A.3. Distribución log-normal ................................................................................................... 96
A.3.1.Generación de una v.a. que sigue una distribución log-normal .................................. 96
ANEXO 1. Datos reales del generador: Tiempos de fallo y reparación ................................ 102
ANEXO 2. Estructura de datos en el Análisis de Supervivencia ........................................... 104
ANEXO 3. Tabla de supervivencia T_operativo .................................................................. 105
ANEXO 4. Tabla de supervivencia T_reparación ................................................................ 107
ANEXO 5. Datos simulados v.a. Weibull ............................................................................ 109
ANEXO 6. Datos simulados v.a. Log-normal ...................................................................... 112
Gema Manzano Ventura
3
RESUMEN
Una de las proposiciones más firmes del estadístico es la construcción de
modelos de probabilidad que sean capaces de describir el comportamiento teórico
de diferentes fenómenos aleatorios que ocurren en el mundo real. La pretensión
principal de esta modelización es la de hacer predicciones sobre la ocurrencia de
dichos fenómenos para así aprovechar o prevenir sus consecuencias. Es éste
también el origen de una disciplina relativamente reciente-s.XX-, la ingeniería de
fiabilidad.
Los ingenieros buscan conocer cómo se producen los fallos en los
dispositivos o sistemas que diseñan o fabrican. Pues sólo de esta manera podrán
predecir el momento apropiado para la inspección, reparación o sustitución de los
componentes, evitando –o, al menos, anticipándose - así, a las repercusiones de un
posible fallo.
Este trabajo pretende ser un recorrido introductorio al análisis de fiabilidad
en el que el lector -pudiendo partir de un desconocimiento total de la disciplina-
consiga llegar a entender, tanto desde un punto de vista teórico como práctico,
cómo la estadística, las matemáticas y la ingeniería se unen para conseguir
modelizar la probabilidad de que ocurra un fallo –o de completar una reparación-
en un sistema o dispositivo.
El proyecto consta de dos capítulos bien diferenciados. El primero de ellos
recoge la teoría que sustenta todos y cada uno de los métodos prácticos usados en
el capítulo dos. En muchas ocasiones, esta teoría queda escondida por potentes
software estadísticos que realizan completos estudios sistematizados.
En el segundo capítulo, se trabaja con datos reales correspondientes a los
tiempos de fallo y tiempos de reparación de un generador eléctrico monitorizado.
A partir de ellos y, utilizando el paquete estadístico SPSS, se consigue describir las
medidas de fiabilidad y reparabilidad más comunes, que persiguen modelar las
distribuciones de probabilidad para estos tiempos.
Por último, se incluye un apéndice de este capítulo que demuestra la
utilidad de la simulación para verificar los resultados obtenidos en un análisis de
fiabilidad.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
A partir de aquí, se dejan muchas líneas de investigación abiertas. Una de
ellas es un posible estudio análogo al presentado pero teniendo en cuenta la
aparición de medidas relativas a interrupciones en el registro de la toma de datos-
observaciones censuradas-, caso muy frecuente en la práctica. También, cabe
plantearse que una vez conocida la distribución de probabilidad que siguen
nuestros tiempos de fallo, podríamos conocer cómo fallaría un sistema formado
por n de estos dispositivos agrupados en distintos sistemas complejos:
serie/paralelo, k-out-of-n, sistema puente, y/u otros.
El grado de profundidad de los contenidos y métodos supone siempre una
línea abierta que cabe recorrer impulsados por la diversión y curiosidad que
provoca describir el mundo real a través de la estadística.
Gema Manzano Ventura
5
Capítulo 1: FIABILIDAD
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
1. Introducción
1.1. Introducción a la Fiabilidad
Coloquialmente, nos fiamos de algo o alguien cuando confiamos en él o ello.
Es decir, cuando tenemos una amplia seguridad de que se comportará como
esperamos. Sería magnífico contar con ciertas nociones científicas que nos
advirtieran ante una alta probabilidad de que esto no ocurrirá en un instante dado
con el fin de prevenir las repercusiones o, incluso, y si es posible, evitar tal fallo.
Para suerte y desgracia del ser humano, es absolutamente imposible predecir
cuando alguien va a tomar un comportamiento diferente al esperado y nos fallará.
Sin embargo, el estudio de fallos en productos, equipos o sistemas conforma una
consolidada disciplina, dentro del campo de la ingeniería, tan sólida como útil.
Todos somos usuarios de productos y sistemas y, también, sufrimos las
repercusiones de sus fallos. Es por ello que, de manera intrínseca, sabemos mucho
acerca de la fiabilidad. Fijarnos en algunas de nuestras prácticas como usuarios nos
ayudará a establecer algunas importantes pautas que fundamentan esta disciplina.
En primer lugar, cuando somos consumidores de un producto que usamos
frecuentemente o del que dependemos por alguna circunstancia, nos planteamos
pagar por una determinada marca un poco más si es que ésta nos ofrece más
confianza que otra de la competencia. Esto es, si así tenemos una mayor seguridad
de que fallará menos, tendrá una vida útil más larga o, simplemente, nos ofrecerá
un mejor servicio. En ingeniería, esto se traduce diciendo que aumentar la
fiabilidad de un sistema siempre lleva un coste y un esfuerzo añadido que debe
adecuarse al objetivo y trascendencia del producto.
Por otro lado, las repercusiones de los posibles fallos en los productos,
tanto económicas como relativas a nuestra seguridad como usuarios, son
determinantes para entender la teoría de la fiabilidad.
Por ejemplo, el que una pila falle o esté deteriorada no nos supone graves
consecuencias. Cambiar la pila por una nueva supone un bajo coste de dinero y de
esfuerzo – lo hará el propio usuario- y, al sustituirla, el aparato podrá funcionar
como antes del suceso. Además, a priori, este fallo no supone ningún riesgo
Gema Manzano Ventura
7
importante para nuestra seguridad. Es por todo ello que, en general, y
fundamentado en que el deterioro o fallo de una pila no implica repercusiones
significativas, los usuarios no llevan a cabo absolutamente ningún tipo de acción -
ni de mantenimiento ni de inspección- que advierta el fin del dispositivo. Pues no
compensaría económicamente si tenemos en cuenta el coste de la solución del
problema: comprar otra pila nueva.
Ahora bien, fijémonos en los neumáticos de nuestro coche. Al estar en
continuo contacto con la superficie, la banda de rodamiento sufre un desgaste
progresivo que lleva a la rueda al deterioro y la posterior imposibilidad del
cumplimiento de las funciones de tracción y la maniobrabilidad del vehículo. Con
un deterioro severo, se pierde nivel de adherencia y capacidad de frenada,
especialmente, cuando las condiciones meteorológicas no son favorables. Las
repercusiones de estos fallos, aunque dependen del momento, sin lugar a dudas
suponen un alto riesgo de accidente que podría traer consecuencias fatales para
los ocupantes del vehículo. Aun suponiendo que los pasajeros no sufrieran daño
alguno en el accidente, nos enfrentaríamos a una reparación de alto coste
económico que superaría, con seguridad, el importe que hubiera supuesto evitar el
fallo cambiando los neumáticos a tiempo. En este caso y debido a las importantes
consecuencias – tanto económicas como de seguridad- del fallo en los neumáticos
se hace necesario establecer pautas de inspección que evalúen el estado del
neumático en cualquier instante y que nos permitan anticiparnos a un posible fallo
en las funciones del mismo. Es por ello que las bandas de rodadura presentan en su
superficie unos dibujos en forma de canales que permiten disponer fácilmente de
testigos de desgaste, que adviertan al usuario sobre su nivel de deterioro. La
profundidad mínima del dibujo permitida, por ley, es de 1,6mm y ésta puede
medirse fácilmente con una regla, una moneda o el propio testigo de desgaste del
neumático.
Trasladado a la ingeniería de fiabilidad, esto significa que, en primer lugar,
debemos asumir que el fallo en un sistema tendrá unas repercusiones que
dependerán del tipo de sistema y del tipo de misión que éste lleve a cabo. Es
deseable que los sistemas diseñados sean fiables en la medida que marquen las
consecuencias económico-operativas de sus posibles fallos. Así, entendemos que
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
los ingenieros no pueden exigir el mismo nivel de fiabilidad en una bombilla que
en una central nuclear, en una tostadora que en el motor de un avión. Y es que,
desafortunadamente, todos los dispositivos llegan a un instante en que no podrán
cumplir el cometido para el que fueron diseñados. Sin embargo, determinar el
momento en que esto ocurrirá no es, en la mayoría de los casos, tarea fácil. Aquí es
donde entra en juego la ingeniería de fiabilidad. En ella recaen responsabilidades
que van desde predecir – a través de la estadística- la vida media de una pila hasta
estudiar con profundidad los mecanismos a través de los cuales pueden producirse
fallos en una central nuclear. Imponer requisitos exigentes en la seguridad de los
usuarios o establecer y realizar pautas de mantenimiento, inspección y reparación
en los dispositivos y sistemas son algunas de sus tareas más destacables.
1.2. Contexto Histórico
La aparición de sistemas militares de gran complejidad en la Segunda
Guerra Mundial trajo asociados importantes problemas de mantenimiento y
disponibilidad de los mismos debido a sus frecuentes fallos. El considerable coste
derivado de estos problemas provocó que, hacia 1952, el Departamento de Defensa
norteamericano se plantease, por vez primera, el estudio de los fallos en los
equipos como un asunto ineludible. Pidió ayuda a la industria electrónica con el fin
único de evaluar los fallos en los sistemas de ingeniería y encontrar fundamentos
científicos que ayudasen a dar solución al problema.
En seguida, el grupo de ingenieros designado se plantea que, lógicamente, lo
importante de los equipos y sistemas que diseñaban y utilizaban era que éstos
presentaran, con un nivel adecuado de seguridad y confianza- de fiabilidad- un
correcto funcionamiento. Así nace el término formal de fiabilidad –realiabity en
inglés- que dará título a una disciplina de sofisticadas matemáticas, la ingeniería de
fiabilidad.
Como todo nacimiento científico, la teoría de la fiabilidad en sistemas viene
impulsada a través de una necesidad social que, casi siempre, implica el beneficio
económico. En este caso, tanto la disponibilidad como la seguridad de equipos y
productos serán sus progenitores. Desde un punto de vista científico y, también
Gema Manzano Ventura
9
económico, tan importante era reducir en costes de mantenimiento como evitar
fallos en sistemas que atentasen contra la seguridad del usuario.
Y es que, aunque la teoría formal creada en torno al concepto de fiabilidad
es reciente, desde siempre se ha sabido que conseguir cierta seguridad de que un
producto funcionara correctamente reportaría múltiples e innegables beneficios.
Una evidencia de esta idea primitiva de fiabilidad se produce en el s. XVII
cuando la reina Ana de Gran Bretaña, promovida por las frecuentes catástrofes
derivadas de los continuos fallos en la estimación de la posición de los barcos,
ofrece una enorme recompensa a quien consiga medir longitudes en el mar con un
error menor de un grado. Este problema se reducía a conocer en cada instante la
diferencia de hora local de un punto respecto a otro (150 es la diferencia en
longitud en cada hora). Sin embargo, los relojes de la época no ofrecían seguridad
alguna sobre su precisión y debían ser ajustados frecuentemente – a través del Sol-
debido a cambios en la temperatura, la humedad o, simplemente, tras un tiempo.
Por tanto, la seguridad en los barcos se convirtió en un problema de estudio de la
fiabilidad de relojes.
Otra muestra de la percepción de fiabilidad, concebida con el fin de reducir
costes, aparece con la aplicación de los métodos actuariales utilizados en las
primeras compañías de seguros para la evaluación de los riesgos de sus pólizas. Se
estimaba cuánto se debía pagar al contratar una póliza en base a la frecuencia de
epidemias y la tasa de mortalidad asociada a las mismas. Esta evaluación era
llevada a cabo a través de las llamadas tablas de vida. En ellas, se apuntaban los
resultados de la observación, durante un tiempo dado, de la supervivencia/muerte
de un conjunto de pacientes sometidos a distintos tratamientos.
Esta técnica de “estimación de vida” no tardo en aplicarse a sistemas
tecnológicos de gran relevancia, como los ferrocarriles.
Con estas bases ya sentadas al inicio del s. XX, la teoría crece paso a paso
hasta ser establecida tal y como la conocemos hoy. Científicos como W. Weibull,
que estudió la duración de materiales o T.B. Epstein y M. Sobel, quienes
construyeron un modelo probabilístico que ayudó a estimar la vida media de los
dispositivos, contribuyen de manera determinante a la ingeniería de fiabilidad.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
El artículo “Multicomponent systems and structures and their reliability” -
Estructuras y sistemas multicomponentes y su fiabilidad- publicado en 1961 por Z.
W. Birnbaum; J. D. Esary, y S.C. Saunders, supone una recopilación de lo
demostrado hasta ese momento y un punto de partida de toda aplicación práctica
en ingeniería de fiabilidad.
Otros artículos de la misma época, demuestran que las reducciones de
costes de utilización y mantenimiento compensan ampliamente las inversiones
realizadas en los estudios de fiabilidad. La inspección, el mantenimiento y la
reparación de dispositivos se asumen como parte intrínseca de tales estudios.
En los últimos años, la disciplina se ha visto impulsada por la demanda de la
tecnología moderna. Estudios realizados en la década de los 80 sobre redes de
comunicación encuentran hoy aplicación en internet y los sistemas web.
Actualmente, la ingeniería de fiabilidad es una teoría ampliamente usada en
procesos de diseño, fabricación, seguridad, mantenimiento y logística. Su
aplicación se extiende a cualquier sector: sistemas electrónicos, plantas de
producción, telefonía…, siendo absolutamente imprescindible su uso en áreas
como la nuclear, la aeroespacial o la ingeniería de transportes en general.
2. Fiabilidad en el tiempo
2.1. Definición formal de fiabilidad
La primera idea –la más simple y lógica- del concepto de fiabilidad es la de
seguir la vida operativa del sistema y utilizar el dato de fallo total de servicio como
un índice de fiabilidad del mismo.
Históricamente, todas las medidas asociadas a la fiabilidad – como ocurre
con la descrita- eran indicadores de funcionamiento de carácter determinístico, es
decir, eran parámetros fijos. Esta idea hacía imposible resolver cuestiones relativas
a la degeneración progresiva del sistema o a evaluar la implicación en el fallo de
distintos entornos operativos, impidiendo estimar -en cualquier caso- un riesgo
importante de fallo en un momento dado y haciendo irrealizable anticipar una
Gema Manzano Ventura
11
solución que evite o palie las repercusiones del mismo. Éste supone el objetivo
último de la fiabilidad.
Luego y, dado que el principal cometido es evaluar-en términos
probabilísticos- el riesgo de fallo del sistema en cualquier instante, el tiempo se
hace un parámetro esencial en la definición de fiabilidad. Aún más si consideramos
que la degradación de los componentes con el trascurso del mismo supone una de
las causas más influyentes en los fallos de los sistemas.
Parece claro que la probabilidad de funcionamiento varía, no sólo con el
tiempo, sino también con las condiciones de entorno –temperatura, humedad,
diferencia de presión…- que deben ser tenidas en cuenta incuestionablemente en
cualquier estimación de operatividad.
También afectará a esta predicción de “supervivencia” del sistema el nivel
de buen funcionamiento considerado. Y es que no existen dos únicos estados en la
condición del dispositivo: funcionando o fallado, sino que debemos considerar que
los sistemas, en la mayoría de los casos, cuentan con estados intermedios- al sufrir
degeneraciones progresivas, por ejemplo-.
Así, una definición sólida y útil de fiabilidad debe considerar los conceptos
de probabilidad, tiempo, entorno y buen funcionamiento. Las definiciones más
destacadas en la bibliografía de la ingeniería de la fiabilidad son:
“La fiabilidad es la probabilidad de que un dispositivo efectuará la función
para la que fue construido hasta un momento dado bajo condiciones específicas de
uso."1
“La fiabilidad es la calidad en el tiempo.”2
“La fiabilidad es la probabilidad de que un componente o sistema
desarrolle, durante un periodo de tiempo dado, la tarea que tiene encomendada,
sin fallos, y en condiciones establecidas”.3
1 I. BAGOWSKY, Reliability Theory and Practise, Prentice-Hall. 1961
2 L.V. CONDRA, Reliability Improvement with Design of Experiments, Marcel Dekker, New York. 1993.
3 Definición práctica. ISO 9126
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
2.2. Medidas de la fiabilidad
Una vez establecida cómo podría cuantificarse la fiabilidad se debe decidir
qué medidas e índices son los más adecuados para medirla del modo más científico
y riguroso posible.
De la definición formal de fiabilidad-dada en líneas anteriores- entendemos
que debemos encontrar una probabilidad (casos favorables/casos posibles) de que
un sistema desarrolle la tarea que tiene encomendada sin fallos durante un
periodo de tiempo dado y bajo unas condiciones establecidas.
Dado que la ocurrencia de fallos sucede aleatoriamente, vamos a definir la
magnitud tiempo de fallo,τ , -longitud de tiempo hasta la ocurrencia del fallo en un
componente o sistema-como una variable aleatoria que, debido al carácter del
tiempo, será continua y estará definida sobre el eje real positivo4.
A.A.A.A. Función de distribución de fallosFunción de distribución de fallosFunción de distribución de fallosFunción de distribución de fallos
Así, la probabilidad de que el fallo del sistema ocurra antes de un tiempo t
cualquiera- sobre el que queramos estimarlo- es:
)()( tFtP =≤τ
A la función de tiempo F(t) se le denomina usualmente función de
distribución de fallos o, simplemente, función de probabilidad. En estadística,
siempre que aparece una variable aleatoria continua -aquella que puede tomar un
número infinito no numerable de valores- aparece asociada su función de
distribución de probabilidad como:
F: ][)(][)(
]1,0[
tPtFtxXPxFx
R
≤=→⇒≤=→→
τ
Evaluar las propiedades matemáticas más importantes de una función de
distribución nos demostrará –científicamente- pautas esenciales en la teoría de la
fiabilidad. Éstas son las siguientes:
4 Klein y Moeschberger (1997), Andersen, Borgan, Gill y Keiding (1993), Cox y Oakes (1984),
Lawless (1982).
Gema Manzano Ventura
13
Para cualquier función de distribución se verifica
1)()(lim)(lim =∞==≤∞→∞→
FtFtPtt
τ .
En fiabilidad, esta propiedad se traduce diciendo que si tuviéramos un intervalo
infinito de tiempo, el fallo sería un suceso seguro. Ya lo anticipábamos, todos los
sistemas fallarán y dejarán de cumplir, en un momento dado, la función para la que
fueron diseñados.
En particular, si sabemos que la v.a continua τ toma valores entre el intervalo de
tiempo (ti, tf), tenemos que:
⇒=≤≤∀= 0][__0)( ii tPtttF τ La probabilidad de que el sistema hubiera fallado
antes de que comience el periodo de inspección o funcionamiento no se considera.
⇒=≤≥∀= 1][__1)( ff tPtttF τ La probabilidad de que el sistema haya fallado al
finalizar el periodo de inspección o funcionamiento denota el suceso seguro (
fi tt ≤≤ τ ).
F(t) es monótona no decreciente. Esto es,
si )()( 2121 tFtFtt ≤⇒< .5 Esta propiedad supone la demostración matemática de
que la probabilidad de fallo no decrece con el tiempo – aumenta o permanece
constante-. En este punto cabe la idea de degeneración de los sistemas con el
tiempo.
La probabilidad de que τ tome un valor del intervalo (t1, t2), esto es,
la probabilidad de acotar el tiempo de fallo entre dos valores de tiempo se calcula
como [ ] [ ] )()(][ 121221 tFtFtXPtPttP −=≤−≤=≤≤ ττ
La probabilidad de que τ tome un valor determinado, t1, es igual a
cero: 0)( 1 == tP τ .6
5 Si [ ] [ ]1 2 1 1 2 2( ) 0, ( ) 0, .t t I t t I t t< ⇒ = ⊂ = Luego: [ ] [ ]1 2 1 2( ) ( ) ( ) ( )P I t P I t F t F t≤ ⇒ ≤
6 [ ] ).()(lim][ 111
11
−
→−=≤<== xFtFttPtP n
xtnττ Dado que τ una v.a. absolutamente continua:
)()( 11−= xFtF
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
B.B.B.B. Función de Función de Función de Función de densidad de probabilidad (f.d.p)densidad de probabilidad (f.d.p)densidad de probabilidad (f.d.p)densidad de probabilidad (f.d.p)
Sea una τ una v.a. continua y F(t) su función de distribución,
matemáticamente llamamos función de densidad de probabilidad de la variable
aleatoria a la derivada primera de la distribución, esto es: f(t)=F’(t).
Entre sus propiedades matemático-estadísticas más destacables:
El área situada entre su gráfica y el eje de abscisas es la unidad.
Esto es;
1)0(1)(0
=∞<<⇔=∫∞
τPdttf .
Matemáticamente, que un dispositivo falle en un intervalo infinito de
tiempo es un suceso seguro.
La función de distribución de fallos puede hallarse a partir de la
función densidad: )()0()()(')()(00
tFFtFdttFdttftFtt
=−=== ∫∫ .
Permite el cálculo de la probabilidad de que un fallo se produzca en
un intervalo dado:
∫∫ ==−=<<=≤≤−
2
1
2
1Re
1221..
21 )()(')()()()(t
t
t
tBarrowglacontinuaav
dttfdttFtFtFttPttP ττ
∫==≤tc
cc dttftFtP0
)()()(τ
∫ ∫∫∞∞
−=≤−==≥0 0
)()()(1)()(td
t
dd dttfdttftPdttftPd
ττ
OBSERVACIÓN: Estos resultados pueden interpretarse geométricamente,
diciendo que la probabilidad de que el tiempo de fallo se encuentre entre un
intervalo de tiempo (t1,t2) es igual al área de la región limitada por las rectas: t=t1,
t=t2, la curva de la función de densidad de probabilidad y el eje de abscisas.
Gema Manzano Ventura
15
Figura 1.1. Función de densidad
El área F(t) limitada por la función de densidad, el eje de abscisas y la
región situada a la izquierda de la recta vertical en el punto t, representa la
probabilidad de fallo en el tiempo t.
C.C.C.C. Vida esperVida esperVida esperVida esperada o tiempo medio entre fallos: ada o tiempo medio entre fallos: ada o tiempo medio entre fallos: ada o tiempo medio entre fallos: MTBFMTBFMTBFMTBF (Mean Time Between
Failures)
La teoría matemática nos permitiría, además, calcular los distintos
parámetros que caracterizan esta distribución de variable continua: esperanza,
desviación típica, momentos, cuartiles, moda, etc.
Sin duda, la esperanza matemática del tiempo de fallo τ juega un papel
esencial en un estudio de fiabilidad. Su cálculo viene dado a través de la expresión:
[ ] ∫∞
=0
)( dtttfE τ
En general, el MTBF no es constante por lo que siempre debe
especificarse el intervalo en el que es hallado. Cuando el sistema o dispositivo es
no reparable solemos hablar de esta cantidad como MTTF (Mean Time To
Failure) o tiempo medio de fallo. El MTBF (o el MTTF) debe utilizarse cuando se
especifique además la función de distribución de fallos, dado que dos
distribuciones pueden tener el mismo valor de MTBF (o MTTF) y, sin embargo,
producir niveles muy distintos de fiabilidad.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Tanto la función de distribución como la de densidad, así como la
esperanza matemática, son estadísticos propios de cualquier estudio
matemático-estadístico de una variable aleatoria continua. Su aplicación a la
ingeniería de fiabilidad, tomando como v.a. continua el tiempo de fallo, τ ,
constituye una base fundamental en la que se apoya el desarrollo de la teoría.
Ahora bien, existen por convenio, otras funciones y parámetros que permiten
evaluar el nivel de fiabilidad de un dispositivo o sistema.
D.D.D.D. Función de supervivencia o Función de fiabilidadFunción de supervivencia o Función de fiabilidadFunción de supervivencia o Función de fiabilidadFunción de supervivencia o Función de fiabilidad
La fiabilidad representa la probabilidad de que no ocurra un fallo en un
intervalo (0,t) , esto es, de que el tiempo en el que se produce el fallo, τ , sea
mayor que t y, por tanto, el sistema sobreviva al intervalo considerado. Esta es
la razón por la que se suele identificar la función de supervivencia con la
fiabilidad. Matemáticamente, la función supervivencia o función de fiabilidad,
R(t) – del inglés Realiabity- seentenderá, por tanto, como la probabilidad
complementaria a la calculada a través de la función de distribución:
)(1)()( tFtPtR −=≥= τ
Por las propiedades de la función de distribución, queda demostrada
que la función de supervivencia es no creciente, es decir si 1 2 1 2( ) ( )t t R t R t< ⇒ ≥ .
Se inicia en R(0)=1 y tiende a 0 a medida que t → ∞ .
Además puede comprobarse que el MTTB puede expresarse en términos
de la fiabilidad como sigue7:
[ ]0 0
( ) ( )E tf t dt R t dtτ∞ ∞
= =∫ ∫
7 DEMO: [ ] [ ]0
0 0 0 0 0
( ) ( ) ( ) ( ) ( ) ( )E tf t dt sdR s R s ds sR s sdR s sdR sτ∞ ∞ ∞ ∞ ∞
∞= = − ⇔ = − = −∫ ∫ ∫ ∫ ∫
Gema Manzano Ventura
17
E.E.E.E. Tasa media de Tasa media de Tasa media de Tasa media de razón de fallorazón de fallorazón de fallorazón de fallo
La tasa a la que ocurren fallos en un intervalo de tiempo dado se define
como la probabilidad de ocurrencia de un fallo por unidad de tiempo en el
intervalo, supuesto que el fallo no se produjo antes del comienzo del mismo.
Matemáticamente esta idea se traduce en una probabilidad condicional de
que un dispositivo, que haya sobrevivido al instante t1, falle en el intervalo (t1,t2).
Esto es, se define la probabilidad condicional como la probabilidad de que
ocurra B, teniendo en cuenta que A ya ha sucedido:
[ ]
[ ] [ ][ ]
1 2 1 1 21 2 1
1 1
( )/
( )
( , ) _ _ ( ) ( ) ( )( , ) ( )
( ) ( )
P B AP B A
P A
P falla t t y sobrevivió t R t R tP falla t t sobrevivió t
P sobrevivió t R t
= ⇒
−= =
∩
Sin más que dividir por la longitud del intervalo, obtenemos la media de la
tasa de fallos del intervalo.
Tasa media de razón de fallo=( )
1 2
1 2 1
( ) ( )
( )
R t R t
R t t t
−−
Ésta supone un parámetro muy útil de la fiabilidad en distintos períodos de
la vida del dispositivo, ya que es una medida de lo propenso que resulta el
dispositivo a fallar en función de su edad.
F.F.F.F. Función Función Función Función Tasa Tasa Tasa Tasa de Fallo o Función de Riesgode Fallo o Función de Riesgode Fallo o Función de Riesgode Fallo o Función de Riesgo
Aproximando la tasa media de fallo a un intervalo infinitesimal, 1 2t t→ ,
obtenemos la llamada función de tasa de fallo o función de riesgo instantánea. Para
un instante dado:
1 2
1 2 1 1 11
1 2 1 1 1 1
( ) ( ) '( ) '( ) ( )( ) lim
( )( ) ( ) ( ) ( )t t
R t R t R t F t f th t
R t t t R t R t R t→
− −= = = =−
En general:
0
( ) ( ) ( )( ) lim
( ) ( )dt
R t R t dt f th t
R t dt R t→
− += =
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
La función de riesgo representa la probabilidad condicional de fallo en un
instante dado, es decir, la relación de fallos esperados en el próximo periodo de
tiempo teniendo en cuenta el número de fallos ocurridos en el periodo anterior. Su
variación hace referencia a la velocidad a la cual se producen los fallos.
Para algunos propósitos, es útil definir la función de riesgo acumulativa:
0
( ) ( )t
H t h t dt= ∫
Además, merece la pena analizar la relación que existe entre la función de
supervivencia y la de riesgo,
0
( ) ( ) ( ) /( ) lim
( ) ( )dt
R t R t dt dR t dth t
R t dt R t→
− += = −
La resolución de esta ecuación diferencial:
0
0 0 0
0
( ) / ( ) ( )( ) ( ) ( ) ( ) ln( ( ))
( ) ( ) ( )
( ) exp ( )
t t t
t
t
dR t dt dR t dR sh t h t dt h s ds h s ds R s
R t R t R s
R t h s ds
− −= − ⇒ = ⇒ = ⇒ = ⇒
⇒ = −
∫ ∫ ∫
∫
Nos muestra que la función de riesgo caracteriza y define a la función de
distribución – y, por tanto, a la función de supervivencia o fiabilidad- del sistema.
Luego, la evolución de la función de riesgo determinará en cada instante, la
tendencia al fallo. Sus distintos perfiles se representan en la conocida curva de la
bañera.
Figura 1.2. Curva de la función tasa de fallo con forma de bañera
Gema Manzano Ventura
19
A. ZONA DE MORTALIDAD INFANTIL/Fallos iniciales: Matemáticamente en esta
zona se cumple que ( ) 0d
h tdt
< y, por tanto, la distribución de vida F(t) presenta
una tasa de fallos decreciente (IFR) . Cuando se inicia el funcionamiento de la
población de equipos, la tasa de fallos instantánea resulta ser relativamente alta,
sin embargo, decrece muy rápidamente con el tiempo. Esto se debe a que en
esta una parte de los dispositivos resultan ser producidos con unas
características inferiores a las especificaciones de diseño: errores de diseño del
equipo, equipos defectuosos, instalaciones incorrectas, etc. Al cabo de un breve
periodo de funcionamiento, esos equipos “débiles” o por debajo del estándar
irán fallando y los demás equipos sanos seguirán funcionando. A medida que
pasa el tiempo es más probable que un equipo que no haya fallado siga
funcionando, por eso la tasa de fallos es decreciente.
B. ZONA DE TASA DE FALLOS CONSTANTE O VIDA ÚTIL/Fallos accidentales: En
esta zona la tasa de fallos no es ni creciente ni decreciente aunque se puede dar
el caso en que sea crecientes o decreciente en promedio. Esto es, una vez han
fallado todos los equipos “débiles”, se entra en una zona de tasa de fallos
razonablemente constante. Los fallos no se producen debido a causas
inherentes al equipo, sino por causas aleatorias externas. Estas causas pueden
ser accidentes fortuitos, condiciones inadecuadas u otros.
C. ZONA DE DESGASTE/Fallos de desgaste: Matemáticamente en ella se cumple
( ) 0d
h tdt
> y esto implica que su distribución de vida F(t) en esta zona
presenta una tasa de fallos creciente (DFR). La utilización acumulada de por los
equipos empieza a producir una frecuencia de avería y fallos cada vez mayores
debido al efecto de envejecimiento.
No todos los dispositivos o sistemas poseen este mismo tipo de función de
riesgo, con estas tres zonas citadas. Existen otras once formas gráficas más que
tipifican la conducta de distintos componentes o sistemas. Sin embargo, la utilidad
de la curva de bañera reside en que nos muestra todas las formas y
comportamientos posibles de una tasa de fallos.
Además, su aplicación es directa al comportamiento de muchos tipos de
componentes, entre ellos, los electrónicos. Así, por ejemplo, es frecuente ver como
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
muchos teléfonos móviles- de los llamados de última generación- pueden
presentar pequeños defectos al ponerse en funcionamiento (zona de mortalidad
infantil), después de ellos se espera que el usuario disfrute de un periodo en el que
el funcionamiento se registre sin fallos importantes (vida útil), hasta que, pasados
unos dos o tres años, la frecuencia de averías aumente considerablemente hasta
que, finalmente, el móvil resulte inservible.
Los doce modelos gráficos de modos de fallo-entre los que se encuentra la
curva de bañera-tienen una gran utilidad en la decisión sobre la conveniencia o no
de cambio o reparación de un componente según la zona en la que se encuentre el
dispositivo fallado. Así, por ejemplo, en el caso de una avioneta con un solo motor,
será de absoluta necesidad conocer la probabilidad de éste falle en diferentes
etapas de su vida (tras 500, 800, 1000 horas de funcionamiento, etc.).
2.3. Distribuciones de vida
El sentido de la fiabilidad es realizar estimaciones -predicciones
probabilísticas- del tiempo de buen funcionamiento –funcionamiento sin fallos- de
los distintos sistemas o componentes. Como hemos visto, esto es posible a partir de
las funciones de distribución F(t), de supervivencia R(t),de densidad f(t) y/o de
tasa de fallo, h(t). A través de la estadística, sabemos que la f.d., F(t), y la f.d.p, f(t),
pueden obtenerse como resultado de un análisis estadístico de ciertos valores de la
variable aleatoria continua que define la distribución. Esto implica que el problema
que platean las demostraciones de fiabilidad pasa por la medición de una serie de
tiempos de fallos y un posterior análisis estadístico para identificar, a través de
ellos, las distribuciones que siguen.
Sea τ la variable que representa los tiempos de fallo de un determinado
dispositivo, el objetivo es conocer su función de densidad asociada –la función de
distribución, función de supervivencia y la función tasa de fallos pueden
determinarse a través de ella-.
Dado que muchos dispositivos -especialmente los componentes con
funciones similares- presentan conductas de fallos parecidas nos encontramos
frecuentemente frente a algunas de las siguientes distribuciones:
Gema Manzano Ventura
21
A.A.A.A. Distribución exponencialDistribución exponencialDistribución exponencialDistribución exponencial negativanegativanegativanegativa
La función de densidad de probabilidad de la distribución exponencial es:
( ) tf t e λλ −= , 0t ≥
Es decreciente, convexa, toma el valor λ en t=0 y tiende a cero cuando
t → ∞ .
Su función de distribución viene dada por:
F(t)=0
0 0
( ) 1t t
tt t tf x dx e dt e eλ λ λλ − − −= = − = −∫ ∫ , 0t ≥
Y la función de supervivencia o fiabilidad es, por tanto:
R(t)=1-F(t)= te λ−, 0t ≥
La función tasa de fallo o función de riesgo se obtiene como:
( )( )
( )
t
t
f t eh t
R t e
λ
λλ λ
−
−= = =
Que es una constante. Lo que significa que si un dispositivo sigue una
distribución de vida exponencial, la probabilidad de fallo en intervalo de tiempo
cualquiera de amplitud t, es independiente del tiempo que el dispositivo lleva
funcionando. No se acepta la idea de envejecimiento o desgaste por uso. A esta
característica, propia sólo de la distribución exponencial, se la conoce como
propiedad de no memoria.
Figura 1.3. Función de densidad Exponencial negativa
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Figura 1.4. Función Tasa de fallos de la función densidad exponencial negativa
La media o esperanza matemática del tiempo de fallo τ :
[ ]int
0 _
1t
egraciónpor partes
E MTTF t e dtλτ λλ
∞−= = =∫ ,
siendo la varianza:
[ ] 2 22int
0 0 _
1( ) t
egraciónpor partes
Var t f t dt t e dtλτ λλ
∞ ∞−= = =∫ ∫
Esta distribución aparece siempre que nos encontremos con dispositivos
que presenten una tasa de fallo constante, tales como componentes ópticos o
electrónicos.
B.B.B.B. Distribución normalDistribución normalDistribución normalDistribución normal
La función de densidad de la distribución normal es:
2
2
( )
2
2
1( )
2
t
f t eµ
σ
πσ
− −
= , 0t ≥
Donde µ es la media (que coincide con la moda y mediana) y σ es la
desviación típica de la distribución.
La función de distribución de probabilidad viene dada por: F(t)=0
( )t
f t dt∫
que no es, en ningún caso fácil de resolver. Esta distribución presenta, además, la
Gema Manzano Ventura
23
dificultad de que, sea cual sea la media, siempre existe una probabilidad de fallo
anterior a t=0, lo cual carece por completo de sentido físico.
La fiabilidad o función de supervivencia es: R(t)=1-F(t).
La función de riesgo se obtiene como:( )
( )( )
f th t
R t=
El tiempo de ejecución de las tareas de mantenimiento y/o reparación
puede representarse frecuentemente a través de la distribución normal.
C.C.C.C. Distribución logDistribución logDistribución logDistribución log----normal normal normal normal
La función de densidad log-normal es: 2
2
(ln )
2
2
1( )
2
t
f t et
µσ
πσ
−−= , 0t ≥
siendo µ y σ2 , los parámetros de la distribución.
Las función de distribución F(t), la de supervivencia R(t) y la función tasa
de fallos h(t) se calcularía de manera análoga al desarrollo seguido en apartados
anteriores.
1.5. Función de densidad Log-normal
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Figura 1.6.Función Tasa de Fallos de la función log-normal
La función log-normal modela, frecuentemente, los tiempos de reparación
de sistemas o dispositivos. Además, caracteriza la distribución de fallos de metales,
semiconductores, diodos o aislantes eléctricos.
D.D.D.D. Distribución WeibullDistribución WeibullDistribución WeibullDistribución Weibull
La función de densidad de probabilidad de una distribución Weibull es:
( ) ( )11
1
1( ) ( )
ttf t t e f t t e
ββ β
θ
λβ θβ
λ
β λβ λθ
− − −−
=
= → = , 0t ≥
siendo θ el factor de escala que define cuánto de dispersa se encuentra la
distribución y, por tanto, se mide en las mismas unidades que t –por comodidad se
trabaja con λ, que es su inverso- y β el factor de forma que define la forma de la
distribución– ni la exponencial ni la normal presentan factor de forma pues tienen
una forma predeterminada que no varía en ningún caso- y es adimensional.
La función es creciente para β>1, decreciente para β<1 e igual a la
distribución exponencial para β=1. No tienen, por tanto, forma específica ya que
depende del valor de los parámetros y, por ello, juega un papel fundamental en el
análisis de fallos experimentales.
Su función de distribución es:
( ) ( )1
0 0
( ) ( 1/ , ) ( ) ( ) 1t t
t tF t W f t dt t e dt eβ βλ λβθ λ β λβ λ − −−= = = = = −∫ ∫ , 0t ≥
La función de fiabilidad, por tanto, toma la forma:
Gema Manzano Ventura
25
( )( ) tR t eβλ−= , 0t ≥
La función de riesgo viene dada a través de la expresión:
( ) ( )1
1( )( ) , 0
( )
t
t
t ef th t t t
R t e
β
β
β λβ
λ
λβ λλβ λ
− −−
−= = = ≥
Figura 1.7. Función densidad de la distribución Weibull
Figura 1.8. Función Tasa de Fallos Weibull
En la media y la varianza de la v.a. tiempo de fallo, τ , que sigue una
distribución Weibull, interviene la función gamma:
[ ] 1· 1E τ θ
β = Γ +
[ ] 2 22 11 1Var τ θ
β β = Γ + − Γ +
La distribución Weibull sirve para caracterizar a multitud de dispositivos y
sistemas, pues gracias a la flexibilidad que ofrecen los parámetros, permite
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
representar a los tres tipos de conducta de la función tasa de fallos en la tres zonas
de la curva de la bañera (creciente, constante y decreciente). Esta es la razón de
que sea ampliamente usada en ingeniería.
E.E.E.E. Distribución Erlang Distribución Erlang Distribución Erlang Distribución Erlang
Consideremos un dispositivo que está formado por k (k ≥ 1) unidades
idénticas que están conectadas secuencialmente. Inicialmente solo está operativo
el dispositivo 1, si éste fallase se conectaría automáticamente el 2, si éste lo hiciera,
se conectaría el 3 y así sucesivamente, hasta que k fallase. Vamos a suponer que
cada uno de estos dispositivos tiene una distribución exponencial idéntica -con el
mismo parámetro λ-. Dado que operan independientemente, el tiempo del fallo del
sistema completo es la suma de los tiempos de fallo de los k dispositivos:
1 2 ... kτ τ τ τ= + + + . La función de densidad de la v.a. continua τ es el resultado de la
operación matemática convolución de las k funciones de densidad exponenciales:
1 1
( ) , 0( ) ( 1)!
k k k kt tt t
f t e e tk k
λ λλ λ− −− −= = ≥
Γ −
Esta distribución se denota como E(k, λ), esto es, una distribución de Erlang
de parámetro k y parámetro λ de escala –equivale a una Gamma con un valor
entero positivo para k- .
La función de distribución de Erlang-o Gamma si no consideramos k Z+∈ ,
es:
11
00
( )( ) 1
( 1)! !
tk ikk x t
i
tF T x e dx e
k iλ λλ λ−
− − −
=
= = −− ∑∫ , 0t ≥
Así, la función de riesgo o función de fiabilidad, toma la forma:
1
0
( )( )
!
ikt
i
tR t e
iλλ−
−
==∑ , 0t ≥
Y la función tasa de fallo es:
( )
1
1
0
( ) ( 1)!( )
( )
!
k kt
ikt
i
te
f t kh t
R t te
i
λ
λ
λ
λ
−−
−−
=
−= =
∑, 0t ≥
Para k>1 esta función es monótona creciente, h(0)=0 y lim ( )t
h t λ→∞
= .
Gema Manzano Ventura
27
Para 0<k<1 es monótona decreciente, con lim ( )t
h t λ→∞
= y 0
lim ( )t
h t+→
= ∞ .
Para k=1, lógicamente, estamos ante una distribución exponencial.
Figura 1.9. Función densidad de probabilidad Gamma
Figura 1.10. Función Tasa de Fallos Gamma
La media y la varianza del tiempo de fallo τ para una distribución
Erlang/Gamma son:
[ ] [ ] 2,
k kE MTTF Varτ τ
λ λ= = =
Al igual que la distribución Weibull, la Erlang permite representar las tres
posibles conductas de la función tasa de fallo, por lo que es enormemente utilizada
en el análisis de datos experimentales y juega un papel fundamental en la
caracterización de dispositivos electrónicos.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
3. Análisis Paramétrico
3. 1. Introducción
El primer paso en todo estudio de fiabilidad es registrar una serie de
mediciones de tiempos de fallos –longitudes de tiempo determinadas por el
instante en el que algún sistema o componente a evaluar falló-; o lo que es lo
mismo, tomar algunos valores de la variable aleatoria continua tiempo de fallo,τ .
A partir de un registro adecuado de estos datos – teniendo en cuenta la enorme
dificultad de marcar un correcto límite entre funcionamiento correcto y fallo-,
comienza un estudio estadístico que tiene como último fin encontrar la
distribución de probabilidad que mejor se ajuste a las observaciones registradas y,
por tanto, permita realizar inferencias fiables sobre el funcionamiento futuro del
dispositivo.
361 454 521 675 754
801 825 849 867 878
899 913 924 937 941
Ejemplo 1. Observaciones de tiempos de fallos (en horas)
de 15 bombas centrífugas idénticas.8
Lo primero que convendría es probar un ajuste de las observaciones con
alguna de las distribuciones de probabilidad frecuentes: exponencial, normal, log-
normal, Weibull o Erlang/Gamma. Ya que si pudiéramos caracterizar la serie de
tiempos de fallos con una distribución teórica dada, se simplificaría enormemente
el análisis descriptivo de las observaciones y la inferencia a realizar sobre ellas.
Además, nos permitiría graficar fácilmente las estimaciones de la función de
supervivencia, de la f.d.p., y de la tasa de fallos sin más que estimar los parámetros
de la distribución de ajuste. A este análisis, basado en el ajuste de las
observaciones a una distribución teórica dada a través de la estimación de sus
parámetros se le denomina análisis paramétrico. Si, por el contrario, el ajuste con
una distribución teórica no fuera posible deberemos llevar a cabo un estudio
basado en métodos más sofisticados denominados no paramétricos.
8 ALBERTO SOLS, Fiabilidad, Mantenibilidad y Efectividad, Madrid, 2000. p.155.
Gema Manzano Ventura
29
El objetivo de este capítulo es determinar qué función de distribución
teórica representa mejor los datos observados de tiempos de fallos. Así como
encontrar los valores de los parámetros de la distribución correspondiente. Con tal
cometido son muchos los métodos disponibles que se encuentran en la literatura
específica del análisis de fiabilidad: método de máxima verosimilitud, método de
momentos, tests directos de validaciones (test de Barlett para la distribución
exponencial, test de Mann para la distribución Weibull…),etc.
Sin embargo, en nuestra opinión, uno de ellos destaca, por su carácter
completo, sobre los demás: Probability Plotting, también llamado gráfico QQ-Plot.
La rapidez que nos ofrece un análisis gráfico para determinar si es posible o no un
ajuste- e incluso la bondad del mismo- se complementa con el rigor y la precisión
que podemos encontrar a través del método matemático de la regresión lineal-
estimación de parámetros, determinación del grado de ajuste, cálculo de las
bandas de confianza, etc-.
Siguiendo el carácter didáctico e introductorio de este trabajo, nos
valdremos, una vez más, de lo ya conocido para adentrarnos en un nuevo
aprendizaje. En este caso, las matemáticas ponen su famoso método de regresión
lineal al servicio del análisis de fiabilidad.
3.2. Método Probability Plotting ( Q-Q PLOT)
El grado de asociación entre una distribución hipotética teórica y la nube de
puntos generada a través de los valores de tiempo de fallo registrados, puede
analizarse de un modo simple y eficaz a través de técnicas gráficas; sin más que
representar la distribución teórica y analizar si la nube de puntos puede ser
descrita a través de ella.
Sin embargo, al representar las distintas distribuciones teóricas obtenemos,
en muchos casos, curvas muy similares, lo que dificulta enormemente la tarea de
ajuste con la nube de puntos empírica. Por ello trabajaremos con gráficos de
probabilidad, que re-escalarán las f.d. para que éstas tengan forma lineal. El ajuste
debe realizarse en los ejes coordenados: OX -que contiene información sobre cada
uno de los tiempos de fallos registrados 1 2, ,..., nτ τ τ - y OY –que recoge el valor
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
estimado de la función de distribución empírica asociada a cada uno de los tiempos
de fallos: 1 2( ), ( ),..., ( )nF F Fτ τ τ -.
3.2.1. Obtención de los puntos a ajustar
Supongamos que tenemos de una serie de n dispositivos idénticos, por tanto
disponemos de n observaciones de tiempos de fallo 1 2, ,..., nτ τ τ , a partir de las
cuales debemos identificar la función de distribución de fallos teórica que siguen.
Ahora bien, en seguida nos asalta un problema. La nube de puntos que debemos
ajustar es de la forma ( )( ), 1,...,i
empíricai i i tx t y F i n= = = . Disponemos del valor de la
coordenada xi- definido como el tiempo en el que falló el i-ésimo dispositivo-. Sin
embargo, aparece una paradoja cuando tratamos de hallar su coordenada y
correspondiente. Pues no podemos estimar su valor haciendo un supuesto con una
distribución teórica, que es precisamente el que queremos demostrar.
El problema se resuelve como sigue:
Partimos de n observaciones de tiempos de fallo 1 2, ,..., nτ τ τ . En general, su
función de distribución empírica será: { }º
( )n
n observaciones tF t
n
≤=
Ordenando los tiempos de fallos por orden creciente, 1 2 ... nτ τ τ< < < , el
valor de la función de distribución y la función de fiabilidad empíricas se definen,
entonces como:
( )( )ni
iF
nτ = 9
( )( ) ( )( )1 1n ni i
iR F
nτ τ⇒ = − = −
Se dice que ( )iτ es el (i/n)-cuantil de la función de distribución empírica Fn(t).
Según el teorema central del límite de la teoría de probabilidad, ocurre:
lim ( ) ( )n
nF t F t
→∞→ . Esto es, la distribución empírica converge- en sentido
probabilístico- a la función de distribución, cuando n crece. Luego se cumple que:
9 Fue usada en el campo de la hidrología y supone la primera elección de ( )( )n
iF τ . Se conoce con
el nombre de “Método California". Esta opción, que parece la más natural, tenía el gran inconveniente de no poder representar la observación n-ésima, de gran interés en ciertos aspectos.
Gema Manzano Ventura
31
( ) ( )( ) ( )ni i
iF F
nτ τ≈ =
Observación: Debido a que la función de distribución empírica en el entorno de ( )iτ
se comporta como: ( )( ) ( )
10 , ( )n n
i i
i iF F
n nτ τ−− = = , se suele tomar en la práctica el
valor medio de ambos, es decir, ( ) ( )
0.5( ) ( )n
i i
iF F
nτ τ −≈ =
10 como valor apropiado
de F en ( )it . Aunque otros autores hacen uso de otras estimaciones tales como:
( )( )i
iF
nτ = , ( )( ) 1i
iF
nτ =
+11 ( )( )
0.3,
0.4i
iF
nτ −=
−12,etc… Esta elección no cambia,
esencialmente lo expuesto, pues se obtendrían idénticas conclusiones.
Para cualquier distribución teórica de parámetros θ y β, se cumple:
[ ] ( )1t tP t F p F p
β βτθ θ
−− − ≤ = = ⇔ =
Siendo p el valor real de la función de distribución hipotética. Luego ( )1F p−
y t presentan una relación perfectamente lineal.
Siguiendo esta idea, nuestra distribución empírica, caracterizada por los
tiempos de fallos: 1 2 ... nτ τ τ< < < , tomará el valor estimado 0.5
i
ip
n
−= :
( ) ( )1 ( )_ _ _( ) _ _
0.5 isi se ajusta ani ila distribución teórica
iF F p
n
τ βτ
θ− −−= ←→ ≈
Y, por tanto, cuanto más se ajustan los puntos a la distribución teórica, más
se aproxima ( )1iF p−
a ( )iτ β
θ−
y más alineados están los puntos. El ajuste perfecto
está representado por la igualdad.
10
HAZEN A., FLOOD FLOWS: A Study of Frequencies and Magnitudes, 1930. John Wiley & Sons, New York. 11
WEIBULL W., Ingeniors Ventenskaps Akademien Handlingar, 1939,p. 153. Se considera el valor
esperado de ( )inF
τ βθ−
.
12 BENARD ET AL., Statistica, 1953, Capítulo 7.pp: 163-173.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
La recta de ajuste tendrá la forma: ( )1F p− = τ βθ−
( ) ( ) ( )1 1 1
F p F p F p A Btτ θ τ β θ
β− − −−
⇒ = ⇒ = + ⇔ = + .
Por tanto, los puntos que vamos a tratar de ajustar a una distribución
teórica serán: ( )( )1( ) ,i iF pτ − . Donde ( )iτ son los valores de tiempos de fallos
observados y 1 0.5i
iF p
n− − =
son los valores obtenidos a partir de la función de
distribución teórica F(t) que se quiere ajustar a los datos, fijando previamente
( )
0.5( )n
i i
iF p
nτ −= = .
A este tipo de gráfico también se le conoce como gráfico cuantil-cuantil o
quantil-quantil plot (QQ-plot). Ya que consiste en hacer un gráfico de dispersión
entre los valores de la muestra ordenados y los cuantiles del modelo propuesto.
Cuando se tengan representados todos los puntos (x,y) asociados a las
observaciones, se deberá hallar la recta de regresión asociada, la cual
corresponderá a la f.d. de la distribución elegida cuyos parámetros mejor se
ajusten a las observaciones.
3.2.2. Regresión lineal mínimo-cuadrática
En una situación ideal (irreal) en la que todos los puntos de un diagrama de
dispersión se encontraran en una línea recta, no tendríamos que preocuparnos
sobre qué recta es la que mejor se ajusta a nuestra nube de puntos. Simplemente
uniéndolos entre sí, obtendríamos la recta –distribución elegida con parámetros
adecuados- buscada. Pero en una nube de puntos más realistas, donde son posibles
muchas rectas, es necesario encontrar la mejor representante de nuestra nube de
puntos. Convencionalmente, la elegimos en base a la condición de que ésta hace
mínima la suma de los cuadrados de las distancias verticales entre cada punto
experimental y la recta (método de mínimos cuadrados). Por tanto, los
coeficientes A y B- que determinarán nuestros parámetros en la distribución
hipotética- serán hallados a partir de esta Imposición matemática.
Gema Manzano Ventura
33
3.2.2.1. Aplicación práctica. Ajuste en las distintas distribuciones de vida
Distribución exponencial
1. Ordenamos los n tiempos de fallos registrados en orden creciente:
(1) (2) ( )... nτ τ τ< < < y asignamos, a cada uno, el rango i=1, 2,…,n.
2. Linealización de la función de distribución exponencial:
[ ]_ ln( ) 1 1 ( ) ( ) ln 1 ( )t t
tomandoF t e F t R t e F t tλ λ λ− −= − ⇒ − = = → − = −
Dado que el ln no puede tomar valores negativos, aceptamos: [ ]ln 1 ( )F t tλ− − =
3. Los puntos a ajustar por la recta son: ( )
0.5, ln 1 , 1,...,i
ii n
nτ − − − =
.
4. Por tanto, podemos identificar el coeficiente de la recta de ajuste con el
parámetro de escala λ :
( )( )1( ) ,i iF pτ − � ( )
0.5, ln 1i
i
nτ − − −
[ ] [ ] {ln 1 ( )ln 1 ( )
Y F tF t t Y AX B A
X tλ λ
= − −− − = = + ⇒ ⇒ ==
�
Distribución Weibull
1. Ordenamos los n tiempos de fallos registrados en orden creciente:
(1) (2) ( )... nτ τ τ< < < y asignamos, a cada uno, el rango i=1, 2,…,n.
2. Linealización de la función de distribución Weibull:
( ) ( )( ) ln ln ( ) ln( ln(1 ( )) ln lntR t e R t F t tβλ β β λ−= ⇒ − = − − = +
3. Determinación de los puntos empíricos: ( )0.5
ln , ln ln 1 1,2,...,i
ii n
nτ
− − − =
4. Determinación de los parámetros θ y β:
1( )
0.5,i
iF
nτ − −
� ( )0.5
ln , ln ln 1i
i
nτ
− − −
ln( ln(1 ( )) 1ln( ln(1 ( )) ln ln
exp( )ln
AY F tF t t Y AX B BX t A
ββ β λ θ
λ λ
== − − − − = + = + ⇒ ⇒ = == �
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Distribución Erlang/Gamma
1. Ordenamos los n tiempos de fallos registrados en orden creciente:
(1) (2) ( )... nτ τ τ< < < y asignamos, a cada uno, el rango i=1, 2,…,n.
2. El gráfico probabilístico de una Erlang, se construye ajustando a una recta los
puntos:
( )
0.5, , 1, 2,....,i
ii n
nτ − =
Distribución normal y lognormal
Las funciones de distribución y fiabilidad de las distribuciones normal y log-
normal solo pueden expresarse en términos integrales. Esta es la razón por la son
los programas estadísticos los encargados de llevar a cabo su ajuste por regresión
lineal.
3.2.2.2. Evaluación de la bondad del ajuste
Es fundamental disponer de alguna indicación precisa que determine el
grado en el que la recta seleccionada se ajusta a la nube de puntos antes de utilizar
la ecuación para hacer predicción alguna. Pues es posible que la mejor de las rectas
disponibles no refleje un ajuste que podamos aceptar (en este caso debemos
recurrir a métodos no paramétricos). Y todo lo contrario, a mejor ajuste, mejores
serán las predicciones realizadas con el modelo.
El método de mínimos cuadrados ofrece distintas formas de resumir el
grado en que la nube de puntos se ajusta a la recta de regresión. Esto es, el grado
de confianza con el que podemos identificar la distribución de fallos del
componente o sistema con la distribución teórica elegida cuyos parámetros que
implican el mejor ajuste. A este respecto, podríamos utilizar la media-en valor
absoluto- o la mediana de los residuos (distancias de cada punto a la recta). En
nuestro caso, las medidas que usaremos para medir la bondad del ajuste lineal
mínimo cuadrático, son:
Coeficiente de correlación de Pearson:
Gema Manzano Ventura
35
• Es el coeficiente más utilizado para medir la bondad de un ajuste de regresión,
una vez obtenida la recta: ( )1
Y AX B F p At B−
= + = +�
• Su definición matemática es: ( ),
Y X
Cov Y Xr
σ σ= , donde:
Cov (Y,X) es la covarianza entre las variables Y, X y Xσ y Yσ es la desviación
típica de la variable X-que en nuestro caso se corresponde con τ -o ln τ -e
Y- que cuyos valores son F-1(pi)-, respectivamente.
• El coeficiente varía de -1 a 1 bajo el significado:
� Un coeficiente positivo indica asociación lineal positiva, es decir, tienden
a variar en el mismo sentido mientras que un coeficiente negativo indica
asociación lineal negativa, es decir, tienden a variar en sentido opuesto.
� Un coeficiente próximo o igual a cero denota poca o ninguna relación
lineal entre las variables. Un coeficiente próximo o igual-en valor
absoluto- a la unidad denota una dependencia lineal intensa o exacta
entre las variable.
Coeficiente de determinación lineal
• Es el cuadrado del coeficiente de correlación, r2, se representa por R2.
• Su expresión matemática es:
totalcuadradosdeSuma
residuoslosdecuadradoslosdeSumaR
___
______12 −= .
• Expresa la proporción de la varianza de la variable dependiente Y que está
explicada por la variable independiente X.
• Su rango de valores, lógicamente es: 0 12 ≤≤ R . La interpretación de los
posibles valores del coeficiente de determinación:
[0.0-0.25)--------------------------� Ninguna correlación entre X e Y
[0.25-0.50)------------------------� Correlación débil
[0.50-0.75)------------------------� Correlación moderada
[0.75-1)----------------------------� Correlación intensa
1-------------------------------------� Correlación perfecta
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
La validez de la inferencias -realizadas a través de la recta de regresión
lineal- será directamente proporcional al grado de ajuste de ésta con la nube de
puntos. Es por ello que, para aceptar a la distribución teórica-recta de regresión-
como representante de los datos observados de tiempo de fallo, debemos exigir un
estricto límite a este grado de ajuste. La correlación entre ambas-nube de
puntos/recta- debe ser de, del menos, 95% - 0.95r ≥ -.
Si estamos frente a este caso, y dado que el objetivo final es tratar de hacer
inferencias a través de la función de distribución obtenida para saber el instante
futuro en el que el dispositivo podría fallar, cabe precisar, todo cuanto sea posible,
la función de distribución obtenida.
3.2.2.3. Predicción y estimación a partir del modelo. Bandas de confianza.
Una vez hemos aceptado el modelo ajustado de la distribución teórica con
parámetros dados- recta de regresión-ésta puede interpretarse de dos formas:
1. Como predicción del valor que tomara F(t) cuando t=T.
2. Como estimación del valor medio de F(t) para el valor t=T, es decir,
( )E F t t T = .
Ambas cantidades están sujetas a incertidumbres. Es por ello que se hace
necesario establecer un intervalo de confianza, entendido como una región que
contendrá a la verdadera relación entre F(t) y τ con seguridad del (1-α)%-
normalmente usamos α=0.05, esto es 95%-.
Lo haremos basándonos, de nuevo, en la recta de regresión minimo-
cuadrática:
Proposición:Proposición:Proposición:Proposición: Obtenida la recta de regresión lineal mínimo-cuadrática:
Y=AX+B, podemos decir con un (1-α) ·100% de confianza que cuando x=X, el
valor medio estimado en y y el valor predicho en y, se encuentran
respectivamente, en los siguientes intervalos:
Gema Manzano Ventura
37
( )2
1 /2, 2
1ˆ ·n RXX
X XY t s
n Sα− −
−±
y
( )2
1 / 2, 2
1ˆ · 1n RXX
X XY t s
n Sα− −
−± +
Siendo:
1 / 2, 2nt α− − = t-Student con n-2 grados de libertad que deja a su izquierda un área de 1- α/2.
Puede consultarse en tablas específicas para valores de t-Student con parámetros 1 / 2, 2nα− −
Rs =Varianza residual del modelo
2XX XS nσ=
3.3. Método de máxima verosimilitud
En este apartado, exponemos un método general que permite hallar los
parámetros de la distribución de ajuste. Partimos, de nuevo, de n tiempos de fallos
registrados 1 2, ,..., nτ τ τ . Estos datos pueden ser vistos como observaciones de una
función de densidad teórica dada f(t, θ1,θ2) – exponencial, normal, log-normal,
Weibull y Erlang/Gamma- donde es conocida la forma de la distribución pero no
sus parámetros. Tomaremos la notación ( )1 2,θ θ θ= .La función de verosimilitud de
las observaciones será:
( )1
( , )n
ii
L fθ τ θ=
= ∏
Más común es trabajar con el logaritmo de la función de verosimilitud, esto
es: ( )ln ln ( )Lθ θ= . Los estimadores máximo verosímil 1 2ˆ ˆ,θ θ de θ1,θ2 son aquellos
que maximizan la función de verosimilitud-o su logaritmo-. Normalmente, se
encuentran resolviendo las ecuaciones:
( )ˆ , 1,2jj
lj
θθθ
∂= =∂
Muchas veces nos encontramos con que estas ecuaciones son complejas y
requieren de métodos complejos- como el algoritmo de Newton- para ser
resueltas.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Veremos a modo de ejemplo, la aplicación de este método para dos de las
distribuciones más frecuentes en fiabilidad, la distribución exponencial y la
distribución Weibull.
• Distribución exponencial
La función de verosimilitud para los datos observados es:
( )1 21 1
, ,..., , ( , ) i
n n
n ii i
L L e λττ τ τ λ τ λ λ −
= =
= =∏ ∏
Esto es,
( )1
1
n( )
n
ii
nn
ii
L e L L nLnλ τ
λ λ λ τ=
−
=
∑= ⇒ = − ∑
Por tanto, el parámetro se estima como:
1
1
( ) ˆ0 0n
i ni
ii
Ln L n nτ λλ λ τ=
=
∂ = ⇒ − = ⇒ =∂ ∑
∑
El resultado es esperado pues la tasa de fallos para esta distribución es
constante y coincide con el recíproco del tiempo medio entre fallos.
• Distribución Weibull
La función de verosimilitud es para los datos observados en una Weibull:
( ) ( )1
1 21
( , ,..., ) ( )n
tn
i
L t eββ λτ τ τ λβ λ − −
=
= ∏
Los valores de los parámetros que la hacen máxima se obtienen a través de
la resolución del sistema formado por las derivadas parciales de la función
respecto a cada uno de los parámetros, esto es:
1/
1
( ) ˆ0n
ii
Ln L n
β
βλ
λ τ=
∂ = ⇒ =
∂ ∑
Gema Manzano Ventura
39
( )1
1
1
( )( ) 1 1
0ˆ
n
i i ni
ini
ii
LnLn L
Lnn
β
β
τ ττ
β βτ=
=
=
∂ = ⇒ − =∂
∑∑
∑
El proceso de cálculo de esta segunda ecuación es iterativo y requiere de un
algoritmo especial para resolverlo. Una vez encontremos este segundo valor,
podremos obtener la estimación del parámetro λ̂ .
El uso de este método permite encontrar los parámetros de las posibles
distribuciones teóricas elegidas como posibles representantes de nuestros datos–
a través del gráfico QQ, por ejemplo-. Sin embargo, es absolutamente necesario
disponer de una medida que refleje la bondad del ajuste de estas distribuciones
dadas- distribuciones hipotéticas con parámetros encontrados a través del método
de máxima verosimilitud-a nuestros datos observacionales. Pues sólo de esta
manera es posible determinar cuál de ellas representa mejor -y en qué medida lo
hace- a nuestras observaciones.
Lo más frecuente en este sentido es realizar un test como el de Kolmogorov
–Smirnov, en el que se comparan la función cumulativa de distribución empírica
con la teórica definida a través de los parámetros de la distribución.
4. Análisis no paramétrico
El análisis no paramétrico implica la no aceptación de un modelo teórico
previo como representante de nuestros datos. A partir de esta idea, nacen distintos
métodos analíticos y gráficos que nos permitirán analizar e interpretar los datos
registrados, aunque siempre menos profundamente que si hubiéramos aceptado
una distribución hipotética (caso paramétrico). Existen dos causas principales
para el uso de métodos no paramétricos:
1. Utilidad: Comenzar el análisis de las observaciones sin un supuesto
previo puede resultar francamente útil. Ya que, en algunos casos, este primer
análisis no paramétrico podría resultar suficiente y, en otros, constituirá un
indicador altamente eficaz hacía un modelo más estructurado (paramétrico).
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
2. Necesidad: Si realizando un estudio paramétrico no conseguimos
demostrar un ajuste significativo con ninguna de las distribuciones hipotéticas,
será necesario aplicar técnicas no paramétricas para la obtención-al menos gráfica-
de las distintas medidas de fiabilidad.
Los métodos no paramétricos están adheridos a conceptos como Kaplan-
Meier o tiempos censurados. Comenzaremos por una definición breve de estos
últimos.
4.1. Tiempos de censura
Supongamos que disponemos de un conjunto de dispositivos idénticos al
que se desea evaluar. Para llevar a cabo un análisis de fiabilidad debemos registrar,
como primer paso, una serie de medidas correspondientes al intervalo de tiempo
hasta que algún dispositivo falla-tiempos de fallo-. Sin embargo, este estudio puede
presentarse para cuatro situaciones bien diferenciadas:
1. Observaciones completas: Se conoce el estado inicial del conjunto de
copias idénticas del dispositivo a evaluar–bien por ser copias nuevas o por
disponer del tiempo en el que ha ocurrido el último fallo para cada uno- y se
concluye el estudio de observación siempre y cuando hayan fallado todos y cada
uno de los dispositivos del conjunto.
2. Censura izquierda: Puede ocurrir que el estudio comience sin conocer la
situación inicial de los dispositivos (o de algunos de ellos)- -cuando fallaron por
última vez- y finalice una vez se haya registrado el tiempo de fallo para cada uno de
ellos.
3. Censura derecha: Se conoce la situación inicial de los dispositivos pero el
estudio concluye para un tiempo fijado, donde, queden todavía algunas copias
funcionando sin fallos.
4. Censura múltiple: Por último, puede ocurrir que al comienzo de la prueba
se desconozca la situación inicial de algunos dispositivos, o de todos, y al finalizar
la prueba algunos de ellos sigan funcionando.
Gema Manzano Ventura
41
Los métodos paramétricos explicados -de Q-Q Plot y Máxima Verosimilitud-
son aplicables, por supuesto con modificaciones pertinentes, cuando disponemos
de observaciones con censura de cualquier tipo.
Sin embargo, en este contexto, las técnicas paramétricas tradicionales
tienden a despreciar la información contenida en los datos censurados lo cual
puede sesgar los resultados obtenidos. Es por ello, que los datos con censura se
asocian más a un estudio de fiabilidad no paramétrico.
4.2. Estimación Kaplan-Meier
La fiabilidad un dispositivo o sistema se puede estimar de manera no
paramétrica basándose en los tiempos de observación (censurados y no censurados y no censurados y no censurados y no
censuradoscensuradoscensuradoscensurados) usando métodos actuariales o a través del método de Kaplan-Meyer.
Nos centraremos en este último.
Si asumimos que el fallo es independiente para cada dispositivo, las
probabilidades de sobrevivir en un tiempo tj determinado se calculan gracias a la
ley multiplicativa de las probabilidades, esto es, la probabilidad de que el
dispositivo sobreviva-sin fallos- a un tiempo tj es igual a la probabilidad de
sobrevivir hasta el momento anterior t(j–1) por la probabilidad condicionada de
sobrevivir un tiempo t(j) después de haber sobrevivido un tiempo t(j–1). Vamos a
intentar exponerlo más fácilmente:
� Disponemos de n copias idénticas del dispositivo a evaluar, de las que
hemos tomado k observaciones de tiempos de fallo distintos (k ≤ n) –el
fallo de varias unidades en el mismo instante está permitido-.
� Denotamos con dj el número de unidades que fallan en el tiempo tj.
� Denotamos por Li a los tiempos de censuras, entendidos como el tiempo
en el que se dejo de observar el dispositivo-sin que éste hubiera fallado-.
� Denotamos por nj al número de unidades en riesgo en tj – unidades
operativas y no censuradas justo antes de tiempo tj-.
Una estimación de la probabilidad condicional de supervivencia después del
tiempo tj, dado que ha sobrevivido justo antes de tj: j j
j
n d
n
−, así, es sencillo
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
entender que la estimación de Kaplan-Meier para la función de supervivencia, R(t),
será, entonces:
:
ˆ( )j
j j
j t t j
n dR t
n<
−= ∏
Ahora bien, cuando el muestreo es completo, esto es, no tenemos
observaciones censuradas, y ocurre que n1=n y nj=nj-1-dj (j=1,…,n); este estimador
puede simplificarse a la función de fiabilidad empírica definida como:
{ }º _( )
n observaciones tR t
n
>=
Ya que en este caso el número de observaciones mayores que cualquier t es
conocido con exactitud.
Las propiedades de este estimador no se estudiarán aquí explícitamente,
pueden consultarse en la bibliografía. Sin embargo, es importarte explicitar que, en
cualquier caso-censura o no- se trata de una función escalonada que toma el valor
1 en t=0 y decrece por un factor ( )j j
j
n dn
− inmediatamente después de cada
fallo. La estimación no cambia en los tiempos de censura Li, el efecto de los mismos
se pone de manifiesto en los valores nj y, por tanto, en los saltos de R̂(t).
La función razón de fallo acumulativa-o función impacto- es H(t)=-ln R(t),
por lo que de un modo natural, tomamos su estimación empírica como:
ˆ ˆ( ) ln ( )H t R t= −
La gráfica de esta función es especialmente útil para determinar ciertas
propiedades de la distribución, por ejemplo, permite diagnosticar cómo se
comportará su tasa de fallo h(t).
Gema Manzano Ventura
43
5. Mantenimiento
Hasta aquí se han introducido las técnicas estadísticas implicadas en un
análisis de fiabilidad llevado a cabo a partir del registro de una serie de tiempos de
fallo de un sistema o dispositivo.
Aunque conocer, a través de las diferentes medidas de fiabilidad, la
capacidad que tendrá un sistema de desarrollar adecuadamente su labor a lo largo
del tiempo, supone un paso de gigantes en la prevención de ciertos fallos- p.e fallos
de desgaste,- lo cierto es que sigue siendo imposible diseñar dispositivos que no
fallen.
Esto nos lleva a plantearnos la necesidad de actuar en este sentido y
plantear técnicas que nos permitan tanto prevenir de alguna manera los fallos
antes de que se produzcan como devolver al sistema, una vez éste falló, a su estado
operativo. Aquí entra el juego el mantenimiento.
El mantenimiento está estrechamente ligado a la fiabilidad –mayor
frecuencia de fallos, mayor mantenimiento- pues los dos estudian, de manera
complementaria, la operatividad de sistemas. Y, como la fiabilidad, el
mantenimiento conforma también una disciplina de la ingeniería que debe ser
aplicada en la concepción, diseño y desarrollo de sistemas.
La mantenibilidad, tal y como ocurría con la fiabilidad, debe ser
demostrada. Sin embargo, las muchas responsabilidades que recaen sobre ella-
consumo de tiempo, empleo de recursos humanos, materiales, costes, etc- hacen
que encontremos un amplio abanico de medidas disponibles. Todas ellas
pertenecen a uno de los cuatro grupos en que se dividen los parámetros que miden
la mantenibilidad: parámetros basados en el tiempo, parámetros basados en la
carga de trabajo, parámetros basados en la frecuencia y parámetros basados en el
coste de las tareas.
La reparación, la inspección, el reemplazamiento y los costes hacen del
estudio del mantenimiento una disciplina extensa que precisa de técnicas
estadísticas nuevas que escapan al cometido de este trabajo.
Sin embargo, la absoluta analogía y relación existente entre las variables
aleatorias continuas tiempo de reparación -TTR (Time To Repair), relativa a la
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
mantenibilidad, y el tiempo de fallo, hace que detenernos en el TTR sea un paso
obligado en este estudio.
5.1. Tiempo de reparación-TTR
Al monitorizar un sistema o componente, el registro de su tiempo de fallo se
identifica con el intervalo de tiempo en el que el sistema ha estado operativo
(hasta que se produjo el fallo). Si el dispositivo es reparable, cuando se produce la
avería, el monitor detecta ese instante como tiempo de fallo –o lo que es lo mismo,
tiempo operativo- e instantáneamente, pone en marcha otro contador que
funciona hasta que el sistema es devuelto a su estado de correcto funcionamiento.
A este nuevo intervalo de tiempo se le conoce como tiempo de reparación.
Como vemos, el tiempo de reparación presenta idénticas características
matemáticas que la variable tiempo de fallo y, es por ello que, comparte con ella
todo el conjunto de técnicas estadísticas estudiadas hasta el momento.
A.A.A.A. Función de mantenibilidadFunción de mantenibilidadFunción de mantenibilidadFunción de mantenibilidad
Se define como la probabilidad de que la reparación del sistema ocurra
antes de un tiempo t cualquiera- sobre el que queramos estimarlo-:
[ ]0
( ) ( )t
M t P TTR t m t dt= ≤ = ∫
B.B.B.B. Función de Función de Función de Función de no no no no reparabilidadreparabilidadreparabilidadreparabilidad
Se define como:
Rr(t)=1-M(t)
Equivale a la función de supervivencia evaluada a través de los tiempos de
fallo pero ambas funciones se presentan con connotaciones opuestas. Rr(t) se
define como la probabilidad de que el sistema no haya sido reparado –previamente
era entendido como la probabilidad de no haber fallado- antes de un tiempo t. Con
lo cual, el crecimiento de Rr(t) conlleva implicaciones negativas en cuanto a la
disponibilidad del sistema, mientras que al crecimiento de R(t) le pasa todo lo
contrario.
Gema Manzano Ventura
45
C.C.C.C. Función de densidad delFunción de densidad delFunción de densidad delFunción de densidad del tiempo de reparacióntiempo de reparacióntiempo de reparacióntiempo de reparación
Como toda función de densidad de probabilidad, cumple:
( )( )
dM tm t
dt=
Comparte todas las propiedades matemáticas descritas para la función de
densidad del tiempo de fallos. Por tanto, permite el cálculo de la probabilidad de
que una reparación dure en un cierto intervalo de tiempo mayor o menor que un
tiempo fijado.
D.D.D.D. Función de tasa de reparaciónFunción de tasa de reparaciónFunción de tasa de reparaciónFunción de tasa de reparación
Se define de manera análoga a la función tasa de fallo, es decir,
( )( )
1 ( )
m tt
M tµ =
−
La tasa de reparación en el instante t, mide la probabilidad que un sistema
sea reparado en el intervalo [t, t+∆t], esto es, nº de reparaciones por unidad de
tiempo. Conocer este parámetro resulta muy útil en mantenimiento, ya que su
evolución determina la probabilidad de que la reparación sea completada en un
instante dado.
El estudio de inferencia estadística de estas medidas de permitirán al
ingeniero hacer predicciones relativas al tiempo de reparación del dispositivo, lo
que parece una idea fundamental al hablar de disponibilidad del mismo.
Para obtener la función de mantenibilidad-y a partir de ella la función de
densidad y función tasa de reparación- de un determinado sistema, debemos
generar observaciones de TTR, y a partir de ellas y siguiendo exactamente las
mismas técnicas –paramétricas y no parámetricas- explicadas hasta el momento
para la serie de tiempos de fallo, se debe encontrar la distribución que mejor las
represente.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Capítulo 2. ESTUDIO REAL
DE FIABILIDAD
47
1. Introducción
1.1. Justificación del estudio
Los ingenieros necesitan conocer de qué manera
los dispositivos o sistemas que diseñan o fabrican.
los tiempos adecuados para la
componentes evitando –o anticipándose
fallo. Esta es la única y verdadera esencia de la ingeniería de fiabil
La teoría en la que se fundamenta la fiabilidad de sistemas
capítulo primero de este trabajo
aplicarla al mundo real, de hacerla útil.
Comienza aquí la parte más interesante e imprescindible
aplicación práctica del análisis de fiabilidad.
En este estudio trabajaremos con 72 datos de tiempos de fallos y
correspondientes tiempos de reparación reales recogidos a t
monitorización de un generador eléctrico
Un generador eléctrico es un dispositivo que consigue transformar la
energía mecánica en energía eléctrica.
Mantiene, por tanto, una diferencia de
potencial entre dos de sus puntos
Por la ley de Faraday, cuando hacemos
girar una espira – conductor
plano- a través de un campo magnético, se
produce en ella una variación del flujo de
dicho campo, lo que provoca una diferencia de
potencial entre los bornes de la espira.
En las centrales de generación eléctrica, la espira recibe el nombre de rotor
debido a su movimiento constante
un material ferromagnético
un campo magnético. El estator
por bobinas por las que circulará la corriente. Cuando el rotor gira, el flujo del
Gema Manzano Ventura
Justificación del estudio
necesitan conocer de qué manera se producen los fallos en
istemas que diseñan o fabrican. Pues sólo así es posible estimar
los tiempos adecuados para la inspección, reparación o sustitución de los
o anticipándose- así, a las repercusiones de un posible
fallo. Esta es la única y verdadera esencia de la ingeniería de fiabilidad.
La teoría en la que se fundamenta la fiabilidad de sistemas
capítulo primero de este trabajo- solo toma sentido cuando somos capaces de
aplicarla al mundo real, de hacerla útil.
Comienza aquí la parte más interesante e imprescindible de este trabajo: la
aplicación práctica del análisis de fiabilidad.
En este estudio trabajaremos con 72 datos de tiempos de fallos y
tiempos de reparación reales recogidos a t
monitorización de un generador eléctrico de una determinada compañía.
Un generador eléctrico es un dispositivo que consigue transformar la
energía mecánica en energía eléctrica.
Mantiene, por tanto, una diferencia de
potencial entre dos de sus puntos- polos-.
Por la ley de Faraday, cuando hacemos
conductor cerrado
a través de un campo magnético, se
produce en ella una variación del flujo de
, lo que provoca una diferencia de
potencial entre los bornes de la espira.
entrales de generación eléctrica, la espira recibe el nombre de rotor
debido a su movimiento constante- y es una bobina enrollada en torno a
material ferromagnético por la que se hace circular una corriente, que produce
El estator-o parte estática del generador- está constituido
por bobinas por las que circulará la corriente. Cuando el rotor gira, el flujo del
Figura 2.1. Generación electricidad
Gema Manzano Ventura
se producen los fallos en
Pues sólo así es posible estimar
inspección, reparación o sustitución de los
las repercusiones de un posible
idad.
La teoría en la que se fundamenta la fiabilidad de sistemas-recogida en el
solo toma sentido cuando somos capaces de
de este trabajo: la
En este estudio trabajaremos con 72 datos de tiempos de fallos y sus
tiempos de reparación reales recogidos a través de la
determinada compañía.
Un generador eléctrico es un dispositivo que consigue transformar la
entrales de generación eléctrica, la espira recibe el nombre de rotor-
una bobina enrollada en torno a
por la que se hace circular una corriente, que produce
está constituido
por bobinas por las que circulará la corriente. Cuando el rotor gira, el flujo del
Figura 2.1. Generación electricidad
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
campo magnético a través del estator-bornes de la espira- varía con el tiempo, por
lo que se generará una corriente eléctrica. La energía mecánica –rotación del rotor-
que el generador transforma en energía eléctrica proviene del movimiento de una
turbina, accionada –dependiendo del tipo de central- por vapor de agua, aire o
agua.
A continuación, se muestra esquemáticamente el papel de un generador
eléctrico en una central hidráulica.
Figura 2.1.Generador eléctrico en una central hidráulica
Dado que son responsables del abastecimiento de electricidad, los fallos en
los generadores de las compañías eléctricas, pueden provocar los molestos
apagones que todos, como usuarios, hemos sufrido alguna vez.
Las consecuencias de un fallo en un generador eléctrico dependen del
momento y circunstancias en que se produzcan. Existen averías que no impiden
que el generador siga funcionando y suministrando electricidad, otros fallos
pueden provocar apagones durante algunos segundos en una barriada o cuidad y,
también pueden darse grandes averías que precisen de costosas y largas
reparaciones provocando apagones de horas o incluso días. En este último caso, los
muchos perjuicios causados por la falta de corriente eléctrica o frecuentes cortes
de suministro, puede provocar que clientes individuales y entidades-empresas,
industrias,…- impongan multas que resulten en millonarias pérdidas para las
compañías eléctricas.
Gema Manzano Ventura
49
Por otro lado, fallos frecuentes, aún con reparaciones casi instantáneas,
inducen al malestar entre los usuarios que podrían abandonar la compañía por
otra de la competencia con menos tasa de fallos.
Pero, sin duda, la causa más determinante en la necesidad de realizar un
estudio de fiabilidad en generadores eléctricos es la de prevenir costes en su
mantenimiento y reparación. Determinar la cantidad de repuestos de los que se
necesita disponer para los distintos componentes, fijar el tiempo adecuado entre
las inspecciones, conocer la conveniencia de sustituir o no un dispositivo según su
grado de desgaste, son tareas relacionadas directamente con los resultados de un
estudio de la fiabilidad.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
1.2. Estudio de fiabilidad con SPSS
De entre la multitud de software disponibles13, hemos elegido SPSS-
Statistical Package Social Sciences- para llevar a cabo nuestro estudio de fiabilidad.
La razón fundamental es la facilidad de uso que, debido a su carácter intuitivo y
simple, permite un óptimo manejo de datos estadísticos tanto a usuarios como a
expertos.
Una vez iniciada la sesión en SPSS, debemos elegir la opción
correspondiente a la introducción de datos.
El editor de datos presenta dos sub-ventanas diferentes: vista de datos y
vista de variables. En la primera introduciremos los datos teniendo en cuenta que
SPSS maneja los datos en términos de variables, cada una de las cuales ocupa una
columna. Por tanto, en cada columna colocaremos los valores de la variable
correspondiente. Hay que tener en cuenta que SPSS entiende los decimales con
comas.
En cuanto al visor vista de variables, nos permite guardar información
adicional relativa a las variables que manejamos: nombre, tipo, nº de decimales
que fijamos, etc…
En nuestro caso, las dos variables de trabajo son: fτ -tiempos de fallos- y rτ -
tiempos de reparación. La unidad del tiempo es el día. Ver [ANEXO 1ANEXO 1ANEXO 1ANEXO 1]. La variable
aleatoria continua tiempo de fallo tomará los valores correspondientes a intervalos
de tiempo determinados por el instante en el que el generador falló. De ahí que le
designemos como T_operativo, haciendo referencia a que se identifica con
intervalo de tiempo en el que el generador estuvo operativo no registrando fallos.
El intervalo de tiempo que va desde el instante en el que el sistema falla hasta que
vuelve a estar operativo recibe el nombre de tiempo de reparación.
Tantos si los datos son referidos a 72 generadores eléctricos como si se
trata de una inspección realizada a un solo generador-las compañías eléctricas son
muy reacias a la hora de ofrecer información sobre sus datos reales- estamos
13
Las posibilidades pasan por el uso de cualquier software de hojas de cálculo, p.e., Excel, hasta sofisticados entornos que usan lenguaje propio de programación, p.e., R .Realizan un estudio completo y específico de fiabilidad Statgraphics o Minitab.
Gema Manzano Ventura
51
hablando de observaciones completas-sin censura-. Al tratar con tiempos de
reparación, podemos suponer-sin pérdida de generalidad- que se trata de la
inspección a un solo generador eléctrico. Así lo consideraremos a lo largo de este
estudio.
2. Fiabilidad: Análisis de los tiempos de fallo
2.1. Análisis descriptivo de los tiempos de fallos
El primer paso en cualquier estudio estadístico debe ser un análisis
descriptivo de los valores que van a utilizarse. Este análisis implica obtener todas
las medidas centrales (media, moda, mediana), así como los parámetros de
dispersión (rango, varianza, desviación típica, desviación media, cuartiles,
percentiles). Acompañando estos resultados con parámetros de forma de la
distribución (asimetría y curtosis) y su representación gráfica (histogramas),
podremos obtener una primera interpretación del comportamiento de la
distribución de los datos.
Todo ello se obtiene con el programa SPSS a través de las órdenes:
Analizar > Estadísticos Analizar > Estadísticos Analizar > Estadísticos Analizar > Estadísticos descriptivos > Frecuenciasdescriptivos > Frecuenciasdescriptivos > Frecuenciasdescriptivos > Frecuencias
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Obtenemos los siguientes resultados:
Estadísticos
T_operativo
N Válidos 72
Perdidos 0
Media 24,502305
Mediana 14,020833
Moda ,3167a
Desv. Típ. 30,1940738
Varianza 911,682
Asimetría 2,712
Error típ. De asimetría ,283
Curtosis 9,432
Error típ. De curtosis ,559
Rango 168,7174
Mínimo ,3167
Máximo 169,0340
Percentiles
25 5,711806
50 14,020833
75 34,047396
Del análisis descriptivo basado en las 72 medidas de tiempos de fallos se
deduce que:
El máximo tiempo que el generador eléctrico ha estado operativo, sin
registrar ninguna avería, ha sido de 169,03 días. El intervalo de tiempo mínimo en
el que el sistema ha estado operativo hasta la detección de un fallo fue de 0,32 días,
aproximadamente, unas 7 horas y media.
Gema Manzano Ventura
53
Medidas de centralizaciónMedidas de centralizaciónMedidas de centralizaciónMedidas de centralización
La media de días de todos los fallos producidos en el generador eléctrico,
durante la inspección, es de, aproximadamente, 24,50 días.
La mediana nos informa de que el número de veces que el sistema falló,
estando operativo un intervalo de tiempo inferior a 14,02 días es el mismo que el
número de veces que el sistema falló estando operativo un intervalo de tiempo
superior a 14,02 días. Esto es, de las 72 observaciones, hay 31 tiempos de fallos-
tiempo operativos- registrados con valores menores de 14,02 días y 31 tiempos de
fallos mayores de 14,02 días. Dado que los valores extremos –máximo y mínimo-
de la distribución están muy alejados (el rango es de 168,72), la mediana suele ser
considerada, en este caso, un mejor valor de centralización que la media.
Existen diferentes valores para la moda entendida como los intervalos de
los tiempos de fallos que registran una mayor frecuencia. Uno de ellos es 0,3167
días, esto es, aproximadamente: 7h y 36 min.
Medidas de dispersiónMedidas de dispersiónMedidas de dispersiónMedidas de dispersión
El valor de la varianza y de su raíz, la desviación típica son indicadores de
lo alejados, de lo dispersos, que se encuentran nuestros valores respecto a la
media. Como vemos, 911,68 y 30,19, son cantidades muy altas que denotan la falta
de representatividad de los parámetros centrales.
Los cuartiles o percentiles P25%=5,71 días , P50%=14,02 días y P75%=34,05
días hacen referencia al valor de la variable tiempo operativo tal que las
frecuencias absolutas de los valores iguales o menores que él representan el 25%,
el 50% -coincide con la mediana- y el 75% de la frecuencia total de la distribución.
Gráfico de distribución: HistogramaGráfico de distribución: HistogramaGráfico de distribución: HistogramaGráfico de distribución: Histograma y Parámetros de formay Parámetros de formay Parámetros de formay Parámetros de forma
La principal razón de este estudio descriptivo de los datos es obtener una
primera interpretación de la distribución que siguen los valores de tiempos de
fallos. Los parámetros de asimetría y curtosis nos ayudarán a describir esta
distribución al margen de su representación gráfica- comparándola con la
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
distribución normal de Gauss-. Por otro lado, la información más eficaz disponible
sobre la forma de la distribución nos la ofrece el análisis de su histograma.
MediMediMediMediddddas de formaas de formaas de formaas de forma
Un valor del parámetro de asimetría de 2,71 (>0) nos indica que la
distribución no es simétrica y, además, presenta una asimetría derecha (moda ≤
mediana ≤ media).
El parámetro de curtosis hace referencia a cómo de concentrados están los
valores centrales en la distribución entorno a las medidas de centralización. Dado
que este coeficiente presenta un valor de 9,43 (>0), se entiende que la distribución
tratada presenta una forma más puntiaguda que la distribución normal de Gauss.
HistogramaHistogramaHistogramaHistograma
Nos indica la
probabilidad de encontrar
observaciones de tiempos de
fallos en los distintos
intervalos. Vemos que esta
probabilidad es mucho mayor
para valores cercanos al cero.
Lo que nos indica que fueron
frecuentes los fallos
producidos cuando el
dispositivo eléctrico llevaba
operativo sólo días o incluso
horas-los más frecuentes-. La probabilidad de que el generador falle a medida que
pasan los días parece ser cada vez menor.
OBSERVACIÓN: Toda representación gráfica de una variable continua en
SPSS presenta la singularidad de facilitar un estudio descriptivo de normalidad. A
través de la comparación con la distribución normal podemos identificar mejor la
forma y simetría de la distribución que estamos estudiando.
Gema Manzano Ventura
55
CCCCONCLUSIONES DEL ANÁLONCLUSIONES DEL ANÁLONCLUSIONES DEL ANÁLONCLUSIONES DEL ANÁLISIS DESCRIPTIVO PREISIS DESCRIPTIVO PREISIS DESCRIPTIVO PREISIS DESCRIPTIVO PREVIOVIOVIOVIO PARA PARA PARA PARA T_T_T_T_OPERATIVOOPERATIVOOPERATIVOOPERATIVO
• Se produce una altísima tasa de fallos para breves períodos de tiempo de
funcionamiento del generador. Esta tasa va bajando a medida que el tiempo
operativo es mayor.
• La tasa de fallos parece ser, pues, decreciente. Es decir, cada vez es más
probable que si el generador no ha registrado un fallo con el paso de los
días, siga funcionando correctamente.
• Pasando un tiempo operativo dado, aproximadamente 70 días, la
probabilidad de que el generador eléctrico falle se estabiliza, se hace
aproximadamente constante.
Todo ello nos indica que la tasa de fallo instantánea o función de riesgo
presentaría una acentuada zona de mortalidad infantil que se supera con una
estabilización de la tasa de fallos. No se detecta una zona de desgaste. Este hecho
puede deberse a que no exista tal zona o a que el tiempo de inspección del estudio
sea menor que el tiempo de degradación de componentes.
2.2. Análisis paramétrico
En base al estudio descriptivo realizado con anterioridad, podemos ya
obtener algunas pautas en la decisión sobre qué distribución se podría ajustar
mejor a nuestras observaciones. Tales como:
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
1. La tasa de fallos no parece ser constante a lo largo del tiempo, por lo que
la distribución exponencial quedaría, en principio, descartada para
representar el comportamiento de los tiempos de fallo registrados.
2. Del estudio descriptivo adicional de normalidad se extrae que los datos
tiempos de fallo no parecen seguir una distribución de este tipo.
Sin embargo, y dado la facilidad con la que SPSS nos lo permite, a través de
los gráficos Q-Q, vamos a comparar la serie de tiempos de fallos con cada una de
las distribuciones de vida hipotéticas, descritas en el apartado [2.3] de este trabajo.
Las órdenes pertinentes para ello son:
Analizar> Estadísticos descriptivos > Gráficos QAnalizar> Estadísticos descriptivos > Gráficos QAnalizar> Estadísticos descriptivos > Gráficos QAnalizar> Estadísticos descriptivos > Gráficos Q----QQQQ
En la casilla DDDDistribuciones de contrasteistribuciones de contrasteistribuciones de contrasteistribuciones de contraste elegimos cada una de las
distribuciones teóricas con las que se va a comparar la distribución empírica de
nuestra variable “T_operativo”. En cuanto a la fórmula de estimación de la
proporción, el paquete SPSS toma por defecto, la fórmula de Blom, 0.375
0.25i
ip
n
−=+
14
como valor estimado de ( )( )1iF τ− . Como ya vimos en el apartado [3.1.] las distintas
posibilidades conducen a resultados equivalentes-con diferencias máximas de
centésimas-.
Este análisis gráfico también ofrece una estimación de los parámetros de la
distribución teórica de ajuste. Sin embargo, como buscamos acercarnos a una
evaluar simplemente la posibilidad del ajuste, estos datos no serán tenidos en
cuenta.
14
BLOM, G., Statistical Estimates and Transformed Beta-Variables, Wiley, New York, 1958.
Gema Manzano Ventura
57
• Distribución Exponencial
• Distribución Normal
• Distribución log-normal
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
• Distribución Weibull
• Distribución Gamma (Erlang)
A la vista de los resultados parece razonable descartar las distribuciones
exponencial, normal y log-normal, pues los gráficos Q-Q muestran una clara falta
de ajuste entre los puntos y estas tres distribuciones.
Aunque estos gráficos suponen una técnica fácil de aplicar y de gran
utilidad se trata sólo de una técnica descriptiva. Tanto la distribución Weibull
como la Gamma parecen una posible distribución de ajuste para nuestra serie de
datos.
Aunque hemos obtenido sus parámetros de ajuste a través del método de a través del método de a través del método de a través del método de
máxima veroximilitudmáxima veroximilitudmáxima veroximilitudmáxima veroximilitud:
Gema Manzano Ventura
59
Es ésta la única información de la que disponemos. Por tanto, el siguiente
paso necesario es cuantificar el grado de ajuste a estas dos distribuciones para
elegir, de entre ambas, la que mejor representa la serie de tiempos de fallo
registrada.
2.2.1. Regresión lineal
Para hacer útil el método Probability Plotting es necesario medir el grado
de asociación entre las variables y la distribución teórica elegida. Para ello, nos
valdremos de la teoría expuesta en el apartado [3.2], cuyo primer paso era obtener
los puntos a ajustar.
Ordenaremos los n -72- tiempos registrados en orden creciente. A
continuación, generamos la variable rango con valores i=1,2,3…,72.
• Distribución Gamma
Los puntos para la comparación con una distribución Erlang/Gamma son:
( )
0.5, , 1, 2,....,i
ii n
nτ − =
Generamos la coordenada yG (yGamma) a partir de las órdenes:
Transformar>Calcular variableTransformar>Calcular variableTransformar>Calcular variableTransformar>Calcular variable
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Una vez hemos tenemos los puntos a ajustar, llevamos a cabo el ajuste de
regresión lineal.
El comando a seguir es: Analizar > Regresión > LinealAnalizar > Regresión > LinealAnalizar > Regresión > LinealAnalizar > Regresión > Lineal
Los resultados son:
Resumen del modelo b
Modelo R R cuadrado R cuadrado
corregida
Error típ. De la
estimación
1 ,793a ,628 ,623 ,1784970
a. Variables predictoras: (Constante), xG
b. Variable dependiente: yG
El valor del coeficiente de correlación de Pearson (R<0.95) denota que no
existe una relación demostrada entre las variables que podamos aceptar. Luego,
nuestros datos no serán representados por la función Gamma.
• Distribución Weibull
Los puntos a ajustar son: ( )0.5
ln , ln ln 1 1,2,...,i
ii n
nτ
− − − =
El análisis de regresión lineal ofrece los siguientes resultados:
Resumen del modelo
Modelo R R cuadrado R cuadrado
corregida
Error típ. De la
estimación
1 ,988a ,975 ,975 ,20069
a. Variables predictoras: (Constante), xW
Obtenemos un valor del coeficiente de Pearson igual a 0,988, lo que denota
una alta correlación entre los valores xW e yW. Se demuestra, entonces, que la
recta de regresión hallada –distribución teórica de Weibull con unos parámetros
específicos- se ajusta muy bien a la nube de puntos (a nivel del 98,8% de
confianza) y podemos usarla, por tanto, como representante de la conducta de los
tiempos de fallos.
Gema Manzano Ventura
61
2.2.1.1. Estimación de los parámetros: Regresión lineal&Máxima verosimilitud
El análisis de regresión lineal ofrece, además:
Coeficientes a
Modelo Coeficientes no
estandarizados
Coeficientes
tipificados
t Sig. Intervalo de confianza de
95,0% para B
B Error típ. Beta Límite
inferior
Límite
superior
1 (Constante) -2,696 ,047
-
57,602 ,000 -2,789 -2,602
xW ,868 ,017 ,988 52,562 ,000 ,835 ,901
a. Variable dependiente: yW
El coeficiente llamado constante es el origen de la recta de regresión y el
coeficiente llamado xW se corresponde con la pendiente de la recta de regresión.
Según obtuvimos en el apartado de teoría correspondiente:
ˆln( ln(1 ( ))
ln( ln(1 ( )) ln ln 1ˆ ˆln exp( )ˆ
AY F tF t t Y AX B
BX tA
ββ β λ
λ θλ
== − − − − = + = + ⇒ = = ⇒ =
�
El parámetro de forma de la distribución, es , por tanto:
β̂ [ ]95%0,868 0.825,0.901A β= = ⇒ ∈
El parámetro de escala θ̂ , se calcula a través de:
( ) ( )2,696ˆ exp exp 0,868B
Aλ −= = = 0,044781ˆˆ
θλ
⇒ = = 22,331
Cuyos intervalos de confianza –al 95%- son, aproximadamente:
max ´min
max
min max
min
2,789 1ˆ ˆ2,789 exp 0,0402 24,8756ˆ0,868
2,602 1ˆ ˆ2,602 exp 0,0499 20,0401ˆ0,868
const
const
λ θλ
λ θλ
− = − → = = ⇒ = =
⇒ − = − → = = ⇒ = =
[ ]95%ˆ 22,331; 20.040, 24.858θ θ⇒ = ∈
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Por tanto, los parámetros hallados a través del método de regresión lineal
mínimo-cuadrática son análogos a los
obtenidos a través del método de
máxima verosimilitud –se encuentran
dentro de los intervalos de confianza
de los parámetros estimados-.
Los intervalos de confianza nos informan sobre los límites en que podemos
esperar que se encuentre el valor poblacional de cada coeficiente de regresión.
Estos límites se obtienen sumando y restando 1.96 errores típicos (nivel de
confianza 95%) al valor correspondiente de regresión lineal.
Los estadísticos t se distribuyen según el modelo de probabilidad t de
Student con n-2 grados de libertad. Sus niveles críticos de significación nos
permiten contrastar las hipótesis nulas de que los coeficientes de regresión valen
cero. En nuestro caso, se demuestra, a un nivel de sig. 0,000 (<0,005), que los
coeficientes de regresión son distintos de cero y, en consecuencia, la variable
independiente está significativamente relacionada con la independiente.
Observación: El resultado del estadístico t es equivalente al del estadístico F
en la tabla ANOVA (de hecho t2=F).
En definitiva, a la vista de los resultados, se demuestra que la función de
distribución Weibull con parámetros 0,0448
0,868
λβ
= =
se ajusta a nuestra nube de
puntos empírica con una bondad del 98,8%. O lo que es lo mismo, la serie de
tiempos de fallo registrada puede caracterizarse por una distribución Weibull con
un nivel de confianza del 98,8%.
2.2.1.2. Estimación y predicción a partir del modelo. Bandas de confianza.
Una vez hemos especificado, estimado y validado un modelo, podemos
utilizarlo con objetivos diferentes. En general, estamos interesados,
principalmente, en predecir el comportamiento futuro de la variable tiempo de
fallo, esto es, predecir cuando el sistema podría fallar.
Parámetros de distribución estimados
T_operativo
Distribución de Weibull Escala 22,412
Forma ,855
Gema Manzano Ventura
63
A continuación, se muestra el gráfico de dispersión y las bandas de
confianza al 95% que contienen la verdadera relación entre F(t) y τ :
A la hora de realizar las predicciones, se puede ver que el intervalo de
predicción para el valor observado de la variable tiempo de fallo resulta más
grande que el intervalo de predicción para el valor esperado de la variable. Esto es
debido a que en la predicción hemos de considerar también la perturbación
aleatoria la cual incrementa la varianza del término error.
2.3. Propiedades de fiabilidad del generador eléctrico
Una vez demostrado el ajuste, la adopción de la función de distribución
hipotética como representante de nuestros datos, nos conducirá fácilmente a la
obtención de las demás medidas de fiabilidad-función de supervivencia, función
densidad de probabilidad, función de tasa de fallos, ordinaria y acumulativa, etc-.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Es éste el cometido que implica la culminación al estudio realizado, pues a
partir de él se infieren todas las propiedades de fiabilidad del dispositivo eléctrico
evaluado.
1. 1. 1. 1. Función de distribución:Función de distribución:Función de distribución:Función de distribución: W(λ,β)=W(0,0448; 0,868)= ( ) 0 ,868(0,0448· )1 e 1t teβλ− −− = −
Se representa la función de distribución para el intervalo de tiempo de un año [0-365 días]
La probabilidad de que el generador
eléctrico falle crece rápidamente en los
primeros días.
A los 50 días la probabilidad de que el
sistema falle está en torno al 80%.
Pasando los 100 días de funcionamiento,
la probabilidad del fallo del generador, se
eleva prácticamente, al 100% .
La probabilidad de que ocurra un fallo en un intervalo cualquiera t1-t2 (t2>t1) es
F(t2)-F(t1).
2. Función 2. Función 2. Función 2. Función de supervivenciade supervivenciade supervivenciade supervivencia
Su formulación matemática es:0,868( ) (0,0448 )
0,04480,868
( ) 1 ( ) ( )t tR t F t e R t eβλ
λβ
− −==
= − = → =
El valor de esta curva en cada punto
representa –en tanto por uno- la
probabilidad de sobrevivir sin fallos a un
tiempo t (medido en días).
Ofrece, como ya sabemos, la misma
información –pero en términos de
supervivencia y no de fallo- que la función
de distribución.
Gema Manzano Ventura
65
3. Función densidad de probabilidad de fallo3. Función densidad de probabilidad de fallo3. Función densidad de probabilidad de fallo3. Función densidad de probabilidad de fallo
Su formulación matemática es:
( ) ( ) ( )1 0,8680,868 1 (0,0448* )( ) 0,0448*0,868* 0,0448*t tf t t e t e
β βλλβ λ− −− −= �
Es, como ya preveíamos una función
decreciente que tiende a cero cuando
t → ∞ .
Si tomamos un punto fijo de t, por
ejemplo t=50 días, el área limitada por
la curva, el eje de abscisas y la región a
la izquierda de la recta t=50
representa la probabilidad de fallo
para 50 días.
A mayor tiempo, mayor área y, por tanto, mayor probabilidad de fallo.
Para tiempos pequeños el área es grande, lo que implica una probabilidad amplia
de fallo. El área total bajo la curva representa la unidad.
4. Función Tasa de fallo4. Función Tasa de fallo4. Función Tasa de fallo4. Función Tasa de fallo o Función de riesgoo Función de riesgoo Función de riesgoo Función de riesgo
Su formulación matemática es:
( ) ( ) ( )1
1 0,868 1
0,04480,868
( )( ) 0,0448*0,868 0,0448*
( )
t
t
t ef th t t t
R t e
β
β
β λβ
λλβ
λβ λλβ λ
− −− −
=−=
= = = →
La evolución de esta curva determina
la tendencia al fallo del generador
eléctrico durante un año.
Se señala una acentuada zona de
mortalidad infantil en la que existe un
alto riesgo de fallo del dispositivo.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
A medida que el generador va superando esta zona sin fallos, cada vez es más
improbable que falle-o que los fallos no se hayan producido antes-.
No se observa una zona de desgaste o envejecimiento. Es decir, que el riesgo de
fallo comience a aumentar pasado un tiempo operativo que implique que el
sistema es propenso a averías por degradación o desgaste.
5. Función Tasa de Fallo acumulativa5. Función Tasa de Fallo acumulativa5. Función Tasa de Fallo acumulativa5. Función Tasa de Fallo acumulativa
Se define como: H(t)=0
( )t
h t dt∫ o bien H(t)=-ln R(t). Esta función ofrece mucha
información acerca de la distribución, ya que:
• Si ( )H t es lineal en t ⇒ la función tasa de
fallos o función de riesgo, h(t), es constante.
• Si ( )H t es convexa con derivada primera
creciente en t ⇒ la función tasa de fallos o
función de riesgo, h(t), es creciente.
• Si ( )H t es convexa con derivada primera
decreciente en t ⇒ la función tasa de fallos o
función de riesgo, h(t), es decreciente.
En nuestro caso y aunque parece seguir una forma lineal, se intuye –sobre todo al
inicio de la gráfica- cierta curvatura en el sentido de una función convexa con
derivada decreciente, lo que explicaría la forma decreciente de la función tasa de
fallos.
6.6.6.6. Vida esperada o Tiempo medio entre fallosVida esperada o Tiempo medio entre fallosVida esperada o Tiempo medio entre fallosVida esperada o Tiempo medio entre fallos
La formulación matemática del tiempo entre fallos y la varianza para una
distribución Weibull son:
[ ] 1· 1E τ θ
β = Γ +
[ ] 2 22 11 1Var τ θ
β β = Γ + − Γ +
Para nuestra distribución, de parámetros: escala 1
22,321θλ
= = y forma:
0,868β = : [ ]E τ = 23,97599 días [ ] 2767,8669diasVar τ =
Gema Manzano Ventura
67
2.4. Análisis no paramétrico
Imaginemos que no se ha obtenido el grado de bondad exigido en el ajuste
con ninguna de las distribuciones hipotéticas. Es en este caso donde entraría en
juego el análisis no paramétrico.
SPSS supone una potente herramienta estadística para la realización de
análisis de supervivencia no paramétrico, como veremos en este apartado, a través
del estimador de Kaplan-Meier.
Para llevar a cabo un estudio de supervivencia-o fiabilidad- necesitamos, de
forma indispensable, al menos dos variables: tiempo y estado.
La variable tiempo se refiere al intervalo de tiempo comprendido entre el
inicio del seguimiento del sistema y el momento en que falló (o se le perdió la pista
si es que se corresponde con un dato censurado).
La variable estado puede tener varios valores (0-sistema fallado, 1-sistema
perdido (censura), 2-sistema operativo al final del seguimiento). SPSS nos pedirá
sólo un valor, que es el que marca la ocurrencia del evento terminal, en nuestro
caso, el fallo (no olvidemos que nuestros datos son observaciones completas-sin
censura-).
En el [ANEXO 2ANEXO 2ANEXO 2ANEXO 2] se muestra la estructura de la base de datos con la que
trabajaremos.
Dado que no contamos con datos censurados y el estudio es completo, el
dispositivo siempre termina fallando al final del tiempo de seguimiento y, por
tanto, su estado se representa por 0 en todos los casos.
Para llevar a cabo el procedimiento:
Analizar>Supervivencia>Kaplan MeierAnalizar>Supervivencia>Kaplan MeierAnalizar>Supervivencia>Kaplan MeierAnalizar>Supervivencia>Kaplan Meier
Cuando se abre la ventana de diálogo, seleccionamos la variable Tiempo-
correspondiente a los valores T_Operativos-en la casilla HoraHoraHoraHora, , , , aunque no
olvidemos que la unidad de nuestros datos es el día. En la celdilla EstadoEstadoEstadoEstado, se
agregará la variable Estado. El programa nos pide Definir eventoDefinir eventoDefinir eventoDefinir evento para especificar el
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
valor único que tiene asignado la el resultado que se evalúa; en nuestro caso, el
fallo (0).
En el botón OpcionesOpcionesOpcionesOpciones, señalamos los estadísticos y gráficos que deseamos
obtener como resultado. Al final del estudio, obtendremos la tabla de
supervivencia y la gráfica de la función de supervivenciafunción de supervivenciafunción de supervivenciafunción de supervivencia o fiabilidad- R̂(t)-, la
función función función función uno menos la supervivenciauno menos la supervivenciauno menos la supervivenciauno menos la supervivencia o función de distribución- F̂ (t)=1- R̂(t)- y la
función tasa de fallo acumulativa- ˆ ( )H t - a la que el programa SPSS le da el nombre
de ImpactoImpactoImpactoImpacto. Además, bajo la orden Guardar Guardar Guardar Guardar , vamos a obtener numéricamente los
valores de la función supervivencia; la función tasa de fallo y la función tasa de
fallo acumulada.
Los resultados obtenidos para nuestra variable tiempos de fallos son:
Resumen del procesamiento de los casos
Nº total Nº de eventos Censurado
Nº Porcentaje
72 72 0 0,0%
En la tabla de supervivenciatabla de supervivenciatabla de supervivenciatabla de supervivencia del [ANEXO 3][ANEXO 3][ANEXO 3][ANEXO 3] se muestran:
� Columna Tiempo: Nos muestra el tiempo de seguimiento o tiempo que el
generador eléctrico ha estado operativo antes de que se produzca el fallo.
� Columna Estado: Nos indica si se ha producido el desenlace evaluado, en
nuestro caso, el fallo, que se cumple al final de todos los intervalos de
tiempos evaluados.
� Columna Supervivencia Acumulada: Proporción de casos para los que no ha
tenido lugar el fallo-todavía- en el tiempo dado.
� Columna Estimación error: Error estándar correspondiente a la estimación
de Kaplan-Meier en cada tiempo.
� Columna Nº eventos acumulados: Indica los generadores eléctricos fallados
producidos hasta el tiempo indicado. Si hablamos de un único generador,
podemos pensar en los valores de esta columna como las reparaciones que
ha necesitado en ese tiempo.
� Columna Nº casos que permanecen: Indica el número de sistemas que no
han fallado para ese tiempo.
Gema Manzano Ventura
69
Los gráficos obtenidos son:
• Función de supervivenciaFunción de supervivenciaFunción de supervivenciaFunción de supervivencia
En primer lugar, vemos que
la función de supervivencia tiene la
misma forma que la que obteníamos
a partir de la suposición del modelo
W(θ=22.3214, β=0.868), lo que nos
indica que el análisis paramétrico y
no paramétrico ofrecen, como era
de esperar, los mismos resultados.
Como preveíamos en la
teoría, a partir del estimador de
Kaplan-Meier se obtiene una función de supervivencia que es escalonada, toma el
valor 1 en t=0 y decrece j j
j
n dn
−
en cada fallo.
En ciertas ocasiones, este resultado gráfico-unido al análisis de los valores
que toma esta función empírica- es suficiente o representa la única opción, pues no
hay ajuste con distribuciones hipotéticas, p.e., para estimar las propiedades de
fiabilidad o supervivencia del sistema. Es por ello, que es preciso definir esta
función tanto como sea posible. Para ello, vamos a añadir a la misma, bandas de
confianza simultáneas al 95%. Éstas custodiarán, con una seguridad del 95%, la
verdadera relación entre los tiempos de fallo observacionales y la función de
supervivencia del generador eléctrico.
Un intervalo de confianza al 100(1-α)% de ˆ ( )R t para R(t) está dado por:
1 / 2ˆ ˆ( ) ( )R t z tα σ−±
Donde 1 / 2z α− denota el percentil de la distribución normal estándar al nivel
1-α/2 cuyo valor es 1.96.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Como vemos en
nuestro caso, los intervalos
estándar así construidos
pueden incluir valores fuera
del rango [0,1]. Esto puede
ser evitado aplicando la
distribución normal
asintótica a una
transformación de R(t) para
la cual el rango no está
restringido.
Por ejemplo, la transformación:
log{−log R̂(t)},
permite determinar límites de intervalos de confianza asintóticos al
100(1−α)% dados por: R̂ (t) exp{±z1−α/2 σ̂ (t)/[ R̂ (t) log R̂(t)}.
2.4.1. Regresión lineal a partir de la estimación
Podemos, a partir de los valores de esta función obtener una tercera
estimación de los parámetros que deberá ser comparada con las estimaciones
procedentes a través del método de máxima verosimilitud y regresión lineal.
Para ello vamos a llevar a cabo un análisis de regresión lineal con los puntos
de ajuste: ( )ˆln( ln( ( )), lni iR τ τ− , donde ˆ ( )iR τ son los valores encontrados a través
del estimador Kaplan-Meir y guardados en nuestra base de datos a partir de la
orden GuardarGuardarGuardarGuardar.
Los resultados correspondientes a este análisis de regresión son los
siguientes:
Resumen del modelo
Modelo R R cuadrado R cuadrado
corregida
Error típ. de la
estimación
1 ,993a ,985 ,985 ,14689
a. Variables predictoras: (Constante), lnTiempo
Gema Manzano Ventura
71
Coeficientes a
Modelo Coeficientes no
estandarizados
Coeficientes
tipificados
t Sig. Intervalo de confianza de
95,0% para B
B Error típ. Beta Límite
inferior
Límite
superior
1 (Constante) -2,571 ,035
-
74,380 ,000 -2,640 -2,502
lnTiempo ,837 ,012 ,993 67,542 ,000 ,813 ,862
a. Variable dependiente: lnMenoslnR
Luego:
ˆ 0,837;β = [ ]95% 0.813,0.862β ∈
ˆ 21,578;θ = [ ]95% 19.871,23.432θ =
Que son acordes con los encontrados anteriormente.
• Función de distribucióFunción de distribucióFunción de distribucióFunción de distribuciónnnn
De nuevo, se obtiene el
mismo resultado que el
ofrecido por el análisis
paramétrico, que indicaba a la
función Weibull de parámetros
θ=22,3214 y β=0.868 como
representante de nuestra
distribución. Lo cual indica la
representatividad del ajuste.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
• FunciónFunciónFunciónFunción Tasa de fallo acumulativaTasa de fallo acumulativaTasa de fallo acumulativaTasa de fallo acumulativa
La función llamada en SPSS
impacto se corresponde con la
función tasa de fallo acumulativa,
ˆ ˆ( ) ln ( )H t R t= − . En ella se aprecia, de
manera más notable que en el caso
paramétrico, los valores que toma y a
partir de ellos, se demuestra el
carácter de función convexa con
derivada primera decreciente, lo que
demuestra que la función tasa de fallo es, efectivamente, decreciente.
2.5. Análisis paramétrico & Análisis no paramétrico
2.5.1. Comparación parámetros estimados
AAAAnálisis paramétrico:nálisis paramétrico:nálisis paramétrico:nálisis paramétrico:
Máxima verosimilitud
ˆ 0.855β =
ˆ 22, 412θ =
Regresión lineal-mediante método Q-Q Plot
ˆ 0.868;β = [ ]95% 0.825,0.901β ∈
ˆ 22,331;θ = [ ]95% 20.040,24.858θ ∈
AAAAnálisis no paramétrico:nálisis no paramétrico:nálisis no paramétrico:nálisis no paramétrico:
Regresión lineal- a partir de la estimación de Kaplan-Meier-:
ˆ 0,837;β = [ ]95% 0.813,0.862β ∈
ˆ 21,578;θ = [ ]95% 19.871,23.432θ =
Gema Manzano Ventura
73
2.5.2. Comparación funciones de fiabilidad
• Función de distribuciónFunción de distribuciónFunción de distribuciónFunción de distribución
• Función de fiabilidad o función de supervivenciaFunción de fiabilidad o función de supervivenciaFunción de fiabilidad o función de supervivenciaFunción de fiabilidad o función de supervivencia
• Función Tasa de Fallo acumulativaFunción Tasa de Fallo acumulativaFunción Tasa de Fallo acumulativaFunción Tasa de Fallo acumulativa
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
3. Mantenimiento: Análisis de tiempos de reparación
3.1. Análisis descriptivo de los datos
Procediendo de igual manera que para la variable continua T_operativo:
Estadísticos
T_reparación
N Válidos 72
Perdidos 0
Media ,927363
Mediana ,309375
Moda ,1042
Desv. Típ. 1,8212356
Varianza 3,317
Asimetría 3,619
Error típ. De asimetría ,283
Curtosis 15,211
Error típ. De curtosis ,559
Rango 11,1764
Mínimo ,0042
Máximo 11,1806
Percentiles
25 ,098611
50 ,309375
75 ,738542
El tiempo mínimo que el generador ha estado inoperativo en una
reparación ha sido de 0,0042 días, unos 6,05 minutos. Mientras que el tiempo
máximo registrado empleado en una reparación es de 11,1806 días.
Medidas de centralizaciónMedidas de centralizaciónMedidas de centralizaciónMedidas de centralización
La media de días para las reparaciones registradas durante la inspección es
de 0,9273días, esto es, 22,26 horas.
La mediana nos informa de que el valor del tiempo de reparación,
0,309375 días, o 7,43 horas, implica que la mitad de reparaciones necesitaron
menos de 7,43 horas y la otra mitad de reparaciones necesarias duraron más de
7,43 horas.
Gema Manzano Ventura
75
La moda o valor más repetido como duración de las reparaciones es 0,1042
días, 2,5 horas.
Medidas dMedidas dMedidas dMedidas de dispersióne dispersióne dispersióne dispersión
Los valores de la varianza y la desviación típica, 3,32 y 1,82
respectivamente, son mucho más pequeños que los registrados para la variable
tiempo de fallo. Esto nos indica que los valores de la variable TTR están menos
dispersos respecto a sus valores centrales. Y, por tanto, estos últimos suponen
medidas más representativas de los valores de la población.
Los cuartiles o percentiles P25%=,099días ~2,4 horas, P50%=0,309 días~7,4
horas y P75%=0,74 días ~17,7 horas hacen referencia al valor de la variable tiempo
de reparación tal que las frecuencias absolutas de los valores iguales o menores
que él representan el 25%, el 50% y el 75% de la frecuencia total de la
distribución.
Gráfico de distribución: HistogramaGráfico de distribución: HistogramaGráfico de distribución: HistogramaGráfico de distribución: Histograma y Parámetros de formay Parámetros de formay Parámetros de formay Parámetros de forma
MediMediMediMediddddas de formaas de formaas de formaas de forma
Un valor del parámetro de asimetría de 3,62 (>0) nos indica, de nuevo, que
la distribución presenta una asimetría derecha (moda ≤ mediana ≤ media).
El valor del parámetro de curtosis de 15,21 (>0), señala que la distribución
tratada presenta una forma más puntiaguda que la distribución normal de Gauss.
HistogramHistogramHistogramHistogramaaaa
El histograma indica
una alta frecuencia de
reparaciones que precisan de
un intervalo muy breve de
tiempo. Sin embargo,
aparecen reparaciones-con
mucha menor frecuencia y sin
pautas de ninguna clase- que
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
precisan de tiempos largos de reparación.
CCCCONCLUSIONES DEL ANÁLONCLUSIONES DEL ANÁLONCLUSIONES DEL ANÁLONCLUSIONES DEL ANÁLISIS ISIS ISIS ISIS DESCRIPTIVO PREVIODESCRIPTIVO PREVIODESCRIPTIVO PREVIODESCRIPTIVO PREVIO PARA PARA PARA PARA T_T_T_T_REPARACIÓNREPARACIÓNREPARACIÓNREPARACIÓN
• La tasa tiempos de reparación presenta una forma muy diferente a la
tasa de tiempos de fallo.
• En este caso, aunque también se señala una alta frecuencia al
comienzo, la tasa de reparaciones con una duración dada no se
estabiliza tras un tiempo operativo.
La probabilidad de finalizar una reparación en un tiempo corto es muy alta. En
general, decrece con el tiempo pero puede aumentar para valores concretos de
tiempos de reparación, no siguiendo una pauta fijada.
3.2. Análisis paramétrico
Ya disponemos de ciertas razones para descartar la comparación de
nuestros datos con ciertas distribuciones –como la exponencial o la distribución
normal- vamos a utilizar los gráficos Q-Q para examinar el ajuste con restantes:
• Distribución Log-normal
Gema Manzano Ventura
77
• Distribución Weibull
• Distribución Gamma
A simple vista, parece que el mejor ajuste a los datos de tiempo de
reparación lo ofrece la distribución log-normal. El cálculo de los parámetros de la
distribución a través del método de máxima verosimilitud nos ofrece como
resultados:
Parámetros de distribución estimados
T_reparación
Distribución Lognormal Escala ,284
Forma 1,590
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
OBSERVACIÓN: Sea 1 2, ,..., kτ τ τ , una muestra aleatoria de una variable aleatoria
lognormal. Una variable, digamos rτ , se distribuye con una lognormal de
parámetros a y b, cuando los logaritmos naturales de dichas variables ln( 1τ ), ln( 2τ
), …., ln( kτ ) se describen mediante una distribución normal con media µ y
desviación estándar σ finita. La transformación Y= ln( iτ ) produciría una variable
aleatoria normal con una media de ln(a)=µ y una desviación estándar de b=σ.
Para la evaluación de las medidas de fiabilidad se requiere la estimación de
los parámetros µ y σ de la distribución log-normal bajo el ln(τ ). Por tanto, y, en
base al resultado de a y b por el método de máxima verosimilitud:
ln( ) ln(0,284) 1,25878
1,590
aµσ
= = = −=
La mayoría de software estadísticos –especializados en análisis de
supervivencia y fiabilidad - ofrecen directamente esta última estimación como
parámetros de la distribución log-normal15. Sin embargo, no es el caso de SPSS, que
estima a y b 16.
Así pues, si demostramos un ajuste válido –al menos 0.95 para el coeficiente
de correlación en la regresión lineal- la función de densidad de la distribución que
representaría nuestros datos, tendría la forma:
2
2
(ln )
2
2
1( )
2
t
f t et
µσ
πσ
−−=
Donde µ y σ se corresponden con la media y la desviación típica del
logaritmo de los tiempos de reparación.
3.2.1. Regresión lineal
Si t es una variable aleatoria log-normal, su función de supervivencia, en
este caso función de no reparabilidad, puede escribirse como:
15
Es el caso, p.e., de MiniTab o S Statgraphics. 16
Estas expresiones, son, por tanto, estimadores estimadores insesgados en la distribución normal de los logaritmos; sin embargo, obviamente, sus antilogaritmos no serán estimadores insesgados de la variable original.
Gema Manzano Ventura
79
ln( )
tR t
µφσ
− + =
Donde φ es la función de distribución estándar.
Por tanto, la linealización de la función de no reparabilidad-supervivencia-
de la distribución log-normal vendría dada como:
1 1 1 ln( ( )) (1 ( )) (1 ( ))i
tR t F t F p
µφ φ φσ
− − − − += − = − =
Donde φ-1 se corresponde con los cuantiles de la distribución normal
estándar17.
Por tanto, podría comprobarse que los datos observacionales siguen una
distribución log-normal, si los puntos: 1 0.51 , ln , 1,2...,72r
ii
nφ τ− − − − =
están
alineados.
Podemos estimar, además, los parámetros µ y σ a través del la pendiente de
la recta, 1
σ y la ordenada en el origen,
µσ
.
Debido a la relación ln
( )t
R tµφ
σ− + =
es posible hallar las distintas
medidas de fiabilidad a través de la estimación de los parámetros µ y σ.
Haciendo el análisis de regresión lineal en SPSS, obtenemos:
Resumen del modelo
Modelo R R cuadrado R cuadrado
corregida
Error típ. De la
estimación
1 ,996a ,992 ,992 ,088988564
a. Variables predictoras: (Constante), menosLnt
17
Pueden calcularse fácilmente en Excel bajo la función DISTR.NORMAL.ESTAND.INV
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Tenemos un valor muy elevado de la correlación lo que indica que los datos
observaciones de los tiempos de reparación se ajustan – con un 99.6% de
confianza- a una distribución log-normal.
3.2.1.1. Estimación de los parámetros:Regresión lineal & Máxima verosimilitud
Coeficientes a
Modelo Coeficientes no
estandarizados
Coeficientes
tipificados
t Sig. Intervalo de confianza de
95,0% para B
B Error típ. Beta Límite
inferior
Límite
superior
1 (Constante) -,788 ,013
-
58,740 ,000 -,815 -,761
menosLnt ,625 ,007 ,996 94,161 ,000 ,612 ,639
a. Variable dependiente: InversNormal
De los coeficientes obtenidos podemos hallar la estimación de los
parámetros de escala y forma de la distribución log-normal, tal y como hemos
indicado:
Pendiente: 1
ˆ0.625 1,6;ˆ
σσ
= − ⇒ =
[ ]95% 1.565,1.635σ ∈
Constante:ˆ
ˆ0,788 0,788*1,6 1,2608;ˆµ µσ
= − ⇒ = − = −
[ ]95%ˆ 1.218, 1.304µ ∈ − −
Que se corresponden con los procedentes del método de máxima
verosimilitud, sin más que tener en cuenta la observación realizada.
3.2.1.2. Inferencia y estimación a partir del modelo: Bandas de confianza
A continuación se presenta la recta de ajuste junto a las bandas simultáneas
de confianza del 95%- es muy importantes tenerlas en cuenta tanto para la
realización de estimaciones como de predicciones-:
Gema Manzano Ventura
81
El intervalo de confianza para valores medios (CI) , representada por la
banda más estrecha (la más cercana a la curva de ajuste), especifica entre qué
valores se estima que está el promedio de los posibles valores de y para un Xi
determinado.
El intervalo de confianza para valores individuales (PI), representado por la
banda más ancha, especifica entre qué valores se estima que se encuentre una
única observación individual y para un Xi determinado.
3.3. Propiedades de reparación del sistema
Queda demostrado, por tanto, que podemos representar nuestros datos
observacionales de los tiempos de reparación a través de una distribución log-
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
normal de parámetros µ=1,2608 y σ=1,6. A partir de esta idea, podemos
caracterizar fácilmente la reparabilidad del sistema bajo las medidas precisas.
A. Función de mantenibilidadFunción de mantenibilidadFunción de mantenibilidadFunción de mantenibilidad
La forma específica de la función de mantenibilidad viene dada como:
M(t)=1-ln( ) ln( ) 1,2608
11,6
t tµφ φσ
− + − − = −
,con φ distribución normal estándar.
La mayoría de reparaciones surgidas se
solucionan en cortos intervalos de tiempo,
esa es la razón por la que la probabilidad de
que el sistema esté reparado crece
rápidamente desde tiempos muy pequeños.
Lo cual es buena señal, pues indica que las
reparaciones del sistema son rápidas-
recordemos que el cuartil 0.75 nos indicaba
que a las 17 horas están solucionadas el
75% de las averías surgidas-.
La probabilidad de que el generador sea reparado en un intervalo cualquiera t1-t2
(t2>t1) es M(t2)-M(t1).
B. Función de no reparabilidadB. Función de no reparabilidadB. Función de no reparabilidadB. Función de no reparabilidad
Su forma matemática es: Rr(t)=
ln( ) ln( ) 1,2608
1,6
t tµφ φσ
− + − − =
El valor de esta curva en cada punto
representa –en tanto por uno- la
probabilidad de que no se haya
completado la reparación del sistema
para un tiempo t (medido en días).
Ofrece, como ya sabemos, la misma
información –pero en términos
Gema Manzano Ventura
83
negativos - que la función de distribución o mantenibilidad.
C.C.C.C. Función de densidad de probabilidad de reparaciónFunción de densidad de probabilidad de reparaciónFunción de densidad de probabilidad de reparaciónFunción de densidad de probabilidad de reparación
2
2
(ln )
21,26082
1,6
1( ) . .log ( 1.2608,1.6)
2
t
f t e f d normalt
µσ
µσπσ
−−
=−=
= → − −
Como preveíamos, es una función que
tiende a cero cuando t → ∞ .
Si tomamos un punto fijo de t, por
ejemplo t=1 día, el área limitada por la
curva, el eje de abscisas y la región a la
izquierda de la recta t=1 representa la
probabilidad de que el sistema esté
reparado en 1 día.
A mayor tiempo, mayor área y, por
tanto, mayor probabilidad de completar la reparación. Es por ello que en la
primera zona, la curva toma la mayor parte de su superficie.
DDDD. Función Tasa de reparación o Función de Tendencia de Reparabilidad. Función Tasa de reparación o Función de Tendencia de Reparabilidad. Función Tasa de reparación o Función de Tendencia de Reparabilidad. Función Tasa de reparación o Función de Tendencia de Reparabilidad
Su forma implícita viene dada por:
h(t)=1,2608
1,6
( ) . . .log ( 1.2608,1.6)
ln 1,2608( )1,6
r
f t f d p normal
tR t µσ φ
=−=
− −→− −
La evolución de esta curva determina la
tendencia a completar la reparación del
generador eléctrico durante un año.
Se señala una acentuada zona, para
tiempos pequeños, en la que existe una
enorme probabilidad-creciente- de que
el sistema haya sido reparado.
A partir un corto periodo de tiempo, que
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
el generador complete su reparación con el paso de los días es cada vez más
improbable. La probabilidad de una avería sea reparada a los 4 días es muy escasa,
aún menos probabilidad a los 6 o los 8 días, resultando imposible que una avería
no se haya reparado para el tiempo de 12 días.
E. Función de Tasa de Reparación acumuladaE. Función de Tasa de Reparación acumuladaE. Función de Tasa de Reparación acumuladaE. Función de Tasa de Reparación acumulada
Se define como: H(t)=0
( )t
h t dt∫ o bien H(t)=-ln R(t)
Presenta una clara forma convexa con derivada decreciente, lo que indica,
que, efectivamente, y como ya hemos visto, la función tasa de fallo decrece con el
tiempo desde un tiempo t inferior a la unidad-día-.
F. F. F. F. Tiempo medio de reparación Tiempo medio de reparación Tiempo medio de reparación Tiempo medio de reparación
Ya sabemos que la distribución log-normal tiene dos parámetros en el
ln( rτ ) que son µ y σ. Sin embargo, la estimación de los parámetros de la variable
original rτ no es sencilla, debido a que los parámetros siempre presentan sesgos.
Sin entrar en profundidad sobre el asunto [véase G.Mateu-Figueras,V.Pawlowsky,
2003] daremos la estimación más común para la esperanza y la esperanza
matemática de una variable rτ que se distribuye bajo una ley log-normal de
parámetros µ y σ. (Aitchinson & Brown, 1957):
Gema Manzano Ventura
85
( ) ( ) ( )
( ) ( ) ( ) ( )
2
22
2
1.26081.6
22 2 21.2608
1.6
1,01938
· 1 12,167133
r r
r r
E e E días
s e e s días
σµ
µσ
σµ σµσ
τ τ
τ τ
+
=−=
+
=−=
= → =
= − → =
3.4. Análisis no paramétrico
Procedemos de igual manera que para el estudio de los tiempos de fallo.
La tabla de supervivencia para la variable tiempos de reparación se expone en el [ANEXO 4ANEXO 4ANEXO 4ANEXO 4].
Los resultados gráficos obtenidos son:
• Función de no reparabilidadFunción de no reparabilidadFunción de no reparabilidadFunción de no reparabilidad
La función de supervivencia indica la probabilidad en cada tiempo t de que
el sistema no esté aún reparado. Como ya sabíamos, esta probabilidad decrece
rápidamente para valores de tiempos muy pequeños.
El resultado gráfico de la función
de no reparabilidad es el mismo
que al considerar que se trata de
una distribución log-normal de
parámetros µ=1.2608 y σ=1.6.
Lo cual nos da una idea de lo
significativo del ajuste
conseguido a través del método
paramétrico.
A continuación se muestra las bandas de confianza al 95% para la función
de no reparabilidad: 1 / 2ˆ ˆ( ) ( )R t z tα σ−±
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Tal y como hemos hecho para la variable T_operativo, es posible medir, de
nuevo, el ajuste de la variable T-reparación a una log-normal a través de los
resultados de la regresión lineal de los puntos: ( )( )1( ) ( )
ˆ ( ) ; lnr i r iRφ τ τ−
donde ˆ ( )i rR τ
son los valores encontrados a través del estimador Kaplan-Meir.
Obtenemos:
Resumen del modelo
Modelo R R cuadrado R cuadrado
corregida
Error típ. de la
estimación
1 ,995a ,990 ,990 ,09565
a. Variables predictoras: (Constante), menosLnt
Coeficientes a
Modelo Coeficientes no
estandarizados
Coeficientes
tipificados
t Sig. Intervalo de confianza de
95,0% para B
B Error típ. Beta Límite
inferior
Límite
superior
1 (Constante) -,813 ,015
-
54,340 ,000 -,843 -,783
menosLnt ,617 ,007 ,995 83,077 ,000 ,602 ,632
a. Variable dependiente: InvNormR
Luego, los valores estimados de los parámetros son:
Gema Manzano Ventura
87
1ˆ0,617 1.621
ˆσ
σ= − ⇒ =
[ ]95% 1.582,1.661σ ∈
ˆˆ0,813 0,813*1,621 1,318
ˆµ µσ
= − ⇒ = − = −
[ ]95%ˆ 1.269, 1.366µ ∈ − −
• Función de MantenibilidadFunción de MantenibilidadFunción de MantenibilidadFunción de Mantenibilidad
Tiene más sentido, para la variable tiempos de reparación, hablar de la
función de mantenibilidad M(t), que informa de la probabilidad de que el sistema
sí esté disponible-esté reparado-para un tiempo t.
Presenta una clara analogía con
de la función de distribución
obtenida considerando que
nuestros tiempos de reparación
siguen una distribución log-
normal de parámetros los
estimados.
• Función Tasa de reparación acumulativa o Función de impactoFunción Tasa de reparación acumulativa o Función de impactoFunción Tasa de reparación acumulativa o Función de impactoFunción Tasa de reparación acumulativa o Función de impacto
Por último, la función de impacto o función tasa de reparación acumulativa
presenta la forma:
De nuevo, coherente a la
obtenida a partir del supuesto
de la distribución log-normal en
el método paramétrico.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
3.5 Análisis paramétrico & Análisis no paramétrico
3.5.1. Comparación de parámetros estimados
Análisis paramétrico:Análisis paramétrico:Análisis paramétrico:Análisis paramétrico:
Máxima verosimilitud
ˆ 1, 25878
ˆ 1,590
µσ
= −=
Regresión lineal-mediante método Q-Q Plot
ˆ 1,2608;µ = − [ ]95%ˆ 1.218, 1.304µ ∈ − −
ˆ 1,6;σ =
[ ]95% 1.565,1.635σ ∈
AAAAnálisis no paramétriconálisis no paramétriconálisis no paramétriconálisis no paramétrico::::
Regresión lineal- a partir de la estimación de Kaplan-Meier-:
ˆ 1,318;µ = [ ]95%ˆ 1.269, 1.366µ ∈ − −
ˆ 1,621;σ =
[ ]95% 1.582,1.661σ ∈
3.5.2. Comparaciones de funciones de mantenibilidad
• Función MantenibilidadFunción MantenibilidadFunción MantenibilidadFunción Mantenibilidad
Gema Manzano Ventura
89
• Función de no reparabilidadFunción de no reparabilidadFunción de no reparabilidadFunción de no reparabilidad
• Función de tasa de reparación acumuladaFunción de tasa de reparación acumuladaFunción de tasa de reparación acumuladaFunción de tasa de reparación acumulada
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Apéndice del Capítulo 2:
Simulación
Gema Manzano Ventura
91
A.1. Introducción
Por último, aplicaremos una técnica ampliamente conocida en ingeniería y
supervivencia para comprobar que los ajustes obtenidos –tanto para las variables
tiempo de fallo como tiempo de reparación- tienen realmente validez, a efectos
prácticos. Es una idea fácil de aplicar y completa el trabajo realizado.
El objetivo es el siguiente: una vez encontrada la distribución de
probabilidad específica-con los parámetros estimados- podemos generar valores
de la variable aleatoria, en nuestro caso, valores de tiempos, que siguen esa
distribución. Así, lo que estaremos simulando son los posibles tiempos de fallo o
los tiempos de reparación para nuestro generador eléctrico. Estos valores serán,
de nuevo, representados usando Plotting Points y se comprobará si el ajuste
estimado es bueno a partir de la alineación de los puntos representados. Es una
confirmación empírica.
A.2. Distribución Weibull
A.2.1.Generación de una v.a. que sigue una distribución Weibull
Al simular valores de una variable aleatoria que sigue una distribución
Weibull con los parámetros estimados (θ=22.32142 y β=0.868) estamos
simulando valores de tiempos de fallo de nuestro generador. El método de hacerlo
contiene los siguientes pasos:
1. La función de distribución de una Weibull es: ( , ) ( ) 1t
W F t e
β
θθ β − = = −
siendo θ y β el parámetro de escala y forma respectivamente.
2. Así: ( ) 1t
F t e
β
θ − = − =R, donde R es una variable aleatoria uniforme en
(0,1).
3. Luego, resolviendo t en términos de R, se obtiene:
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
( )
( )
1/
1/
1 1 (1 ) (1 )
(1 )
t tt t
e R R e Ln R Ln R
t Ln R
β β ββθ θ
β
θ θ
θ
− − − = ⇒ − = ⇒ − = − ⇒ − − = ⇒
⇒ = − −
Dado que: 1-R es también uniforme en (0,1), se puede tomar:
( )1/( )t Ln R
βθ= − que será la expresión que usaremos en la simulación.
En SPSS, lo haremos a partir de la orden:
Transformar > CTransformar > CTransformar > CTransformar > Calcular alcular alcular alcular variable > variable > variable > variable > ( )1/( . (0,1))Ln RvUniform
βθ −
A.2A.2A.2A.2.2. Comprobación ajuste Weibull.2. Comprobación ajuste Weibull.2. Comprobación ajuste Weibull.2. Comprobación ajuste Weibull para tiempos de fallospara tiempos de fallospara tiempos de fallospara tiempos de fallos
Vamos a calcular muestras de tamaño 10, 20 y 40 valores numéricos de la
variable tiempo de fallo, que seguirán nuestra distribución
( , ) (22.32142,0.868)W Wθ β = . Representaremos cinco gráficos Q-Q Plot para cada
una de estas muestras y estudiaremos si se aproximan a rectas.
Gema Manzano Ventura
93
n=10n=10n=10n=10
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
n=20n=20n=20n=20
Gema Manzano Ventura
95
n=40n=40n=40n=40
Vemos que, cuanto mayor es el tamaño de la muestra simulada, mejor es el
ajuste a la recta.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
A.3. Distribución log-normal
A.3.1.Generación de una v.a. que sigue una distribución log-normal
Siguiendo la misma idea que para la v.a. de una Weibull, encontraremos el
método de general los tiempos de reparación que siguen una log-normal de
parámetros µ=-1,2608 y σ=1,6 como:
1. Generamos Z~N(0,1)
2. Devolvemos Xlog-normal~eµ+σZ
En SPSS: Transformar >Calcular Variable > ( )exp . (0,1)·Rv normalµ σ+
Gema Manzano Ventura
97
n=10n=10n=10n=10
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
n=20n=20n=20n=20
Gema Manzano Ventura
99
n=40n=40n=40n=40
De nuevo, los datos se alinean mejor cuando mayor es el tamaño de la muestra.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
Conclusiones finales:
1. El análisis de fiabilidad es un conjunto de métodos estadísticos
que permite hacer estimaciones e inferencias útiles relativas a la ocurrencia
de fallos y tareas de mantenimiento en un sistema a partir del registro de
una serie de tiempos en que se produjeron dichos sucesos. Estos métodos
deben ser integrados en todas las fases del ciclo de vida de los sistemas: diseño,
fabricación, vida operativa y retirada.
2. El paquete estadístico SPSS permite realizar completos análisis de
fiabilidad. En este estudio sólo se ha hecho uso de algunas de las muchas
posibilidades que nos ofrece este software. Entre ellas, se encuentra la de trabajar
con observaciones censuradas –a las que permite definir en la pestaña PerdidosPerdidosPerdidosPerdidos en
la ventana Vista de variablesVista de variablesVista de variablesVista de variables para el análisis paramétrico y como un valor distinto
al terminal, 1 generalmente, en la pestaña EstadoEstadoEstadoEstado del análisis de supervivencia no
paramétrico-. Además, SPSS ofrece la posibilidad de comparar dos curvas de
supervivencia bajo el método loglogloglog----rankrankrankrank.
3. La distribución Weibull se presenta como una fuerte candidata a
representar funciones de densidad de probabilidad de fallos. La enorme
flexibilidad de la distribución –obtenida a través del valor de sus parámetros-, da
lugar a modelaciones de la función tasa de fallo cuando ésta es creciente,
decreciente o constante lo que permite obtener buenos ajustes con series de
tiempos muy distintas.
4. La experiencia indica que la distribución log-normal supone una
óptima elección como representante de m(t). Esto es debido a que la mayoría
del personal encargado de las reparaciones de un sistema estará familiarizado con
las averías frecuentes y completarán las reparaciones en intervalos breves de
tiempos. Sin embargo, espontáneamente podrían aparecer averías complejas o
personal sin experiencia, que darían lugar a tareas de reparación con períodos más
Gema Manzano Ventura
101
grandes de reparación. Lo que quedaría representado por la forma de la
distribución normal, asimétrica y con acentuada cola derecha.
5. La simulación es una herramienta extraordinariamente útil en el
análisis de fiabilidad. Sus cometidos van desde la obtención del modelo o su
validación, hasta el cálculo de estimaciones y predicciones de las características de
fiabilidad del sistema. La rapidez, el ahorro de costes y la seguridad que ofrece
hacen de ella un mecanismo imprescindible en cualquier análisis de fiabilidad.
6. La idea de estimar y especificar un modelo que permita
representar la probabilidad de ocurrencia de un suceso en el tiempo, tiene
aplicación directa en muchas otras disciplinas. En medicina, por ejemplo, se
usan exactamente las mismas técnicas estadísticas para evaluar las funciones aquí
descritas: función de supervivencia, función de riesgo, vida esperada, etc, a partir
una serie de tiempos de fallo, entendidos, esta vez, como tiempo de vida de
pacientes desde una operación o el inicio de un tratamiento o enfermedad-.
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
ANEXO 1. Datos reales del generador: Tiempos de fallo y
reparación
T_operativo T_reparación
21,05556 0,05556
0,72917 1,19792
38,61736 0,22986
0,37500 0,73958
8,88194 0,14306
1,28542 0,64583
8,88056 0,10069
15,39583 2,01042
0,66667 0,01736
5,90972 0,31181
19,90694 0,10417
3,06319 0,71458
23,26389 0,63542
0,62708 0,47708
143,59583 0,37639
9,12847 0,79514
0,77083 5,44792
7,07917 0,76458
10,12500 0,10417
2,61458 1,36458
69,43194 2,39097
60,31944 0,64931
36,17292 0,73542
4,13333 0,16667
26,12778 1,84028
20,83403 0,16667
27,57361 0,41597
12,64583 0,46528
4,33889 0,30694
23,86528 0,16250
0,31667 0,72778
7,47500 3,74444
26,28611 1,43125
34,80625 0,25486
37,97986 11,18056
50,67847 0,02639
24,77986 0,10903
44,21111 0,81806
10,90208 0,04236
7,11736 0,06736
2,42083 1,48125
52,81667 0,45764
40,91667 0,03958
Gema Manzano Ventura
103
7,44653 0,25694
5,93889 0,15139
4,93472 0,06944
9,51528 0,73542
19,75903 0,08681
26,08333 6,07292
58,67361 0,10417
11,14583 0,04167
17,22917 5,46736
10,92847 0,05208
95,05833 0,09792
9,80486 0,07708
28,02639 0,06042
1,83681 0,36111
39,94722 0,04653
31,77083 0,03264
66,38819 0,53056
169,03403 0,03542
22,85556 0,33333
3,52778 0,26944
9,89931 0,31597
5,64583 0,16806
0,55625 0,38125
9,86597 1,19931
20,12708 0,12986
2,14028 5,61597
52,14167 0,01319
19,65278 0,00417
56,10972 0,14306
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
ANEXO 2. Estructura de datos en el Análisis de Supervivencia Caso T_oper Estado
1 ,3167 0
2 ,3750 0
3 ,5563 0
4 ,6271 0
5 ,6667 0
6 ,7292 0
7 ,7708 0
8 1,2854 0
9 1,8368 0
10 2,1403 0
11 2,4208 0
12 2,6146 0
13 3,0632 0
14 3,5278 0
15 4,1333 0
16 4,3389 0
17 4,9347 0
18 5,6458 0
19 5,9097 0
20 5,9389 0
21 7,0792 0
22 7,1174 0
23 7,4465 0
24 7,4750 0
25 8,8806 0
26 8,8819 0
27 9,1285 0
………..
Gema Manzano Ventura
105
ANEXO 3. Tabla de supervivencia T_operativo
Tabla de supervivencia
Tiempo Estado Proporción acumulada que sobrevive
hasta el momento
Nº de eventos
acumulados
Nº de casos que
permanecen
Estimación Error típico
1 ,317 0 ,986 ,014 1 71
2 ,375 0 ,972 ,019 2 70
3 ,556 0 ,958 ,024 3 69
4 ,627 0 ,944 ,027 4 68
5 ,667 0 ,931 ,030 5 67
6 ,729 0 ,917 ,033 6 66
7 ,771 0 ,903 ,035 7 65
8 1,285 0 ,889 ,037 8 64
9 1,837 0 ,875 ,039 9 63
10 2,140 0 ,861 ,041 10 62
11 2,421 0 ,847 ,042 11 61
12 2,615 0 ,833 ,044 12 60
13 3,063 0 ,819 ,045 13 59
14 3,528 0 ,806 ,047 14 58
15 4,133 0 ,792 ,048 15 57
16 4,339 0 ,778 ,049 16 56
17 4,935 0 ,764 ,050 17 55
18 5,646 0 ,750 ,051 18 54
19 5,910 0 ,736 ,052 19 53
20 5,939 0 ,722 ,053 20 52
21 7,079 0 ,708 ,054 21 51
22 7,117 0 ,694 ,054 22 50
23 7,447 0 ,681 ,055 23 49
24 7,475 0 ,667 ,056 24 48
25 8,881 0 ,653 ,056 25 47
26 8,882 0 ,639 ,057 26 46
27 9,128 0 ,625 ,057 27 45
28 9,515 0 ,611 ,057 28 44
29 9,805 0 ,597 ,058 29 43
30 9,866 0 ,583 ,058 30 42
31 9,899 0 ,569 ,058 31 41
32 10,125 0 ,556 ,059 32 40
33 10,902 0 ,542 ,059 33 39
34 10,928 0 ,528 ,059 34 38
35 11,146 0 ,514 ,059 35 37
36 12,646 0 ,500 ,059 36 36
37 15,396 0 ,486 ,059 37 35
38 17,229 0 ,472 ,059 38 34
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
39 19,653 0 ,458 ,059 39 33
40 19,759 0 ,444 ,059 40 32
41 19,907 0 ,431 ,058 41 31
42 20,127 0 ,417 ,058 42 30
43 20,834 0 ,403 ,058 43 29
44 21,056 0 ,389 ,057 44 28
45 22,856 0 ,375 ,057 45 27
46 23,264 0 ,361 ,057 46 26
47 23,865 0 ,347 ,056 47 25
48 24,780 0 ,333 ,056 48 24
49 26,083 0 ,319 ,055 49 23
50 26,128 0 ,306 ,054 50 22
51 26,286 0 ,292 ,054 51 21
52 27,574 0 ,278 ,053 52 20
53 28,026 0 ,264 ,052 53 19
54 31,771 0 ,250 ,051 54 18
55 34,806 0 ,236 ,050 55 17
56 36,173 0 ,222 ,049 56 16
57 37,980 0 ,208 ,048 57 15
58 38,617 0 ,194 ,047 58 14
59 39,947 0 ,181 ,045 59 13
60 40,917 0 ,167 ,044 60 12
61 44,211 0 ,153 ,042 61 11
62 50,678 0 ,139 ,041 62 10
63 52,142 0 ,125 ,039 63 9
64 52,817 0 ,111 ,037 64 8
65 56,110 0 ,097 ,035 65 7
66 58,674 0 ,083 ,033 66 6
67 60,319 0 ,069 ,030 67 5
68 66,388 0 ,056 ,027 68 4
69 69,432 0 ,042 ,024 69 3
70 95,058 0 ,028 ,019 70 2
71 143,596 0 ,014 ,014 71 1
72 169,034 0 ,000 ,000 72 0
Gema Manzano Ventura
107
ANEXO 4. Tabla de supervivencia T_reparación
Tabla de supervivencia
Tiempo Estado Proporción acumulada que
sobrevive hasta el momento
Nº de eventos
acumulados
Nº de casos
que
permanecen Estimación Error típico
1 ,004 0 ,986 ,014 1 71
2 ,013 0 ,972 ,019 2 70
3 ,017 0 ,958 ,024 3 69
4 ,026 0 ,944 ,027 4 68
5 ,033 0 ,931 ,030 5 67
6 ,035 0 ,917 ,033 6 66
7 ,040 0 ,903 ,035 7 65
8 ,042 0 ,889 ,037 8 64
9 ,042 0 ,875 ,039 9 63
10 ,047 0 ,861 ,041 10 62
11 ,052 0 ,847 ,042 11 61
12 ,056 0 ,833 ,044 12 60
13 ,060 0 ,819 ,045 13 59
14 ,067 0 ,806 ,047 14 58
15 ,069 0 ,792 ,048 15 57
16 ,077 0 ,778 ,049 16 56
17 ,087 0 ,764 ,050 17 55
18 ,098 0 ,750 ,051 18 54
19 ,101 0 ,736 ,052 19 53
20 ,104 0 . . 20 52
21 ,104 0 . . 21 51
22 ,104 0 ,694 ,054 22 50
23 ,109 0 ,681 ,055 23 49
24 ,130 0 ,667 ,056 24 48
25 ,143 0 . . 25 47
26 ,143 0 ,639 ,057 26 46
27 ,151 0 ,625 ,057 27 45
28 ,163 0 ,611 ,057 28 44
29 ,167 0 . . 29 43
30 ,167 0 ,583 ,058 30 42
31 ,168 0 ,569 ,058 31 41
32 ,230 0 ,556 ,059 32 40
33 ,255 0 ,542 ,059 33 39
34 ,257 0 ,528 ,059 34 38
35 ,269 0 ,514 ,059 35 37
36 ,307 0 ,500 ,059 36 36
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
37 ,312 0 ,486 ,059 37 35
38 ,316 0 ,472 ,059 38 34
39 ,333 0 ,458 ,059 39 33
40 ,361 0 ,444 ,059 40 32
41 ,376 0 ,431 ,058 41 31
42 ,381 0 ,417 ,058 42 30
43 ,416 0 ,403 ,058 43 29
44 ,458 0 ,389 ,057 44 28
45 ,465 0 ,375 ,057 45 27
46 ,477 0 ,361 ,057 46 26
47 ,531 0 ,347 ,056 47 25
48 ,635 0 ,333 ,056 48 24
49 ,646 0 ,319 ,055 49 23
50 ,649 0 ,306 ,054 50 22
51 ,715 0 ,292 ,054 51 21
52 ,728 0 ,278 ,053 52 20
53 ,735 0 . . 53 19
54 ,735 0 ,250 ,051 54 18
55 ,740 0 ,236 ,050 55 17
56 ,765 0 ,222 ,049 56 16
57 ,795 0 ,208 ,048 57 15
58 ,818 0 ,194 ,047 58 14
59 1,198 0 ,181 ,045 59 13
60 1,199 0 ,167 ,044 60 12
61 1,365 0 ,153 ,042 61 11
62 1,431 0 ,139 ,041 62 10
63 1,481 0 ,125 ,039 63 9
64 1,840 0 ,111 ,037 64 8
65 2,010 0 ,097 ,035 65 7
66 2,391 0 ,083 ,033 66 6
67 3,744 0 ,069 ,030 67 5
68 5,448 0 ,056 ,027 68 4
69 5,467 0 ,042 ,024 69 3
70 5,616 0 ,028 ,019 70 2
71 6,073 0 ,014 ,014 71 1
72 11,181 0 ,000 ,000 72 0
Gema Manzano Ventura
109
ANEXO 5. Datos simulados v.a. Weibull
( , ) (22.32142,0.868)W Wθ β =
n=10n=10n=10n=10
T_simu1 T_simu2 T_simu3 T_simu4 T_simu5
53,10308 37,80406 11,94015 24,83222 6,02130
74,05752 4,66514 ,21166 9,50898 88,01968
40,33387 70,22201 25,51638 8,77138 42,38402
58,47673 13,35824 12,97776 5,25267 28,69398
7,58305 8,05276 14,26325 37,94578 7,81567
7,03874 ,98043 29,28731 47,98320 4,99882
2,37387 26,29989 23,81520 17,45297 3,88506
23,51649 13,55763 1,25486 22,23879 6,71674
14,80800 4,87066 19,67194 15,36241 80,30822
6,74424 51,40996 59,62048 58,56200 20,54997
n=20n=20n=20n=20
T_simu1 T_simu2 T_simu3 T_simu4 T_simu5
48,71107 58,18271 37,80406 24,83222 34,9476
18,28308 5,81428 4,66514 9,50898 6,0045
9,82994 35,33357 70,22201 8,77138 2,0344
28,47363 35,82208 13,35824 5,25267 41,2060
45,61613 9,90891 8,05276 37,94578 29,5062
6,82182 ,66103 ,98043 47,98320 6,9468
23,88305 33,97862 26,29989 17,45297 1,6182
17,46648 24,47366 13,55763 22,23879 52,3900
77,57901 77,35155 4,87066 15,36241 14,2623
57,42826 5,64768 51,40996 58,56200 53,7183
48,40417 53,10308 11,94015 6,02130 1,1857
83,65548 74,05752 ,21166 88,01968 13,8099
9,47440 40,33387 25,51638 42,38402 30,3099
46,00734 58,47673 12,97776 28,69398 8,6476
6,33574 7,58305 14,26325 7,81567 8,6775
1,11863 7,03874 29,28731 4,99882 2,6871
11,16177 2,37387 23,81520 3,88506 71,0244
31,27083 23,51649 1,25486 6,71674 19,7558
6,04580 14,80800 19,67194 80,30822 11,6318
88,15190 6,74424 59,62048 20,54997 2,9070
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
n=40n=40n=40n=40
T_simu1 T_simu2 T_simu3 T_simu4 T_simu5
48,71107 37,80406 34,94761 8,09877 44,95155
18,28308 4,66514 6,00448 5,52479 19,44309
9,82994 70,22201 2,03442 28,72847 ,41955
28,47363 13,35824 41,20596 22,14181 6,18157
45,61613 8,05276 29,50625 8,25673 22,82979
6,82182 ,98043 6,94678 86,49943 10,25980
23,88305 26,29989 1,61822 3,65021 7,95821
17,46648 13,55763 52,38997 11,93976 25,26100
77,57901 4,87066 14,26234 10,20428 17,69602
57,42826 51,40996 53,71827 5,14103 13,32771
48,40417 11,94015 1,18574 56,18323 96,39541
83,65548 ,21166 13,80988 21,81213 14,41112
9,47440 25,51638 30,30986 5,36173 86,81324
46,00734 12,97776 8,64755 ,75822 94,09996
6,33574 14,26325 8,67752 17,51604 83,90998
1,11863 29,28731 2,68715 6,38313 1,79956
11,16177 23,81520 71,02440 11,20010 8,28027
31,27083 1,25486 19,75575 80,69203 146,17296
6,04580 19,67194 11,63177 13,40352 70,47394
88,15190 59,62048 2,90702 23,23996 86,22497
58,18271 24,83222 40,78406 15,88043 163,47431
5,81428 9,50898 33,33360 ,30740 36,11967
35,33357 8,77138 40,44085 7,48925 39,69503
35,82208 5,25267 ,09263 6,80243 ,70809
9,90891 37,94578 30,19538 100,33563 7,62841
Gema Manzano Ventura
111
,66103 47,98320 7,91788 122,76834 12,03518
33,97862 17,45297 7,79713 4,44146 11,39837
24,47366 22,23879 10,24716 1,93155 58,85258
77,35155 15,36241 1,08431 13,11933 36,67166
5,64768 58,56200 3,07258 38,93706 1,09428
53,10308 6,02130 ,77767 7,47714 3,34874
74,05752 88,01968 12,84036 17,75355 3,29082
40,33387 42,38402 2,25084 19,52379 9,74211
58,47673 28,69398 6,57723 14,67927 24,40120
7,58305 7,81567 21,17893 30,60735 ,99160
7,03874 4,99882 15,42099 72,21727 34,17603
2,37387 3,88506 117,39505 11,91961 3,28307
23,51649 6,71674 40,04740 5,04751 30,73099
14,80800 80,30822 11,01141 73,37262 59,54715
6,74424 20,54997 ,30473 6,27161 48,91352
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
ANEXO 6. Datos simulados v.a. Log-normal
Log-normal (µ,σ)= Log-normal(-1.2608 ,1.6)
n=10n=10n=10n=10
T_simu1 T_simu T_simu3 T_simu4 T_simu5
,06606 ,16441 ,28995 ,28187 ,26857
,26704 ,04427 ,06930 1,53984 ,53733
,18238 2,78099 3,20896 ,03091 ,29565
,15921 ,07022 ,18508 ,18093 ,54321
,01455 ,13852 ,27682 ,08141 ,34738
,01677 ,01629 2,51159 ,17134 ,17041
,17060 ,02474 ,20124 ,04580 1,06350
3,87064 1,43347 ,17025 1,77730 ,31503
,21028 ,91874 ,86234 2,47611 ,31173
,17068 ,72143 ,05901 ,04010 ,46375
n=20
T_simu1 T_simu T_simu3 T_simu4 T_simu5
,06606 ,28995 ,26857 1,54547 ,14608
,26704 ,06930 ,53733 1,33673 ,07509
,18238 3,20896 ,29565 ,04765 ,07098
,15921 ,18508 ,54321 4,74448 ,01075
,01455 ,27682 ,34738 ,61120 ,13231
,01677 2,51159 ,17041 ,09790 ,01227
,17060 ,20124 1,06350 ,23744 ,01803
3,87064 ,17025 ,31503 1,75044 ,51572
,21028 ,86234 ,31173 1,48887 ,88164
,17068 ,05901 ,46375 ,00945 ,11503
,16441 ,28187 ,04203 4,37087 ,52233
,04427 1,53984 ,00616 ,13941 4,19473
2,78099 ,03091 1,01018 ,59398 ,32037
,07022 ,18093 1,58311 ,24897 ,92566
,13852 ,08141 ,54568 ,02996 ,03355
,01629 ,17134 ,06003 1,14066 ,05399
,02474 ,04580 ,13786 ,13247 ,05428
1,43347 1,77730 12,10462 ,06676 ,19739
,91874 2,47611 ,09652 ,01177 ,42990
,72143 ,04010 ,13039 ,96091 ,03748
Gema Manzano Ventura
113
n=40n=40n=40n=40 T_simu1 T_simu T_simu3 T_simu4 T_simu5
,06606 ,26857 ,14608 ,13345 1,48188
,26704 ,53733 ,07509 ,40111 ,13630
,18238 ,29565 ,07098 ,03797 ,04426
,15921 ,54321 ,01075 ,12429 ,95391
,01455 ,34738 ,13231 ,56151 1,30090
,01677 ,17041 ,01227 ,19939 ,02732
,17060 1,06350 ,01803 ,43722 ,84620
3,87064 ,31503 ,51572 ,66427 ,24011
,21028 ,31173 ,88164 ,00432 ,16246
,17068 ,46375 ,11503 ,15864 ,48969
,16441 ,04203 ,52233 ,41433 2,73340
,04427 ,00616 4,19473 ,34462 ,02997
2,78099 1,01018 ,32037 1,14178 2,68038
,07022 1,58311 ,92566 ,02328 1,88309
,13852 ,54568 ,03355 ,21864 7,49605
,01629 ,06003 ,05399 ,44773 ,69797
,02474 ,13786 ,05428 ,54244 ,12458
1,43347 12,10462 ,19739 2,65597 1,34344
,91874 ,09652 ,42990 ,04457 12,39379
,72143 ,13039 ,03748 ,69521 ,01425
,28995 1,54547 4,60066 ,40688 ,76838
,06930 1,33673 ,09225 ,30201 ,04160
3,20896 ,04765 ,03648 3,22514 ,07907
,18508 4,74448 ,56626 ,22700 ,26558
,27682 ,61120 ,41525 ,13386 ,34749
Análisis de Fiabilidad. Estudio teórico y práctico con SPSS.
2,51159 ,09790 ,05655 ,02576 ,17598
,20124 ,23744 1,54681 ,48416 ,03279
,17025 1,75044 ,21214 ,00211 ,10882
,86234 1,48887 ,11577 ,54481 2,05179
,05901 ,00945 2,89293 ,61734 ,31468
,28187 4,37087 ,84688 ,70314 9,16617
1,53984 ,13941 ,29331 ,08330 ,13994
,03091 ,59398 1,09275 ,19929 ,04548
,18093 ,24897 3,23977 ,04387 ,08128
,08141 ,02996 ,19411 ,03696 1,35658
,17134 1,14066 ,02074 ,01665 3,37895
,04580 ,13247 ,11176 ,08329 ,31553
1,77730 ,06676 1,00404 ,12563 ,08782
2,47611 ,01177 ,13050 ,35696 ,81236
,04010 ,96091 ,02397 ,90873 ,14078
BIBLIOGRAFÍA
ARSENAULT, J.E., ROBERTS, J.A. , Reliability and maintainnability of electronic systems.
Computer Science Press. 1980.
ASCHER, H.; FEINGOLD, H, Repairable systems reliability. Dekker. 1984.
BAGOWSKY I., Reliability Theory and Practise, Prentice-Hall. 1961.
BIRNBAUM, W., ESARY, J., Y SAUNDERS S., Multicomponent systems and structures and
their reliability, Techometrics, Vol.3, Nº1, 1961.
CASTILLO GUTIÉRREZ S., LOZANO AGUILERA D., Q-Q Plot Normal. Los puntos de posición
gráfica. Ini Inv, 2:a9, 2007.
CONDRA L.V., Reliability Improvement with Design of Experiments, Marcel Dekker,
New York. 1993.
CROW. E.L. , SHIMIZU,K. Lognormal distributions. Marcel Dekker, Inc., 1988.
EPSTEIN, B. Y SOBEL, M. Life Testing. Journal of the American Statistical Association.
48, Nº. 263, 1953.
GARCÍA MUÑOZ R., QUILES FLOR F., Fiabilidad y Test de Sistemas. Depto. Informática
Albacete, UCLM. 1992.
GRIFUL PONSATI, E., Fiabilidad Industrial, Ediciones UPC, S.L., 2004.
HALD, A., Statistical Theory with Engineering Applications, John Wiley & Sons, Inc.,
1952.
JUAN, A., GARCÍA MARTÍN R., Math-blocs sobre Fiabilidad de componentes 1-8.
Proyecto e-math. Universidad de Cataluña
KALBEISH, J. Y PRENTICE, R. L. The Statistical Analysis of Failure Life- time Data. John
Wiley & Sons, Inc., 2002.
KAUFMANN, A., GROUCHKO D., CRUON, R. Mathematical Models for the Study of
Reliability of Systems, Academic Press Inc., 1977.
LEEMIS LAWRENCE M., Reliability- Probabalistic Models and Strategical Methods,
Prentice Hall, Inc., Engelwood Cliffs, 1995.
NACHLAS, J. A. ,Fiabilidad. ISDEFE . Publicaciones de Ingeniería de Sistemas. 1995.
PEÑA, D. Regresión y análisis de experimentos, 2005.
PÉREZ OCÓN, R. , GÁMIZ PÉREZ, M., RUIZ CASTRO, J. ,Aplicación de técnicas gráficas en el
estudio de Tiempos de Supervivencia. Estadística Española, 38. 1996.
REBASA, P., Conceptos básicos del Análisis de Supervivencia. Cir Esp, 78 ,2005.
SOLS A., Fiabilidad, Mantenibilidad y Efectividad, Colección Ingeniería, 12. 2000.
SUNDARARAJAN, C.R. Guide to reliability engineering., VNR, 1991.
WARLETA, J. Fiabilidad. Bases teóricas y prácticas, INTA., 1973
.