1 prologo del autor 2

42
“PRINCIPIOS BASICOS DE AUTOMATIZACION EN LABORATORIO CLINICO” LIC. WILFREDO GOCHEZ QUINTANILLA COORDINACION DE LABORATORIO CLINICO, UNAB JUNIO 2008.

Upload: wilfredo-gochez

Post on 21-May-2015

541 views

Category:

Documents


1 download

TRANSCRIPT

“PRINCIPIOS BASICOS DE AUTOMATIZACION EN LABORATORIO CLINICO” LIC. WILFREDO GOCHEZ QUINTANILLA

COORDINACION DE LABORATORIO CLINICO, UNAB JUNIO 2008.

2

PROLOGO DEL AUTOR

Al hablar de principios básicos de automatización en el laboratorio clínico, estamos

refiriéndonos a una de las bases en las cuales se fundamentan los resultados de

muchos de los laboratorios clínicos modernos del siglo veintiuno, sin embargo es

bueno, tener una perspectiva de cómo se origino el termino de ¨Automatizacion¨ a

través de la historia y como este se fue aplicando en las actividades diarias de un

laboratorio.

En la historia de la medicina y sus avances desde la edad media podemos darnos

cuenta que el efecto tecnológico ha tenido una gran repercusión en acceder a nuevos

descubrimientos y estos a su vez han impactado sobre nuevas áreas de estudio entre

ellos, muchos aplicados a la medicina, por ejemplo tenemos el perfeccionamiento del

microscopio por el holandés AntonVan Leewenhoek (1668) y la repercusión que tuvo

en las actuales bases de ciencias como la microbiología y la hematología. Así también

tuvo una gran impacto el descubrimiento de los alemanes Bunsen y Kirchhoff al aplicar

experimentos de física y química en el fraccionamiento del haz de luz en sus distintas

partes (nanómetros) y su aplicación en la cuantificación de substancias, aparato

conocido actualmente como espectrofotómetro, que a su vez tuvo un gran efecto en lo

que actualmente es la Química Clínica y sus aplicaciones en la cuantificación de

distintos tipos de analitos, sustratos y enzimas.

No cabe duda que el efecto tecnológico ha sido y seguira siendo un gran pilar para el

descubrimiento de nuevos conocimientos, ha sido, es y será la base de donde surgió la

carrera de Laboratorio Clínico, Por lo tanto en esta pequeña revisión no busca ser un

texto de referencia para algo tan amplio y profundo como puede ser la automatización,

sino más bien es una guía practica de conocimientos básicos que le sirvan al alumno

para cuando este en sus prácticas en los hospitales y se encuentra por primera vez como

un usuario de este tipo de aparatos. Una de las principales dudas con las cuales se

pueden encontrar los alumnos al asistir a los diferentes áreas automatizadas de los

laboratorios de los hospitales es: ¿En qué principio se basa ese aparato para medir esa

prueba? ¿Cómo puedo saber si el aparato esta funcionando bien? ¿Cuáles son las partes

internas del equipo? ¿Cómo puedo usarlo para obtener un buen resultado?, etc. Estas

dudas son lógicas para alguien que inicia su carrera, tiene su respuesta desde el punto de

vista del fabricante, sin embargo es importante agregarle el fundamento científico.

En un laboratorio clínico como en cualquier otro laboratorio de medición y

cuantificación de analitos u otras substancias, son de suma importancia los resultados

que de ellos se generan, ya que servirán para la toma de decisión en el diagnostico,

evaluación, evolución y tratamiento de innumerables enfermedades de los pacientes, por

lo tanto es indispensable tener la plena confianza, rapidez y fiabilidad de los resultados

generados en ellos, por eso el profesional de la carrera de laboratorio clínico debe de

prepararse lo mejor posible para encarar los retos que deberá de enfrentar en el siglo

veintiuno.

3

PROLOGO PRESENTACION INDICE

CAPITULO I:

A. Historia y definición de la Automatización. Pág. 4,5 B. Aplicación de la automatización al laboratorio clínico Pag.6,7,8

C. Diferentes áreas de Aplicación de la automatización en el laboratorio clínico Pag. 9

CAPITULO II:

A. Automatización en Química Clínica Pag. 10

A.1 Principios generales de Espectrofotometría Pag. 10, 11,12,13,14 A.2 El entorno automatizado del área de Química clínica Pag. 15

A.3 El Hardware Pag. 16 A.4 El software y el sistema LIS Pag. 17,18

A.5 Diferentes formas de cálculo principio y aplicacion Pág. 19,20,21,22 B. Automatización en Hematología Pag. 23

B.1 Principios generales de Citómetros Pag. 22 B. 2 Citometria de Impedancia Eléctrica Pag. 23

B.3 Citometria por Flujo láser. Pag. 24

C. Automatización en Banco de Sangre Pag. 27

C.1 Área de Inmunodiagnostico en el banco de sangre Pag. 27 Procedimientos de ELISA Pag.28 ,29 Modo de calculo CUTT – OFF Pag. 30

C.2 Automatización en la extracción y separación de componentes Pag. 31,32

CAPITULO III

A. Historia del Control de calidad Pag. 33

Conceptos básicos del Control de Calidad Pag. 34 Concepto y estima del error pag. 33,34

A.1 El control de calidad Interno Pag. 35 A.2 El control de calidad Externo Pag. 35

A.3. Instrumentos, materiales y software de control de calidad Pag. 36

A.4. Instancias internacionales de control de calidad Pag. 37, 38

RESUMEN DE ILUSTRACIONES Pag. 40

BIBLIOGRAFÍA Pag. 41

4

CAPITULO I

A. HISTORIA Y DEFINICIÓN DE LA AUTOMATIZACIÓN

El concepto de máquinas automatizadas se remonta a la antigüedad, con mitos de

seres mecánicos vivientes. Los autómatas, o máquinas semejantes a personas, ya

aparecían en los relojes de las iglesias medievales, y los relojeros del siglo XVIII eran

famosos por sus ingeniosas criaturas mecánicas.

Algunos de los primeros robots empleaban mecanismos de realimentación para corregir

errores, mecanismos que siguen empleándose actualmente. Un ejemplo de control por

realimentación es un bebedero que emplea un flotador para determinar el nivel del agua.

Cuando el agua cae por debajo de un nivel determinado, el flotador baja, abre una

válvula y deja entrar más agua en el bebedero. Al subir el agua, el flotador también

sube, y al llegar a cierta altura se cierra la válvula y se corta el paso del agua.

El primer auténtico controlador realimentado fue el regulador de Watt, inventado en

1788 por el ingeniero británico James Watt. Este dispositivo constaba de dos bolas

metálicas unidas al eje motor de una máquina de vapor y conectadas con una válvula

que regulaba el flujo de vapor. A medida que aumentaba la velocidad de la máquina de

vapor, las bolas se alejaban del eje debido a la fuerza centrífuga, con lo que cerraban la

válvula. Esto hacía que disminuyera el flujo de vapor a la máquina y por tanto la

velocidad.

El control por realimentación, el desarrollo de herramientas especializadas y la división

del trabajo en tareas más pequeñas que pudieran realizar obreros o máquinas fueron

ingredientes esenciales en la automatización de las fábricas en el siglo XVIII. A medida

que mejoraba la tecnología se desarrollaron máquinas especializadas para tareas como

poner tapones a las botellas o verter caucho líquido en moldes para neumáticos. Sin

embargo, ninguna de estas máquinas tenía la versatilidad del brazo humano, y no podían

alcanzar objetos alejados y colocarlos en la posición deseada.

El desarrollo del brazo artificial multiarticulado, o manipulador, llevó al moderno robot.

El inventor estadounidense George Devol desarrolló en 1954 un brazo primitivo que se

podía programar para realizar tareas específicas. En 1975, el ingeniero mecánico

estadounidense Víctor Scheinman, cuando estudiaba la carrera en la Universidad de

Stanford, en California, desarrolló un manipulador polivalente realmente flexible

conocido como Brazo Manipulador Universal Programable (PUMA, siglas en inglés).

El PUMA era capaz de mover un objeto y colocarlo en cualquier orientación en un lugar

deseado que estuviera a su alcance. El concepto básico multiarticulado del PUMA es la

base de la mayoría de los robots actuales.

El diseño de un manipulador robótico se inspira en el brazo humano, aunque con

algunas diferencias. Por ejemplo, un brazo robótico puede extenderse telescópicamente,

es decir, deslizando unas secciones cilíndricas dentro de otras para alargar el brazo.

También pueden construirse brazos robóticos de forma que puedan doblarse como la

trompa de un elefante. Las pinzas están diseñadas para imitar la función y estructura de

la mano humana. Muchos robots están equipados con pinzas especializadas para agarrar

dispositivos concretos, como una gradilla de tubos de ensayo o un soldador de arco.

Las articulaciones de un brazo robótico suelen moverse mediante motores eléctricos. En

la mayoría de los robots, la pinza se mueve de una posición a otra cambiando su

orientación. Una computadora calcula los ángulos de articulación necesarios para llevar

la pinza a la posición deseada, un proceso conocido como cinemática inversa.

Algunos brazos multiarticulados están equipados con servocontroladores, o

controladores por realimentación, que reciben datos de un ordenador. Cada articulación

5

del brazo tiene un dispositivo que mide su ángulo y envía ese dato al controlador. Si el

ángulo real del brazo no es igual al ángulo calculado para la posición deseada, el

servocontrolador mueve la articulación hasta que el ángulo del brazo coincida con el

ángulo calculado. Los controladores y los ordenadores asociados también deben

procesar los datos recogidos por cámaras que localizan los objetos que se van a agarrar

o las informaciones de sensores situados en las pinzas que regulan la fuerza de agarre.

Cualquier robot diseñado para moverse en un entorno no estructurado o desconocido

necesita múltiples sensores y controles (por ejemplo, sensores ultrasónicos o infrarrojos)

para evitar los obstáculos. Los robots como los vehículos planetarios de la NASA

necesitan una gran cantidad de sensores y unas computadoras de a bordo muy potentes

para procesar la compleja información que les permite moverse. Eso es particularmente

cierto para robots diseñados para trabajar en estrecha proximidad de seres humanos,

como robots que ayuden a personas discapacitadas o sirvan comidas en un hospital. La

seguridad debe ser esencial en el diseño de robots para el servicio humano.

En 1995 funcionaban unos 700.000 robots en el mundo industrializado. Más de 500.000

se empleaban en Japón, unos 120.000 en Europa Occidental y unos 60.000 en Estados

Unidos. Muchas aplicaciones de los robots corresponden a tareas peligrosas o

desagradables para los humanos. En los laboratorios clínicos, los robots manejan

materiales que conlleven posibles riesgos, como muestras de sangre u orina. En otros

casos, los robots se emplean en tareas repetitivas y monótonas en las que el rendimiento

de una persona podría disminuir con el tiempo. Los robots pueden realizar estas

operaciones repetitivas de alta precisión durante 24 horas al día sin cansarse. Uno de los

principales usuarios de robots es la industria del automóvil. La empresa General Motors

utiliza aproximadamente 16.000 robots para trabajos como soldadura por puntos,

pintura, carga de máquinas, transferencia de piezas y montaje. El montaje es una de las

aplicaciones industriales de la robótica que más está creciendo. Exige una mayor

precisión que la soldadura o la pintura y emplea sistemas de sensores de bajo coste y

computadoras potentes y baratas. Los robots se usan por ejemplo en el montaje de

aparatos electrónicos, para montar microchips en placas de circuito.

Las actividades que entrañan gran peligro para las personas, como la localización de

barcos hundidos, la búsqueda de depósitos minerales submarinos o la exploración de

volcanes activos, son especialmente apropiadas para emplear robots. Los robots también

pueden explorar planetas distantes. La sonda espacial no tripulada Galileo, de la NASA,

viajó a Júpiter en 1996 y realizó tareas como la detección del contenido químico de la

atmósfera joviana.

Ya se emplean robots para ayudar a los cirujanos a instalar caderas artificiales, y ciertos

robots especializados de altísima precisión pueden ayudar en operaciones quirúrgicas

delicadas en los ojos. La investigación en telecirugía emplea robots controlados de

forma remota por cirujanos expertos; estos robots podrían algún día efectuar

operaciones en campos de batalla distantes.

Los manipuladores robóticos crean productos manufacturados de mayor calidad y

menor costo. Sin embargo, también pueden provocar la pérdida de empleos no

cualificados, especialmente en cadenas de montaje industriales. Aunque crean trabajos

en los sectores de soporte lógico y desarrollo de sensores, en la instalación y

mantenimiento de robots y en la conversión de fábricas antiguas y el diseño de fábricas

nuevas, estos nuevos empleos exigen mayores niveles de capacidad y formación. Las

sociedades orientadas hacia la tecnología deben enfrentarse a la tarea de volver a formar

a los trabajadores que pierden su empleo debido a la automatización y enseñarles

National Aeronautic Space Agengy

6

nuevas capacidades para que puedan tener un puesto de trabajo en las industrias del

siglo XXI.

B. APLICACIÓN DE LA AUTOMATIZACION EN LABORATORIO CLINICO:

Fig. 1. Gustav Robert Kirchhoff (izq.) Antón Van Leewenhoek (centro) y su microscopio (Derecha)

Robert Wilhelm Bunsen (1811 – 1899) Químico alemán que con su compatriota el

físico Gustav Robert Kirchhoff, invento el espectroscopio y promovió el análisis del

espectro que les condujo al descubrimiento del cesio y del rubidio.

Bunsen nació en Gotinga el 31 de marzo de 1911 y estudio en la universidad de esta

ciudad, entre 1836 y 1852 dio clases sucesivamente en el instituto politécnico de

Kassely en las universidades de Marburgo y Breslau (Actualmente Wroclaw, Polonia),

después fue profesor en la universidad de Heidelberg hasta que se retiro en 1889.

Considerado uno de los más grandes químicos del mundo Bunsen descubrió en 1843 el

antídoto que aun hoy en día se utiliza contra el arsénico. Su estudio sobre los cianuros

dobles confirmo el principio de química orgánica en el que la naturaleza de un

compuesto depende de los radicales que lo componen. Además invento el mechero

Bunsen, un mechero de gas utilizado en laboratorios científicos. Entre otros de sus

inventos están además el calorímetro de hielo, una bomba de filtro y la célula eléctrica

de cinc y carbono. Los resultados de sus estudios sobre los gases residuales se

publicaron en el clásico “Métodos gasométricos”(1857). Bunsen murió el 16 de agosto

de 1899 en Heidelberg.

Gustav Robert Kirchhoff, nació en Konigsberg (actualmente Kaliningrado, Rusia) y

estudio en la universidad de esta ciudad. Fue profesor de física en la universidad de

Breslau, Heidelberg y Berlín. Con el químico alemán Robert Wilhelm Bunsen,

desarrollo el espectroscopio moderno para el análisis químico. En 1860 los dos

científicos descubrieron el cesio y el rubidio mediante la espectroscopia. Kirchhoff

dirigió importantes investigaciones sobre la transferencia de calor y también expuso dos

reglas actualmente conocidas como las leyes de Kirchhoff, con respecto a la

distribución de la corriente en los circuitos eléctricos.

En 1859, estos dos científicos, Gustav Robert Kirchhoff y Robert Wilhelm Bunsen

fueron los primeros en descubrir que cada elemento emite y absorbe luz de colores

característicos, que aplicaron al análisis químico. Este instrumento que es uno de los dos

tipos principales de espectroscopio, está formado por una rendija, un conjunto de lentes,

7

un prisma y un ocular. La luz que va a ser analizada pasa por una lente colimadora, que

produce un haz de luz estrecho y paralelo, y a continuación por el prisma. Con el ocular

se enfoca la imagen en la rendija, de hecho lo que se ve son una serie de imágenes de la

rendija conocidas como líneas espectrales, cada una con un color diferente, porque el

prisma separa la luz en los colores que la componen. Este descubrimiento sentaría las

bases del desarrollo químico e investigativo que diera paso al concepto de laboratorio

clínico moderno.

Para principios del siglo XX, se vislumbraba un nuevo panorama debido a las

innovaciones tecnológicas de la época y la electrificación masiva en las ciudades junto

a los avances en las ciencia de la salud, se aplicaron descubrimientos en la química y la

física, que permitieron a compañías desarrollar el instrumental necesario para los 1avances en la medicina diagnostica de la época. Así surgen compañías como la: Klett –

Summer de Detroit Michigan USA con el desarrollo de su colorímetro, en los años de

1940, que fue uno de los aparatos con mas aceptación en nuestro país hasta a principios

de los años 80, posteriormente surgieron otras compañías con espectrofotómetros más

complejos, análogos como: Perkin Elmer, Spectronic D, etc. Que fueron

modernizándose de acuerdo al avance electrónico de la época cambiando su tecnología

hacia equipos digitales.

La compañía Technicon introdujo en 1957 su primer analizador automatizado (1) que

fue un analizador de lotes secuencial, de canal único y flujo continuo capaz de proveer

un solo resultado de prueba en casi 40 muestras por hora.

Fue hasta 1970 que se introdujo una competencia a este analizador por medio del

descubrimiento del Dr. Norman Anderson con su primer analizador centrífugo, sub

producto de una investigación de la NASA (1) la innovación de este sistema fue además

de una alternativa al sistema continuo fue el uso de la innovación de las tecnologías de

las computadoras. Pero fue hasta 1975 que se perfeccionaron estos aparatos con la

miniaturización de las computadoras y el avance en la industria de los polímetros para la

fabricación de cubetas ópticas de plástico de gran calidad.

A estos equipos se le unió el Automatic Clinical Analizar (ACA) de la compañía Dade

Behring en 1970 que fue el primer analizador discreto de flujo continuo así como el

primer instrumento en tener capacidades de acceso aleatorio mediante el cual se podían

analizar muestras fuera de secuencia de lote según se requiera.

Otro de los hitos importantes en estos avances fueron la introducción de tecnologías de

análisis de micro muestra y reactivos, además de incorporar de manera extensa la

tecnología de computadoras en su diseño y uso, Ortho-Clinical Diagnostics, 1978(1).

Desde 1980 se ha ido desarrollando analizadores mas poderosos que incorporan

características importantes como: Software y Hardware cada vez mas sofisticados y

rápidos, fibra óptica, Lecturas policromaticas, sistemas On line para resultados

inmediatos, avances en equipos semi – automatizados, etc. Pero no ha sido hasta

mediados de los años 90 que en nuestro país han ido avanzando este tipo de tecnologías

y logrando posicionarse en especial en los grandes hospitales, debido especialmente por

su requerimiento en manejo de mayores volúmenes de muestras, necesidad de rapidez

en los resultados, necesidad de optimización del recurso humano de los hospitales y por

la facilidad de disposición de presupuestos para poder adquirir estas tecnologías, no así

en los laboratorios pequeños especialmente en las periferias e interior del país.

Otro grave problema actual es la falta de incorporación de esta información en los

planes de estudio de las universidades formadoras de recursos profesionales en el país,

existe casi un divorcio total entre contenidos universitarios y realidad en los

1 “Química Clinica, principios, procedimientos y correlaciones” Michael L. Bishop. 5ª Edición

8

establecimientos de salud, y sumado a esto esta también la poca preparación que dan las

compañías distribuidoras a los personales de cada hospital, especialmente a estudiantes

o a nuevas contrataciones.

Fig.2 Equipo Hitachi 912, analizador automatizado de química clínica. Roche Diagnostics.

Fig. 3 Espectrofotómetro análogo Perkin Elmer, uno de los primeros equipos usados en

los laboratorios clínicos del país.

9

C – DIFERENTES AREAS DE APLICACIÓN DE LA AUTOMATIZACION EN

LABORATORIO CLINICO

Desde 1995 ha habido grandes cambios en los analizadores automatizados, en efecto

estos se han vuelto más compactos, rápidos y fáciles de usar como resultado del

refinamiento en los avances electrónicos y de software de las compañías. La

automatización ha avanzado con características de independencia e intervención mínima

del operador (1).

Otro avance en el campo de los analizadores es el desarrollo de la inmunoquimica

cuyas técnicas nos permiten el ensayo de la cuantificación de: fármacos, marcadores

tumorales, hormonas, anticuerpos específicos de enfermedades infecto contagiosas, etc.

Estos instrumentos que usan estas técnicas como: Nefelometría, inmunoensayo

competitivo y no competitivo con detección de quimioluminicensia, etc.

Además de estos avances y el desarrollo de los citómetros o contadores de células en

hematologia, las principales áreas automatizadas en el laboratorio clínico son:

Química Clínica

Hematologia

Inmunodiagnostico o tamizaje

Fraccionamiento y extracción de componentes de banco de sangre.

Etc.

Otra de las fuerzas impulsadotas de los procedimientos automatizados es la realidad

del aumento de mayor volumen de análisis en los establecimientos y la necesidad de la

rapidez de la respuesta, además de la necesidad de análisis mas completos en los

perfiles de los pacientes aparentemente sanos, han ido sustituyendo a las pruebas

individuales según los cambios dictados por políticas recientes en Medicare y Medicaid

(Sistemas de salud en USA) que conducen a nuevos diagnósticos en pacientes

asintomático. (1)

Hay muchas ventajas en la automatización de las áreas de laboratorio clínico, uno de

ellos es incrementar el número de pruebas que realiza un laboratorio clínico en un

determinado periodo de tiempo. Otro es reducir los costos por pago de mano de obra

calificada como es un profesional en laboratorio clínico para así poder reducir los costos

por prueba. Otro aspecto importante es reducir el índice del error humano para bajar así

la variabilidad de resultados de laboratorio en laboratorio. Esto permite mejorar los

resultados en los programas de control externo de la calidad y se corrigen los errores

inherentes a la metodología. Además se eliminan los errores potenciales de los procesos

manuales por mal pipeteo, calculo y trascripción de resultados. (1)

Cada vez existe mas conciencia en lo delicado de la labor de los resultados de

laboratorio clínico, por ello las inversiones en tecnologías van enfocadas en mejorar los

procesos de producción y calidad de estos, la globalización ha llegado, es una realidad y

no nos permite mantenernos aislados, por esta razón no podemos quedarnos atrasados

en la competencia de los resultados y la constante medición de los procesos analíticos

para la estima del error. Es por ello que el avance de la automatización en las áreas

hospitalarias y de laboratorios grandes y de mediano volumen muy difícilmente se va a

rezagar, por lo tanto es nuestra obligación como profesionales conocer de una manera

técnica y científica lo relacionado a estas nuevas formas de trabajar..

10

CAPITULO II:

A. AUTOMATIZACIÓN EN QUÍMICA CLINICA.

El área de Química Clínica fue una de la primera área en automatizarse,

especialmente debido al auge en el volumen de muestras manejadas en los hospitales y

al cambio de políticas en la solicitud de pruebas individuales por perfiles completos,

para chequeos más profundos en los pacientes con diferentes patologías crónicas como

la diabetes, otros trastornos endocrinológicos, etc. Así como el nuevo concepto de

chequeos de rutina para el descubrimiento de trastornos asintomático (Presión

Sanguínea, Canceres, etc.) Esto además de la necesidad de la rapidez y las nuevas

tendencias mundiales en la modernización de las metodologías y estándares de la

calidad.

Pero para poder conocer acerca de la automatización en el área de Química Clínica es

necesario primero entender los conceptos sobre los cuales se basan estos equipos.

En el estudio de los principios de la espectrofotometría, conoceremos en que se

fundamentan las lecturas de los diferentes tipos de equipos en el área de la química

clínica.2

A 1.PRINCIPIOS GENERALES DE ESPECTROFOTOMETRIA

Tomaremos en cuenta los siguientes aspectos, para analizar este capitulo:

Conceptos básicos

Terminología Básica

Principios físicos químicos

i. CONCEPTOS BASICOS:

I. ESPECTROFOTOMETRIA

Se le denomina Espectrofotometría a la parte de la física que estudia a la luz y su

descomposición espectral, en cada uno de sus componentes y su interacción con las

substancias (analitos, substratos, enzimas, etc) para poder cuantificar a estas a partir de

la absorción de luz por las partículas y contrastando las con patrones de concentración

conocida, esto gracias a la aportación de los físicos alemanes Bunsen y Kirchoff, que en

el año 1853 desarrollaron el primer aparato de este género llamado “espectroscopio”.(2)

Se define por luz aquel tipo de energía electromagnética cuya velocidad es una

constante en el universo y que se desplaza a todas direcciones en forma de partículas

llamadas fotones a una velocidad de 299,792.458 km/seg. y de la cual hay dos fuentes

principales:

I- Energía de alta radiación: Generada por las estrellas, súper novas, quásar, el sol, etc.

II- Energía de Baja radiación: Generada por la energía Alterna o Directa. Dependiendo

de su generación puede ser:

i. Energía Eléctrica, Corriente alterna: Generación de alta tensión: 220voltios, 110 v.

Energía Corriente Directa: utilizada por instrumentos electrónicos a 6v, 10v, 12v o

24 v.

2 Enciclopedia Encarta 2005

11

La espectrofotometría, se basa en la luz y su refracción a través de un prisma o filtro

intersticial para descomponerla en sus distintas partes o para poder medir y cuantificar

reacciones químicas en substancias, llámese a estas: Analitos, Substratos o Enzimas.

(Fig. 1) A esta refracción para descomponer en sus distintas partes a la luz se le llama

Longitud de onda y se mide en nano metros (nm). o mil millonésima parte de un metro.

(10 -9 mt.)

Para poder cuantificar una sustancia se necesita que dos fenómenos ocurran:

1) TRAMITANCIA: Es el fenómeno de transmisión de la luz en un 100% en un rango

determinado.

2) ABSORBANCIA: Es la absorción de la luz por las substancias presentes en la cubeta

previo a una calibración a cero con agua destilada.

ii. TERMINOLOGIA BASICA:

ABSORVANCIA: Capacidad de un analito, enzima o sustrato de absorber cierta

cantidad de luz emitida por una fuente.

TRAMITANCIA: Capacidad de trasmitir el 100% de la luz emitida por una

fuente y descompuesta en un rango especifico.

NANOMETRO: Rango de medición equivalente a 10 (-9) de un metro o la

millonésima parte de un metro. Se utiliza para medir los distintos rangos en que

la luz se descompone.(distancia entre cresta y cresta de LO)

LUZ ULTRAVIOLETA: Es aquella que va de los 320- 410 nm. Se utiliza

generalmente para mediciones enzimático, no es detectable al ojo humano. Fue

descubierta en 1801 por J. Ritter While.

LUZ VISIBLE: Es aquella que va de los 420- 570 nm. Se utiliza para medir

reacciones colorimétricas. Es detectable a simple ojo.

LUZ INFRAROJA: Es aquella que va de los 580 – a los 800 nm.Se utiliza para

poder “eliminar” las coloraciones parasitas de las muestras en el modo de lectura

Bicromatico.

LINEA BASE: o cero con agua destilada, es cuando llevamos el instrumento a

cero absorbancia (100% tramitancia) para comenzar la lectura.

BLANCO REACTIVO: es la eliminación de la coloración natural del reactivo a

través de le medición de su Abs. Sin muestra añadida.

ESTANDAR O PATRON: es una solución estable de concentración conocida de

un analito, substrato o enzima, el cual no varia y es especifico para cada reactivo

químico que se utiliza.

FACTOR DE CALIBRACION: Es la relación matemática para determinar una

concentración a partir del valor de absorbancia de un patrón o estándar

establecido. Es igual a:

FC = Concentracion St / Absorvancia ST x Abs. Mx

GALVANOMETRO: Instrumento electrónico que mide la luz enviada por el

sensor óptico y la transforma en pulsos electrónicos directamente proporcional a

la cantidad de luz emitida, la cual se expresa en forma digital o análoga

(Instrumentos de aguja).

12

CONTROL NORMAL : Es un suero bovino o humano cuya concentración de

Analitos, enzimas y sustratos es conocida, la cual varia a limites permisibles

Establecidos por el fabricante y expresados en Desviaciones Estándar. El valor

del control normal ronda los limites normales de los parámetros establecidos en

humanos.

CONTROL ANORMAL: Es un suero bovino o humano el cual Tiene valores

por lo general alterados o altos de los analitos, substratos o enzimas según los

limites normales del ser humano. S e utilizan para medir la Linealidad de las

pruebas y de los equipos.

iii. PRINCIPIOS FISICOS-QUIMICOS

Reacción química:

Esta se da en el tubo de ensayo o cubeta de reacción de acuerdo con los parámetros

establecidos por el fabricante como son:

- Volumen de relación Reactivo – muestra

- Tipo de muestra a usar y forma de extracción (Edta, citrato de Sodio, etc.)

- Pipeteado, temperatura de reacción, Tiempo de Incubación, Lectura.

- Forma de cálculo, etc.

Al estar lista esta reacción se procede a la cuantificación del analito, substrato o enzima

por medio de la medición de luz (fotones) que estas partículas presentes en la reacción

absorben. (Esquema.1)

CUBETA DE REACCION

FUENTE LUZ _______ ______

REFRACTADA _____________ SENSOR GALVANO

xn xn OPTICO METRO

100% tramitancia xn xn Moléculas reaccionando

0% ABs. xn Xn %Abs

____________

LUZ ABSORVIDA

Esquema 1. Principio de absorción de luz por las partículas reaccionando en un porta

cubetas o tubo de ensayo de un aparato de química clínica.

13

La química clínica ha avanzado muchísimo desde el desarrollo y aplicación del primer

“espectroscopio” por Bunsen y Kirchhoff (1856) convirtiéndose actualmente en una

sofisticada tecnología de vanguardia que utiliza a la luz y su aplicación en la medición

de absorción de substancias sean estos analitos, sustratos o enzimas de valor clínico en

el diagnostico de muchas enfermedades en el ser humano.

Realizando un vistazo desde los primeros aparatos utilizados en la química clínica, hasta

la actualidad, nos damos cuenta que el principio de la espectrofotometría se aplica a

todos los instrumentos antiguos y modernos. Ejemplos de algunos equipos en distintas

epocas: Desde 1940 hasta la fecha:

Klett Summers (colorímetro desarrollado en 1940 por una compañía de Detroit)

Colorímetro Análogo.

Spectronic Kley- Adams digital

Spectronic Perkins – Elmer

Biosystems Spectronic semi- automatizado

Bayer RA-100

Analizadores automatizados: Hitachi, Bayer, Abbot, Human, Biosystems,etc,

2002.

El principio es básicamente el mismo en la espectrofotometría, lo que cambiado es :

Sensibilidad y presición del método

Cantidad de muestras Ej. Klett 2ml, semi-automatizados 400ul – 100 ul.

Formas de cálculo automatizada

Sistemas de aspiración incorporadas

Velocidad y cantidad de muestras procesadas.

Uso de Hardware y software sofisticados

Uso de sistemas LIS (Laboratory interfase systems)

Control de calidad incorporado.

Etc.

Actualmente ha avanzado tanto este campo de la espectrofotometría que se ha

convertido un campo de batalla entre las grandes empresas mundiales por hacer

mejorías en tiempo y velocidad de procesado de muestras, así como el uso de

poderosas computadoras y micro procesadores para poder ofrecer más formas de

cálculo y análisis “On Line” simultáneos a la generación de datos; ante este panorama el

profesional en laboratorio clínico actual, debe de estar conciente de los procesos y

sistemas de aseguramiento de la calidad, estandarizados mundialmente, por

instituciones y bibliografía actualizada así como el uso de software y materiales de

control que garanticen la calidad de su trabajo.(Ver capítulo III)

14

Colores de la luz visible

Longitud de onda de la Color absorbido Color observado

Absorción máxima (nm).

380 – 420 Violeta Amarillo - verdoso

420 – 440 Azul - violeta Amarillo

440 – 470 Azul Naranja

470 – 500 Verde - azuloso Rojo

500 – 520 Verde Púrpura

520 – 550 Verde amarillento Violeta

550 – 580 Amarillo Azul - violeta

580 – 620 Naranja Azul

620 – 680 Rojo Verde - azuloso

680 – 780 Púrpura Verde

Fig.4 Colores del espectro de luz y sus respectivos nanómetros.

15

Fig. 5 Colorímetro de química clínica Klett Sumer. (1940)

A. 2 EL ENTORNO AUTOMATIZADO DEL AREA DE QUIMICA CLINICA

Actualmente hay que estar muy conciente de las distintas fases a las cuales se les va a

aplicar el proceso de la automatización, tomando en cuenta las tres fases principales de

un proceso metodológico: 3

Fase pre- analítica

Fase Analítica

Fase post – analítica

En la mayoría de los procesos es lo mas común automatizar a la fase analítica del

procedimiento metodológico, pero siempre en la búsqueda del concepto de calidad total

actualmente se han incorporado las tres fases en un solo conjunto denominado el

Entorno automatizado del área de química clínica. (3)

En este entorno hay que saber reconocer los pasos necesarios para imitar y mejorar las

técnicas manuales. Los pasos principales en un procedimiento generalmente se pueden

enumerar:

1. Preparación e identificación de la muestra.

2. Medición de la muestra y entrega.

3. Sistemas de reactivos y entrega

4. Fase de Reacción química

5. Fase de Medición.

6. Procesamiento de señal y manejo de datos.(1)

3 “El control interno de la Calidad” Javier Gella, Biosystems España.

16

A3, 4, 5 HARDWARE – SOFTWARE -LIS

La fase pre – analítica comienza en la buena obtención y preparación de la muestra,

que es y ha sido un proceso manual en la mayoría de los casos, pero actualmente se han

incorporado procesos automatizados desde el ingreso del paciente en la ventanilla de la

recepción del laboratorio donde se le asigna un código de barra y se le ingresa al

sistema donde se le asigna la cantidad de pruebas solicitadas, esta información llega

desde el ordenador hasta el aparato de química en el área especificada a través de un

cableado llamado Sistema de interfases de laboratorio (LIS) donde el aparato se carga

con esta información especifica del paciente, su código de barra y las pruebas a realizar.

En el área de recepción, el flebotomista encargado de la sangría del paciente deberá

pegar al tubo de la muestra el código de barra correspondiente para que este sea llevado

hasta la separación y cargar el suero o plasma al rotor del aparato para que este inicie la

secuencia de búsqueda con su lector de código de barras. Al detectar el código asignado

revisa en su memoria las pruebas asignadas y comienza a procesar el listado en una

secuencia lógica agrupando las pruebas de acuerdo a la metódica específica.

Al finalizar el listado de trabajo este envía la información al computador para que este

pueda mostrar los resultados en pantalla, para una posterior validación de la corrida, de

acuerdo a las características especificas ingresadas a la programación previa del aparato

en detección de alarmas especificas del aparato y el control de calidad asignado, de

acuerdo a la corrida simultanea de calibradores y controles comerciales.

Al recibir estos resultados y analizarlos de acuerdo a los parámetros de la calidad (ver

capitulo III) se validan dejándolos listos para que nuevamente en la recepción del

laboratorio se puedan imprimir los resultados a través del software y el sistema de

cableado LIS donde viaja la información.

En conclusión podemos afirmar que las metodologías han avanzado mucho en lo que

a Automatización en química clínica respecta, los principios físicos y químicos de la

espectrofotometría son los mismos, pero se han hecho grandes innovaciones en estas

áreas que nos traen hasta la actualidad donde hay una gran opción de equipos

automáticos y semi automáticos de tamaño compacto, rápidos y modernos que

conjuntan diferentes principios como los que hemos mencionado anteriormente para

poder abarcar la determinación de los distintos sustratos, enzimas y analitos de valor

clínico, junto con la cuantificación de las nuevas metodologías Inmunoquimicas para la

valorización de Marcadores tumorales como el PSA, (Antigeno prostático especifico)

drogas terapéuticas y de abuso, Hormonas, Anticuerpos específicos, Inmunoglobulinas,

etc. En fin todas las valorizaciones necesarias para la evaluación del paciente.

Un aspecto importante en estas cuantificaciones es la relación matemática de la

reacción química que sucede en la cubeta de reacción, de esta forma, nos cercioramos

de la validez de la reacción, a este conjunto de relaciones matemáticas le llamamos:

“Formas de Calculo”.

En el proceso manual las formas de calculo generalmente se realizan por el personal que

realiza la prueba, de manera que de esta forma, se esta sujeto a caer en fallas de calculo

y errores humanos en la realización de estos, siendo esta una de las principales fuentes

de error post – analítico.

Los modernos computadores con sus microprocesadores son una poderosa herramienta

para evitar estas fallas, estos aparatos junto con los software desarrollados por los

fabricantes de los aparatos recogen la información cruda (Lecturas de absorbencias,

limites de absorción, valor de estándares, formas de calculo, etc) para procesarlas y en

algunas ocasiones especialmente en los sistemas On line, se reciben los resultados en el

17

monitor de la computadora en tiempo real en unos cuantos segundos después de hecha

la lectura de la reacción..

Es preciso que el futuro profesional en laboratorio clínico, estudie las principales

formas de cálculo y sus aplicaciones, y que estas se incorporen a los planes de estudio

de la carrera de las distintas universidades.

Fig. 6 Equipo automatizado de Química Clínica marca Architect. Abbot Diagnostics

18

Fig. 7 En esta figura podemos observar el rotor de muestras con selector de código de barras (Parte

inferior izquierda), además de las cubetas de reacción y lectura (Parte superior izquierda). Se puede ver

también a los brazos automatizados de dispensado de reactivo, muestras y lavados (Uno en la parte

superior izquierda y dos en la derecha). Este modelo tiene compartimientos refrigerados para reactivos (2

Parte derecha).

19

A.5 DIFERENTES FORMAS DE CÁLCULO. PRINCIPIO Y APLICACIÓN

1. CONCEPTOS GENERALES

2. MODOS DE CÁLCULO

3. TIPOS DE LECTURA

4. CONTROL DE CALIDAD

1. CONCEPTOS GENERALES

El modo de cálculo se define como la relación matemática que expresa el resultado de

la reacción química que ha ocurrido en el tubo de ensayo o cubeta de reacción, y que

sirve para cuantificar en forma exacta la cantidad de analito, substrato o enzima

presente al final de la reacción.4

Para que ocurra esta reacción en forma satisfactoria, deberá de tomarse en cuenta

ciertos parámetros que influencian el resultado de la misma como son:

Tiempo: Es el tiempo exacto cronometrado desde el inicio del proceso hasta el

final con la lectura del tubo o la cubeta.

Temperatura: Es la medición de la energía calórica en forma de movimiento de

partículas, cuyas variaciones son criticas en toda reacción. Es de suma

importancia las reacciones a 37ªC debido al valor clínico de estas.

PH: Potencial de hidrogeno es critico en toda reacción.

Protocolo: o Inserto es la guía de instrucciones en el proceso de la reacción

otorgado por el fabricante del mismo.

Reactivo 1, 2 , o más : Son las cantidades de reactivos presentes en la reacción.

Muestra: Es la muestra problema a la cual se le busca la concentración y se

mezcla con los reactivos. Ej.: Suero, plasma, LCR, Orina, etc.

Lectura: Es la medición a través de Espectrofotometría del resultado final de la

reacción química.

Longitud de Onda: Es el rango específico expresado en manómetros (distancia

entre cresta y cresta) donde se desarrolla la mayor absorbancia del espécimen de

muestra investigado.

Etc.

Debido a este conjunto de especificaciones en cada reacción y al desarrollo actual en

el avance de la fabricación de los reactivos así, como de los instrumentos de medición ,

y la capacidad de los profesionales involucrados en esta área, es que se ha mejorado en

la clasificación de las formas de calculo, las cuales se han agrupado en formas

especificas de acuerdo a las características de sus reactantes en alrededor de más de 10

formas de cálculo conocidas hasta hoy de las cuales cinco o mas, son las utilizadas en

el área de cuantificación de analitos, substratos o enzimas de valor medico.

4 “Manual del usuario Bts-370 Plus” Biosystems España

20

2. MODOS DE CÁLCULO

I. PUNTO FINAL ( END POINT):Es aquella reacción donde existe un desarrollo

de color que es directamente proporcional a la cantidad del analito o substrato

investigado y en este procedimiento pueden utilizarse uno o dos reactivos, la

absorbancia puede medirse con una (monocromática) o dos (Bicromatica)

longitudes de onda. Se utilizan para este calculo rangos entre los 490 – 540 nm. (

fig. 1) Ej. Glucosa, Colesterol, Triglicérido, etc

II. MODO DIFERENCIAL (DIFERENTIAL MODE): Este modo de análisis

requiere de dos reactivos, el reactivo 1 para el blanco de la muestra y el reactivo

2 para la reacción global. Cada mezcla de reacción es incubada en pocillos

separados y se realiza una única medida de absorbancia de cada una de ellas. La

Calibración puede basarse en el uso de calibradores o un factor dado por el

fabricante.(fig. 1) Se usa un rango de los 510 – 540 nm Ej. Bilirrubina Total y

directa.

III. TIEMPO FIJO (FIXED TIME): La absorbancia de la mezcla es leída a dos

tiempos fijos, después de una incubación, solo un reactivo puede usarse. Se

utiliza en un rango de 490 – 520 nm. Ej. Creatinina.

IV. MODO CINETICO ( KINETIC MODE): El modo cinético se utiliza para medir

la concentración de actividad catalítica. La absorbancia de la mezcla de reacion

es medida por de 4- 31 veces posterior a una incubación a una temperatura

determinada. En este procedimiento se utiliza un único reactivo. Generalmente

la concentración es determinado por u n factor dado por el fabricante. Se usa un

rango entre 320 – 340 nm. Ej. TGO, TGP, Amilasa, Ck total, Ck mb, etc.

V. MULTIESTANDAR: Este procedimiento existe una reacción de color que es

medida como en un punto final, y que puede ser directamente proporcional o

inversamente proporcional a la concentración del analito o substrato u hormona

que se investiga. Se construye una curva de calibración que dependerá de la

prueba realizada. Se usa un rango entre los 450 – 510 nm. Ej. T3 , T4, TSH,

PSA, Testosterona, Insulina, etc.

VI. CUTT – OFF ( CORTE): Este procedimiento se utiliza para poder realizar

lecturas basados en absorbancias de controles positivos y absorbancias de

controles negativos , utilizando estas para generar una línea de corte para

discriminar pruebas positivas de las negativas, utilizada especialmente en el área

de inmunodiagnostico para pruebas infecto – contagiosas en los bancos de

sangre. Son mas bien utilizados en procedimientos basados en la metodología de

ELISA. Ej. HIV, Hbag, HCV, Toxoplasma, etc.

21

3. TIPOS DE LECTURA.

La lectura se refiere a la medición de la absorbancia de las pruebas, esto dependerá de la

tecnología disponible para este fin, específicamente dependerá del aparato que se

disponga en el laboratorio.

Existen dos modos de lecturas para las pruebas:

Lectura Monocromática: Se realiza una sola lectura de la absorbancia de la

mezcla después de un tiempo determinado. Ej. Espectrofotómetros simples.

Lectura Bicromatica: Dos lecturas de la absorbancia de la mezcla después de un

tiempo determinado simultaneas, Una con el filtro de lectura principal y la otra

con el filtro de referencia, generando dos lecturas A1 y A2 de la cual se realiza

la siguiente operación :

A1 – A2 = Absorbancia Final.

A1: Absorbancia del rango principal

A2: Absorbancia del rango de referencia

Esto se utiliza generalmente para eliminar las coloraciones parasitas* de las muestras, y

garantiza una mejor exactitud en la determinación. (4)

* Coloración parasita es aquella donde la muestra esta coloreada antes de reaccionar con

el reactivo especifico.

4. CONTROL DE CALIDAD.

Para garantizar plenamente la exactitud en la realización de estos procedimientos a

través de estas formas de cálculo es indispensable el uso de los controles de calidad, al

utilizar equipamiento semiautomatizado o automatizado estos son un requisito para cada

corrida diaria. En procedimientos manuales es importante usar estos controles para

asegurar el reporte que generemos, para ello existe los Controles Interno y Externo de la

calidad los cuales estudiaremos como todo un capitulo aparte de este estudio. (Capitulo

3).

22

Fig. 8 Analizador espectrofotómetro semi-automatizado de química clínica marca Bts- 330 Biosystems.

Aparato usado en laboratorio clínicos mas actualizados de bajo volumen (abajo) Espectrofotómetro marca

UNICO usado también en prácticas de laboratorio clínico.(Arriba)

23

B. AUTOMATIZACIÓN EN HEMATOLOGÍA

La Hematología fue otra de las primeras aéreas de laboratorio en automatizarse,

debido, entre otras razones, al aumento de los volúmenes de muestras hospitalarias y a

la necesidad cada vez mas apremiante de la rapidez de los resultados,

especialmente en las salas de Emergencias y de cuidados intensivos. Un factor

importante fue el riesgo biológico potencial en el manejo de la muestra, especialmente

desde el inicio de la epidemia del SIDA y otros virus*, y además de la necesidad de

reducir la variación interlaboratorial de una misma muestra.

B. 1 PRINCIPIOS GENERALES DE CITOMETROS DE HEMATOLOGIA

Fue a partir del descubrimiento patentado por Wallace Coulter (1956) que la

compañía Coulter (Becken – Dickinson) la que lanzo el primer contador de células en

los años 1978. (5) Desde esa fecha hasta la hoy en día, estos han avanzado

enormemente, hasta convertirse en los actuales citometros de flujo de línea completa

que hay en la actualidad.

En la actualidad existen básicamente dos tipos de aparatos automatizados en

hematologia:

B.2 - Citometros por impedancia eléctrica

B.3 - Citometros por citometria de flujo láser.

La realización de la biometría hematica a través del proceso automatizado se realiza a

través de una secuenciación de los pasos, este se inicia desde la aspiración de la muestra

y su dilución en un buffer especifico para llevar determinar generalmente los siguientes

parámetros:

-Cuantificación de la hemoglobina (Hb)

-Cuantificación de los eritrocitos (RBC)

-Cuantificación de los reticulocitos y de los RBC nucleados

-Cuantificación de los leucocitos (WBC)

-Cuantificación plaquetaria.

La medición de la Hb se basa en la relación lineal entre la cantidad de luz que se

absorbe en una banda de absorción particular y la absorción de la muestra.( ).

Generalmente utilizando el método de la cianametahemoglobina o lauril sulfato de

sodio. Los eritrocitos se miden por el método de la impedancia de la abertura, técnicas

que dispersan luz usando laser LED o tungsteno o una combinación de las dos

tecnologías. Esta técnica patentada por Wallace Coulter en 1956 se conoce como el

principio de Coulter y se utiliza para contar RBC, WBC y plaquetas. Un flujo de

corriente eléctrica se establece a través de una abertura de dimensiones conocidas.

Cuando una célula o partícula pasa a través de la abertura, la célula impide el flujo de la

corriente y causa un impulso en el voltaje. Las células y las partículas se cuentan

registrando el número de pulsos de voltaje que ocurren durante un intervalo de medición

El volumen celular se determina midiendo la magnitud del pulso que se genera, se fijan

las entradas electrónicas, permitiendo al analizador discriminar los pulsos o

cuantificaciones de los eritrocitos, de las plaquetas, detritus y del ruido eléctrico. Las

correlaciones estadísticas se aplican en el software del analizador. Para evitar la

recirculación de las células por las cámaras (abertura) una vez contadas se remueven de

la zona de detección con un líquido de arrastre.

Virus de la Hepatitis A, B, C.

24

Los leucocitos pueden contarse y diferenciarse dentro de un amplio número de

categorías por diversas metodologías. Según el fabricante la zona de detección puede

ser: optica, de conductancia, de impedancia o una combinación de todas. Por medio de

estas metodologías estos determinan el conteo total de los WBC y de las distintas

poblaciones de estos o formula diferencial.

Otra importante metodología para el conteo de los WBC y los diferenciales se

determina usando citometria de flujo combinada con laser semiconductor. Se obtiene

información celular usando la dispersión de luz frontal para determinar el volumen

celular, la dispersión de luz lateral para evaluar la estructura interna de la célula, y la luz

fluorescente lateral para dar información sobre los ácidos nucleicos RNA/DNA. La

ventaja de este método es que tiene la capacidad de dar el recuento total de la formula

diferencial, pueden contar reticulocitos además de reconocer todas las variantes

normales y anormales de las células incluyendo células atípicas con características de

células progenitoras o inmaduras. 5 .

Fig. 9 Principio de Coulter. Desarrollado por Wallace Coulter en 1956. Básico para conteo automatizado

de células en hematología.

.

En estos procesos es importante siempre el mantenimiento constante del equipo por

parte del equipo técnico de la empresa que pertenece el equipo, para su óptimo resultado

además de la realización de la corrida de los distintos controles en los tres niveles: Bajo,

Normal y Alto.

No obstante siempre es recomendable corroborar cualquier dato anormal por medio de

un proceso manual, ya que a través de este estaríamos viendo directamente a las tres

líneas celulares y es el mejor control de calidad que podemos aplicar.

5 “La Ciencia del Diagnostico de Laboratorio” Crocker & Burnett, 2ª Edición

25

Fig. 10 Analizador para coagulación marca Instrumentation Laboratory ACL 100.

Fig. 11 Joseph y Wallace Coulter. Los inventores del “principio coulter, Básico para los citometros de

hematología modernos.

26

Fig. 12 Analizador automatizado para Hematologia marca ABX Pentra 80.

Fig. 13. Reportes de histogramas de poblaciones de glóbulos rojos y plaquetas anormales, macro

plaquetas, (Parte izquierda) En el control de calidad de lámina podemos observar glóbulos rojos

hipocromicos y presencia de macro plaquetas. (Parte derecha)

27

C. AUTOMATIZACIÓN EN EL BANCO DE SANGRE

C.1-AREA DE INMUNODIAGNOSTICO EN EL BANCO DE SANGRE

Definición:

I. Procedimientos de ELISA – Automatización en Inmunodiagnostico

II. Modo de calculo CUTT – OFF

El área de Inmuno Diagnostico dentro de un banco de sangre central o de referencia

se convierte en una de las áreas mas delicadas y especializadas, en el banco de sangre,

debido a lo delicado de sus resultados y lo importante que son en la toma de decisiones

para poder clasificar a los componentes sanguíneos en aptos o disponibles para el uso

de una terapia sanguínea o si hay que descartarlos debido a la presencia de un agente

patógeno potencialmente de riesgo biológico a la vida del paciente a ser transfundido.

Debido a los riesgos potenciales de transmisión de patógenos (Sífilis, HIV, HCV,

HAbs, Tripanosoma cruzi, etc.) la Organización Mundial de Salud ha establecido

parámetros estrictos en el control de los Donantes, estimulando a la donación de

voluntarios altruistas, pero podemos clasificarlos de acuerdo a la intención de la

donación en:

Donantes Altruistas

Donantes Familiares o Amigos (De la persona a transfundir)

Donantes comerciales

Estas categorías encierran cada una con su propio riesgo en la transmisión de

enfermedades debido al estilo de vida que llevan cada uno, siendo los Donantes

Altruistas las personas optimas para realizar una donación sanguínea. Sin embargo

siempre existen otras poblaciones de mayor riesgo que acuden a los bancos de sangre, y

no son honestos en la entrevista, engañando a los profesionales encargados de la

selección del donante. Por esta razón se vuelve tan importante el área de Inmuno

diagnostico debido a que esta área se convierte en la garante de la calidad del

componente sanguíneo y de que este se encuentre libré ¨ de agentes infecciosos.*

La medicina transfucional ha avanzado en los últimos años, convirtiéndose en una

poderosa herramienta en el tratamiento de diversas enfermedades muy delicadas como

el cáncer o raros trastornos en los factores de coagulación de los pacientes, además de

su vital importancia en la terapia de choque en los quirófanos y salas de emergencia de

todo el mundo, sin embargo hoy mas que nunca aumenta el riesgo de transmisión de

enfermedades contagiosas debido al auge de la pandemia de HIV a nivel mundial ( 32

millones de personas en el mundo) y de otras infecciones fatales como la Hepatitis A, B,

C , la enfermedad de Chagas entre otras. Debido a este problema y al avance de la

ciencia y la técnica las diferentes compañías del mundo están en una constante

competencia por desarrollar nuevas y mejores pruebas para el diagnostico de

enfermedades infecto contagiosas, además de los equipos y software para el análisis y la

interpretación de estas. Todo esto nos lleva a que cada vez mas se pueda asegurar en los

bancos del mundo de componentes sanguíneos seguros para el uso de los pacientes más

necesitados.

Virus de la inmunodeficiencia humana, Hepatitis A,B,C, Anticuerpos para sifilis

28

I. PROCEDIMIENTO DE ELISA – AUTOMATIZACIÓN DEL

INMUNODIAGNOSTICO.

El procedimiento de ELISA es uno de los inmuno ensayos más seguros y utilizados

por los bancos de sangre del mundo, debido a su alta sensibilidad y especificidad en la

detección de anticuerpos específicos contra agentes infectos contagiosos, hormonas y

marcadores tumorales. La metodología de ELISA y sus variantes como la

Quimioluminicescia son por hoy de las metodologías mas frecuentes en el uso de los

bancos de sangre.

La terminología ELISA se deriva de las siglas en ingles que significa:

E nzime = Enzima

L inked =Ligada

I nmuno =Inmuno

S orved =Absorcion

A ssay =Ensayo

Inmuno ensayo ligado a absorción de enzimas. Esta metodología esta basada en la

detección de anticuerpos específicos para diferentes tipos de antígenos. Las paredes de

polieritudeno de los pocillos están recubiertas de los antígenos de cada uno de los

agentes infecciosos, hormonas o marcadores tumorales a investigar y se ponen a

reaccionar con el suero del paciente para detectar la presencia de anticuerpos específicos

para cada uno de las diferentes pruebas. Al formarse el complejo Antigeno – Anticuerpo

se realiza un lavado para poder descartar los anticuerpos inespecíficos u otra sustancia

que pudiera interferir en la reacción, Se añade un substrato y se dejan reaccionar en

incubación para darle otro lavado para quitar el exceso de este, debe de agregarle

después un cromógeno que dará una reacción de color de acuerdo a la concentración de

anticuerpos presentes en la muestra. Después de una hora de incubación y desarrollo

color se detiene esta con la adición de un acido, dando una coloración final que será

leída en un lector de ELISA a una longitud de onda de 490 u otra dependiendo de la

técnica. Para interpretar las lecturas estás se plotean en curvas de calibración o para

modo de corte. Este modo cutt- off es generalmente usado para pruebas infecciosas.

Para determinar las concentraciones de las muestras o discriminar positivos de

negativos se montan estándares y controles positivos fuerte, positivo débil y negativo de

acuerdo a la metodología y a la prueba a realizar, y luego de acuerdo al valor cutt-off

asignado por el fabricante se determina un valor numérico o línea de corte de donde se

determinara que muestras están positivas y cuales son negativas, además de las pruebas

indeterminadas o “zona gris” que es un porcentaje brindado por el fabricante hacia

arriba y hacia abajo del valor de la línea de corte(Valor cutt-off), donde no se puede

determinar con certeza si son positivos o negativo. En este caso deberá de repetirse la

prueba serialmente hasta que salga de esta zona y de un resultado definitivo.

29

Esquema Nº 2 : Secuencia de pasos para realizar un ensayo de ELISA.

Ensayo de Micro Elisa

1)Pocillo impregnado 2) Adición del suero 3) formación del complejo

Del Anfígeno (Ag) Anticuerpos (Acs) Antígeno -Anticuerpo

4) 1º Lavado Exceso de 5) Adición del Sustrato 6) 2º Lavado Exceso de

Acs Sustrato

7) Adición de Cromógena 8) Adición de Stop 9) Lectura 490 nm

Fig. 14 .Analizador de pruebas de ELISA automático Axsym de Abbot Diagnostics.

30

II. MODO DE CALCULO DE CORTE (CUTT – OFF)

Este modo de cálculo es el que se aplica a la determinación de pruebas

infectocontagiosas como: HIV, Hepatitis A, B, C, Chagas, Toxoplasmosis IgG, IgM,

etc.

El modo Cutt – Off o corte se basa en un valor de absorbancia donde a partir de allí se

hará un corte para descrimnar pruebas positivas y negativas.

De este modo se correrán junto a las muestras los controles positivos (fuerte y débil) y

negativos los cuales generaran un valor de absorbancia de los positivos y negativos a los

cuales se calculara dependiendo de las absorbancia el valor cutt – off y se determinaran

los positivos de los negativos. Cierto porcentaje será el de los “Indeterminados” que

corresponde a cierto numero hacia abajo y hacia arriba del valor de corte, estos no se

sabe a exactitud si son positivos o negativos y deben de repetirse hasta obtener un valor

fuera de este rango o “zona gris”.

Hay pruebas que además de controles positivos y negativos utilizan calibradores o

estándares de valores conocidos de la concentración de inmunoglobulinas, que sirven

para determinar la positividad de las pruebas o para medir los resultados de las terapias,

por ejemplo en la determinación de toxoplasmosis IgG se cuantifica con un valor de un

estándar, esto nos da un parámetro para saber si la inmunoglobulina es de memoria que

ha quedado circulando en sangre o si se ha reactivado la infección.

En el caso de la IgM que es un pentámero de la fase aguda solo es necesario si es

positiva o negativa la presencia de este anticuerpo.

Esquema 2. Modo cutt – off (Corte)

0.60

Positivo fuerte 0.59

Control 0.58

0.57 + POSITIVOS(REACTIVOS)

Positivo débil 0.29

Control

Zona gris 0.25

___________________________________________________ cutoff (corte)

Negativo 0.15 Zona gris

0.13 - NEGATIVOS(NO REACTIVOS)

0.07

0.05

Esquema Nº3. Una prueba infecto contagiosa (HIV,HCV,Toxo IgG,etc) y su

interpretación de resultados en la forma de calculo de corte (Cutt-off) a partir de las

lecturas de controles positivos y negativos.

31

III. AUTOMATIZACIÓN EN LA EXTRACCIÓN DE COMPONENTES

SANGUÍNEOS

La extracción de los componentes sanguíneos está también en la lista de los procesos

automatizados, por medio de la utilización de aparatos extractores y fraccionadotes de

los diferentes componentes sanguíneos.

Estos aparatos son llamados aparatos de Aféresis y existen de diferentes marcas en el

mercado, entre ellos están: Baxter, Inmunetics, Gambro, etc.

La función de estos aparatos en la recolección de componentes esta en sustituir el

proceso manual de obtención y separación de la sangre, por medio de la utilización de

estos aparatos utilizando en lugar de la bolsa tradicional de donante, un descartable

especial que va conectado en un extremo a la aguja de punción al brazo del donante que

se conecta a un sistema de rotor centrifugo refrigerado especial para la obtención y

separación de los diferentes componentes como: Glóbulos rojos empacados, plasma

fresco congelado, plasma rico en plaquetas y concentrado de plaquetas.

El sistema consiste generalmente de tres módulos integrados que son el rotor extractor

refrigerado el sistema de monitoreo o software donde se controla el proceso y el sistema

de descartables donde se conecta el paciente.

Las ventajas de estos sistemas esta en su gran eficiencia en la recolección y separación

de los componentes delicados como las plaquetas en mayor concentración por mm3 que

por medio de los medios tradicionales, además de la rapidez del proceso en la

obtención del componente existe la enorme ventaja que algunos de estos sistemas

ofrecen la opción del filtro leucoreductor cuyo fin principal es la disminución de la

cantidad de células blancas, para evitar la sensibilización de los pacientes

poli transfundidos o de pacientes con problemas de inmunosupresion o con cáncer,

también en pacientes mas delicados como los bebes. Estos filtros consisten en unos

dispositivos de cerámica que captan a la mayoría de glóbulos blancos reteniéndolos en

el así evita que se vallan junto con los componentes recolectados.

La desventaja de estos métodos esta en el precio, ya que un sistema descartable único

uso por cada paciente anda por alrededor desde los 150 – 260 USD, dependiendo de la

marca comercial y los aparatos también son caros y delicados en su manejo y

mantenimiento, pero esta es la nueva tendencia mundial en la obtención de

componentes sanguíneos automatizad

Filtro de Ceramica que atrapa la mayoria de glóbulos blancos presentes en la bolsa de plaquetas.

32

Fig. 15. Cassette de extracción y separación de componentes

sanguíneos de un solo uso, con sistema de

leucorreduccion.(Izquierda) Maquina centrifuga automatizada de

separación de componentes sanguíneos marca TRIMA de

GAMBRO.

33

CAPITULO III.

A.1 INTRODUCCION AL SISTEMA DE CONTROL DE LA CALIDAD

HISTORIA:

El sistema de control de la calidad en laboratorio clínico ha avanzado muchísimo

desde sus inicios en los procesos industriales de a principios del siglo XX. Ha

evolucionado hasta introducirse en la mayoría de ámbitos realizados por el ser humano,

incluyendo a los procesos en el laboratorio clínico.

Historia del control de Calidad:

En el principio de los procesos de control de calidad podemos mencionar a Walter A.

Shewhart que fue un analista estadístico de la compañía Bell Telephone quien desarrollo

su obra titulada ¨Economic control of quality of Manufactured Product¨ publicado en

1931. En esta obra se plasmaron los procesos estadísticos básicos para el control de la

calidad como son los valores mínimos necesarios en los procesos de rutina y la

medición de las desviaciones de estos y sus cosos económicos para el proceso.

Los procesos de control de calidad han sido siempre desde el principio

concernientemente al deseo de alcanzar las metas de calidad al mínimo costo. Shewart

identifico los elementos críticos en los cuales se esperan variaciones en los procesos de

rutina y la forma de cómo identificar los rompimientos en estos procesos para poder

eliminar las causas que lo originan.

Casi veinte años después aparecieron Levey and Jennings e introdujeron los métodos

estadísticos de control de calidad en los laboratorios, en 1950. Siguiendo las

recomendaciones originales de Shewart hicieron un grupo de mediciones del proceso y

calcularon los promedios de rango (máximas diferencias) ploteando los promedios de

los rangos en dos distintos gráficos. Además ellos (Levey – Jennigs) propusieron

realizar mediciones por duplicado de las muestras de los pacientes.

Después de esto Henry y Segalove desarrollaron un proceso alternativo en el cual se

establece muestras de referencias que son analizadas repetidamente en mediciones que

son ploteadas directamente, este sistema es conocido actualmente como Graficas de

Levey and Jennings. 6

Desde esa época a la fecha muchas empresas han desarrollado nuevos y mejores

productos para el aseguramiento de la calidad que son disponibles para la mayoría de

pruebas de laboratorio clínico. Al mismo tiempo hay disponibilidad de mayores

conocimientos en el entendimiento de los procesos de control de calidad a través de

literatura, software, programas estadísticos, productos, etc. y de organizaciones e

instituciones dedicadas a vigilar y fomentar los procesos multi control para evaluar e

interpretar los datos de control de calidad. Por lo tanto hoy en día hay una gran

disposición de información y herramientas para alumnos y profesionales que quieran

saber más acerca del sistema de aseguramiento de la calidad.

6 “Basic QC Practices” James Westgard, 2ª Edicion

34

A 2. CONCEPTOS BASICOS

CONTROL DE LA CALIDAD:

Es la parte del sistema de aseguramiento de la calidad que comprende todas aquellas

técnicas y procedimientos que se utilizan para monitorear el comportamiento de

determinados parámetros que pueden afectar los requisitos de calidad, entendiendo

como calidad a aquel dato o valor que más se apega a la realidad de la condición del

paciente en el momento de que fue tomada la muestra, en resumen es la “búsqueda de la

verdad” o del valor convencionalmente verdadero (3) en ese momento. Además nos

permiten medir errores y alertar sobre funcionamientos incorrectos. Ejerce control sobre

la fase analítica.

Se define como Error, a todo aquel dato o valor que se aleja del “valor verdadero”.

Tomando en cuenta que no existe un valor verdadero absoluto, especialmente cuando se

trabajo con mediciones de analitos médicos que son dinámicos y variantes, se conocerá

a este como el valor convencionalmente verdadero.

Existen dos tipos principales de error:

Error sistemático

Error Aleatorio

El error sistemático es aquel que se repite o persiste constantemente durante un

tiempo determinado, hasta que las condiciones que lo originan son cambiadas. Ejemplo:

Equipos deteriorados, reactivos vencidos, calibradores defectuosos, etc.

El error aleatorio es aquel que se da por razones fortuitas y no se repite necesariamente

con periocidad, afecta la precisión además de la calidad de los resultados. Ejemplo:

Mala toma de muestra, rotulación equivocada, mal pipeteado, etc.

Al hablar de estima del error debe de saberse en que parte del proceso analítico se esta

aplicando dicho medición. Existen en los procesos analíticos de cuantificación o

medición de substancias, tres fases, que pueden afectar la calidad, las cuales son:

1. Fase Pre-analítica

2. Fase Analítica

3. Fase post-analítica

La fase pre-analítica es toda aquella previa al proceso analítico (cuantitativo) y

comprende desde que el paciente llega al laboratorio con su orden de exámenes a la

recepción de laboratorio y la secuencia de pasos que lleva como la introducción de datos

al sistema interlaboratorial, elaboración de viñetas de identificación de tubos,

indicaciones previas o requisitos previos a la toma de muestra, la toma de muestra por

un profesional calificado, el uso de tubos adecuados (con o sin su respectivo

anticoagulante), hasta el traslado del área especifica donde se procesara la muestra y la

efectiva separación de componentes a usar dependiendo del tipo de examen a procesar.

En esta fase entran los requisitos de cadena de frió o traslado adecuados para poder

conservar intactas las muestras cuando estas son procesadas en laboratorios de

referencia.(13)

Los principales sistemas de control de calidad se aplican a la fase analítica donde se

controlaran factores críticos que afectan los resultados como son: Personal que realiza

los análisis, equipos de análisis (Instrumentos), reactivos, calibradores, técnicas, etc.

En esta fase se aplican los dos tipos de control de calidad control interno y externo.

La fase post analítica consiste en el análisis y la interpretación de los resultados de las

lecturas crudas de los aparatos (raw readings) y la aplicación de las distintas formas de

35

calculo y formulas para obtener los valores cuantitativos de las unidades de magnitud

que se esten aplicando en su debido momento ej. mg/dl, gr/dl, mmol/lt, UI/lt, etc. Hasta

el mecanografiado de estos resultados para entregar el reporte al paciente o al medico de

este, en esta fase no aplican los dos principales sistemas de control de la calidad.

En la actualidad y con la tendencia del uso de los equipos automatizados y semi-

automatizados, se ha reducido este tipo de practica de interpretación manual de las

lecturas, ya que los equipos lo realizan de forma automatizada debido a la incorporación

de sistemas computacionales (software y microprocesadores) en los aparatos, los cuales

despliegan la información de los resultados finales con su unidad de magnitud y rangos

de referencia, alarmas, graficas de control de la calidad, etc a las pantallas de las

computadoras para solamente ser validados por un profesional encargado para que esta

sea mandado a un impresor y después al paciente o al medico. De esta forma se ha

reducido de gran manera el índice de “error humano” al analizar las lecturas y al

mecanografiar la información final de los resultados.

En una situación deseable u optima el error en la fase pre y post analítica debe de ser

eliminada o reducida a la mínima expresión para poder obtener resultados confiables.

Pero la tendencia actual en los sistemas automatizados de los laboratorios clínicos

modernos es de reducir al mínimo la injerencia del “error humano” y de automatizar

todo el proceso en lo que se conoce como el “entorno automatizado” que consiste en la

automatización desde la recepción hasta la generación y entrega de resultados. Aunque

siempre existirá la intervención humana en estos procesos, el personal deberá de estar

en constante capacitación para poder responder a los retos y reducir los errores

inherentes al proceso.

Los dos principales sistemas de control de la calidad que miden la fase analítica del

proceso son: Control interno y externo de la calidad.

2.1 TIPOS DE CONTROL DE CALIDAD

Existen muchos más sistemas de control de calidad, aunque generalmente se trabaja

con dos tipos básicos de control de calidad que debe poseer un laboratorio, estos son

similares en sus objetivos pero substancialmente diferentes en sus fines.

A. 1 - CONTROL INTERNO DE LA CALIDAD:

Es de tipo prospectivo y valida las series analíticas o corridas diarias, está basado en el

tiraje de los sueros comerciales y el análisis de los resultados de acuerdo a la dispersión

de los valores con respecto al valor medio del suero o desviaciones estándares con

respecto a la media (esta información es brindada a través del inserto del fabricante).

En resumen se refiere a cuanto nos alejamos del valor real del suero (hacia arriba o

abajo del valor “real”) y de esta manera medimos la estimación del error.

A. 2 - CONTROL EXTERNO DE LA CALIDAD:

Es retrospectivo ofrece una estimación del error sistemático de los procedimientos de

medida empleados o de comparación entre distintos laboratorios.

Estos controles son generalmente proporcionados como requisitos para funcionamiento

y licencias de apertura de laboratorios clínicos de atención a usuarios. Por lo tanto son

instituciones gubernamentales, asociaciones de profesionales, y compañías

internacionales las que proveen este tipo de servicios. Entre las principales instituciones

tenemos por ejemplo:

-Las juntas de vigilancia de las profesiones ( Ej. JVPLC)

-The College of American Pathologist (CAP)

-La red nacional de bancos de sangre

36

- El laboratorio central del MSPAS, “Dr Max Bloch”

- La unidad de control de calidad del ISSS (Instituto Salvadoreño del seguro social)

- The American association of clinical chemistry (AACC)

- The American association of bank of blood (AABB)

A.3 - MATERIALES DE CONTROL , HERRAMIENTAS Y SOFTWARE

Los materiales de control de la calidad son esencialmente sueros liofilizados de matriz

variable, a los cuales ya se les conoce el valor de distintos analitos, substratos y enzimas

los cuales han sido cuantificados utiizando distintos métodos, reactivos y equipos y

cuya información es proporcionada a través de un inserto, en el cual se describe el valor

medio de la sustancia a controlar, el valor mínimo y el valor máximo de este en las

distintas metodologías y aparatos.

Los materiales de control deben de comportarse como muestras reales, ser estables bajo

las condiciones descritas por su fabricante, y tener una variación mínima en

concentración y composición de un vial a otro. Casi todos los materiales de control

preparados de forma comercial son liofilizados y requieren de reconstitución antes de

usarse. En la reconstitución, el diluyente se debe de agregar de forma exacta y con

cuidado al mezclar. Este paso es crítico ya que el mezclado incorrecto dará como

resultado valores de los controles fuera de rango.

La mayoría de controles son producen a partir de suero, los cuales pueden tener dos

diferentes matrices:

- Suero control de matriz bovina

- Suero control de matriz Humana

Los sueros de matriz bovina son mas baratos que los de matriz humana por lo cual

generalmente son los mas utilizados en muchos laboratorios, para la mayoría de las

pruebas los sueros bovinos satisfacen los requisitos necesarios para monitorear la

imprecisión, pero debido a diferencias substanciales entre las proteínas bovinas de las

humanas estos no son recomendados en el monitoreo de pruebas como: Ensayos

inmunoquimicos, bilirrubinas, etc.(1)

Los sueros de matriz humana son mejores que los sueros bovinos y según algunos

autores los materiales de control deben de ser de la misma matriz de las pruebas que se

están monitoreando ( J. Westgard), pero debido a los altos costos que generan el

tamizaje completo de los sueros en búsqueda de agentes infecciosos( virus HIV, Hbag,

HCV, etc), y a las limitantes existentes en esta materia prima por ser seres humanos, es

que los costos se elevan y no son los controles mas utilizados en los laboratorios

clínicos.

Los materiales de control deben de ser procesados como muestras problema, y sus

resultados deben de ser tomados en cuenta para poder tomar decisiones importantes

dentro de los laboratorios. En el caso del control interno de la calidad, este resultado nos

dará la pauta para poder reportar las corridas diarias que me lleguen al laboratorio en el

caso que los controles den dentro del límite establecido. De lo contrario cuando se salen

de estos límites se está en la obligación de detener el reporte de la corrida diaria y

volver a calibrar de nuevo y tirar otra vez los controles hasta que estos estén dentro de

los valores permitidos de desviación con respecto a la media.

Por esta razón el tiraje de los controles es esencial en la garantía de la calidad y

repercuten directamente en la credibilidad del laboratorio clínico. Actualmente existen

herramientas estadísticas muy buenas que a partir del uso de software nos llevan el

histórico del mes en corridas de treinta días, donde se muestran los resultados de

37

desviaciones estándar, índices o coeficientes de variación, coeficientes de error absoluto

y de error porcentual (Ver fig.16)

Estas estadísticas son importantes debido a que nos permiten ver a través de los

gráficos (Levey-Jennigs) las tendencias de las corridas de los controles en dos series

(una normal y una patológica) para ver cuando los valores están o hacia abajo o hacia

arriba de la media o si se están repitiendo varias veces en un lado especifico de la curva,

esto nos da un panorama más amplio y permite tener información muy puntual para

tomar decisiones especialmente e importante para poder detectar errores sistemáticos.

Para conocer más acerca de la interpretación de estas curvas, existen actualmente en el

mercado literatura especializada para saber que reglas se están violando en un proceso

específico y qué medidas tomar para resolver estos problemas. A estas reglas se les

conoce actualmente como “Reglas de Westgard”, en alusión a su creador el Dr. James

O. Westgard pHD. Experto mundial y especialista de control de calidad en laboratorio

clínico.

Actualmente en laboratorio clínico existe una tendencia mundial hacia la garantía de

la calidad total en las distintas aéreas, debido a lo delicado que es un reporte de un

resultado, y las implicaciones legales que a esto lleva. Por esta razón existen en todo el

mundo organizaciones encargadas de la mejoría en los sistemas de calidad, esto se vio

reflejado en la aprobación en 1988 en los Estados Unidos de la ley de mejoría en los

laboratorios clínicos, CLIA1988, por sus siglas en ingles, además de otras normativas

especificas para laboratorios de cuantificación y análisis como la normativa ISO 17025,

entre muchas otras más. Existen también organizaciones de profesionales encargados

específicamente de la calidad de sus aéreas como la American Asociation of Clinical

Chemistry, (AACC) la American Asociation of Bank of Blood (AABB), etc. Que

constantemente realizan reuniones anuales y eventos científicos-culturales de formación

continua de los profesionales asociados para poder permitirles tener una licencia que les

permita ejercer la profesión en esos campos específicos.

Al hablar de sistemas de aseguramiento de la calidad, podríamos llenar varias

docenas de libros y no terminaríamos de agotar el tema, pero lo importante es lograr

despertar la conciencia, (especialmente en el estudiante), de lo importante que esto es,

no solamente porque a la larga sea más rentable ser confiable, si no porque es

éticamente correcto, ya que debido a la importancia que tienen nuestros resultados, no

podemos arriesgarnos a equivocarnos en los análisis, ya que detrás de cada reporte

existe una vida humana de por medio, esperando por este, para tomar decisiones que

lleven al mejoramiento de la calidad de vida.

Los procesos automatizados en laboratorio clínico no pueden realizarse sin un sistema

de control de la calidad, ya que estos los traen ya insertos en sus programas y software

internos. Por esta razón debe de estudiarse al menos lo mínimo para conocer en que

consisten y como se aplican, y esto ha sido el objetivo de esta obra.

38

Fig. 16. Software de programa de control interno de la calidad que calcula automáticamente los índices de

error absoluto y relativo. (Abajo) Gráficos de Levey-Jennigs que calculan la dispersión de los valores de

un control normal de acido úrico en un periodo determinado.(Arriba).

39

Fig. 17. Alumno de laboratorio clínico en sus prácticas en el Hospital Nacional “Dr. Juan José

Fernández” hospital nacional de la Zacamil, y algunos equipos automatizados: Pentra Abx Hematología,

Hitachi de Roche Diagnostics, Lector de tiras de uroanálisis de Roche diagnostics.

40

RESUMEN DE FIGURAS E ILUSTRACIONES:

1. Figura Nº 1: Fotografía de Gustav Robert Kirchhoff quien junto a Robert

Bumsen desarrollaron el primer espectrofotómetro. Ilustración de Antón Van

Leewenhoek y su primer microscopio.

2. Equipo automatizado de química clínica marca Hitachi 912, de Roche

Diagnostics.

3. Espectrofotómetro análogo marca Perkin Elmer.

4. Los diferentes colores del espectro de luz y sus respectivos manómetros.

5. Colorímetro de química clínica marca Klett Sumers.

6. Equipo automatizado de química clínica marca Archited, de Abbott Diagnostics.

7. Rotor, Brazo automatizado, lector de código de barras de Equipo Hitachi 912.

8. Espectrofotómetro manual de química clínica marca UNICO.

Espectrofotómetro semi automatizado marca BTS- 330, de Biosystems.

9. Principio de Coulter. En el que se basan muchos citometros de hematologia

10. Analizador automatizado para coagulación marca Instrumentation Laboratory

ACL 100.

11. Fotografías de los creadores del efecto Coulter: Joseph y Wallace Coulter.

12. Analizador automatizado de hematologia marca Pentra 80, de ABX company.

13. Reporte de histogramas de equipo automatizado de hematologia y fotografías de

anormalidades en la línea roja y plaquetaria.

14. Analizador automatizado de Inmunodiagnostico por ELISA marca Axsym de

Abbot Diagnostics.

15. Equipo automatizado de extracción de componentes sanguíneos y su respectivo

cassette desechable marca Trima de Gambro.

16. Software del control interno de la calidad que muestra curvas de Levey and

Jennigs marca Biosystems.

17. Alumno de la carrera de Laboratorio clínico de la UNAB, en prácticas

hospitalarias en el Hospital Nacional “Dr Juan José Fernández” de la Zacamil,

junto a diferentes tipos de equipos automatizados.

18. Esquema Nº1: Principio de absorción de luz por las partículas de un analito

reaccionando en una cubeta. Ley de Beer-Lamber.

19. Esquema Nº 2: Secuencia de pasos del principio de una prueba de ELISA.

20. Esquema Nº 3: Prueba de ELISA y su interpretación en forma de calculo de

corte (Cutt-off) en una prueba infecto contagiosa y las lecturas obtenidas en ella,

para discriminar muestras positivas, negativas e indeterminados.

41

BIBLIOGRAFÍA

1.- “Química Clínica, principios, procedimientos y correlaciones” Michael Bishop

McGraw hill. 5º Edición.

2. - “La ciencia del diagnostico de laboratorio” John Crocker – David Burnett McGraw

Hill. 2º Edición

3. - “Basic QC practices, Training in Statistical quality control for Healthcare

Laboratories”. James O. Westgard. 2º Edición.

4.- “El control interno de la calidad” Javier Gellar, Biosystems España.

5.- Enciclopedia Encarta 2005.

6.- www.historia de la automatización.com

7.- www.principio coulter.com

42