s5c543d49caeaf8a3.jimcontent.coms5c543d49caeaf8a3.jimcontent.com/download/version... · web...
TRANSCRIPT
USO DE LOS SISTEMAS INTERNACIONALES DE MEDIDA
SISTEMA INTERNACIONAL DE UNIDADES.
El valor de una magnitud se expresa generalmente como el producto de un número por
una unidad. La unidad no es más que un valor particular de la magnitud considerada, tomada
como referencia, y el número es el cociente entre el valor de la magnitud considerada y la
unidad. Para una magnitud concreta, se pueden utilizar numerosas unidades diferentes. Por
ejemplo, la velocidad v de una partícula puede expresarse de la forma v = 25 m/s = 90 km/h,
donde metro por segundo y kilómetro por hora son unidades alternativas para expresar el
mismo valor de la magnitud velocidad. Sin embargo, debido a la importancia de contar con un
conjunto de unidades bien definidas y de fácil acceso, que sean reconocidas universalmente
para la multitud de medidas que conforman la compleja sociedad de hoy en día, las unidades
deben elegirse de forma que sean accesibles a todo el mundo, constantes en el tiempo y el
espacio, y fáciles de realizar con gran exactitud (Vera y Silva, 2011).
Para establecer un sistema de unidades, tal como el Sistema Internacional de
Unidades, el SI, es necesario en primer lugar establecer un sistema de magnitudes, que
incluya una serie de ecuaciones que definan las relaciones entre estas magnitudes. Esto es
necesario porque las ecuaciones que relacionan las magnitudes entre sí, determinan las
relaciones entre sus unidades. Es conveniente también elegir las definiciones de un pequeño
número de unidades, a las que llamaremos unidades de base, y entonces definir las unidades
de todas las demás magnitudes, que llamamos unidades derivadas, como producto de
potencias de las unidades de base. De forma similar, las magnitudes correspondientes se
denominan magnitudes de base y magnitudes derivadas y las ecuaciones que expresan las
magnitudes derivadas en función de las magnitudes de base se emplean para expresar las
unidades derivadas en función de las unidades de base. Así en un desarrollo lógico de la
materia, la elección de las magnitudes y de las ecuaciones que relacionan las magnitudes
precede a la elección de las unidades.
La creación del sistema métrico decimal en la época de la Revolución Francesa y el
consiguiente depósito, el 22 de junio de 1799, de dos patrones de platino que representaban
el metro y el kilogramo en los Archivos de la República en París, puede considerarse como el
primer paso en el desarrollo del actual Sistema Internacional de Unidades.
En 1832, Gauss promueve activamente la aplicación de este sistema métrico, asociado
al „segundo‟ definido en astronomía, como sistema coherente de unidades para las ciencias
físicas. Gauss fue el primero en efectuar medidas absolutas del campo magnético terrestre
empleando un sistema decimal basado en las tres unidades mecánicas milímetro, gramo y
segundo para las magnitudes longitud, masa y tiempo respectivamente. En años posteriores,
Gauss y Weber extendieron estas medidas para incluir otros fenómenos eléctricos (Vera y
Silva, 2011).
Estas aplicaciones en el campo de la electricidad y el magnetismo se desarrollaron más
alrededor de 1860 bajo la dirección activa de Maxwell y Thomson en el seno de la Asociación
Británica para el Avance de la Ciencia (BAAS). Ellos formularon los requisitos de un sistema
coherente de unidades con unidades básicas y unidades derivadas. En 1874 la BAAS
introdujo el sistema CGS, un sistema de unidades tridimensional coherente basado en las tres
unidades mecánicas centímetro, gramo y segundo, que utilizaba prefijos del micro al mega
para expresar los submúltiplos y múltiplos decimales. El desarrollo subsiguiente de la física
como ciencia experimental se basó en gran parte en este sistema.
Tras comprobarse que las unidades CGS coherentes en los campos de la electricidad y
el magnetismo eran poco convenientes en la práctica (demasiado grandes o demasiado
pequeñas, según los casos), en el año 1880 la BAAS y el Congreso Eléctrico Internacional,
precursor de la Comisión Electrotécnica Internacional (IEC), aprobaron un conjunto
mutuamente coherente de unidades prácticas. Entre ellas figuraban el ohm para la resistencia
eléctrica, el volt para la fuerza electromotriz y el ampere para la intensidad de corriente
eléctrica.
Tras la firma de la Convención del Metro el 20 de mayo de 1875, que creó el BIPM y
estableció el CIPM y la CGPM, comenzaron los trabajos de fabricación de los nuevos
prototipos internacionales del metro y del kilogramo. En 1889 la 1ª CGPM aprobó los
prototipos internacionales del metro y el kilogramo. Junto con el segundo astronómico como
unidad de tiempo, estas unidades constituyeron un sistema de unidades mecánicas
tridimensional similar al sistema CGS, pero en el que las unidades de base eran el metro, el
kilogramo y el segundo, el sistema MKS (Vera y Silva, 2011).
En 1901 Giorgi demostró que era posible combinar las unidades mecánicas del sistema
metro-kilogramo-segundo con el sistema práctico de unidades eléctricas para formar un
sistema único coherente tetradimensional añadiendo a aquellas tres unidades de base una
cuarta unidad, de naturaleza eléctrica, como el ampere o el ohm y reescribiendo las
ecuaciones empleadas en electromagnetismo en la llamada forma racionalizada. La propuesta
de Giorgi abrió el camino a nuevos desarrollos.
Tras la revisión de la Convention du Mètre por la 6ª CGPM en 1921, que amplió el
alcance y las responsabilidades del BIPM a otros campos de la física, y la creación
subsiguiente del Comité Consultivo de Electricidad (CCE) por la 7ª CGPM en 1927, la
propuesta de Giorgi fue estudiada en detalle por la IEC, la Unión Internacional de Física Pura
y Aplicada (IUPAP) y otras organizaciones internacionales. Esto condujo al CCE a proponer,
en 1939, la adopción de un sistema tetradimensional basado en el metro, el kilogramo, el
segundo y el ampere, el sistema MKSA, propuesta que fue aprobada por el CIPM en 1946.
Como resultado de una encuesta internacional realizada por el BIPM, a partir de 1948,
la 10ª CGPM aprobó, en 1954, la introducción del amperio, el kelvin y la candela como
unidades de base para la intensidad de corriente eléctrica, la temperatura termodinámica y la
intensidad luminosa, respectivamente. El nombre Système International d´Unités, con la
abreviatura SI, fue dado al sistema por la 11ª CGPM en 1960. En la 14ª CGPM, en 1971, tras
largas deliberaciones entre físicos y químicos para encontrar una definición capaz de
satisfacer a las dos comunidades, se completó la versión actual del SI mediante la inclusión
del mol como unidad de base de cantidad de sustancia, aumentando a siete el total de
unidades de base del SI (Vera y Silva, 2011).
Originalmente, las medidas de base o básicas se llamaban así por ser consideradas
independientes entre sí y permitir, a su vez, la definición de otras unidades. Los patrones
correspondientes eran medidas materializadas que se conservaban en lugares acordados y
bajo condiciones determinadas. Los avances científicos y técnicos así como la disponibilidad
de instrumentos de mayor exactitud han dado por resultado que, con excepción del kilogramo,
las unidades de base se definan actualmente de diferente forma, con base en experimentos
físicos. En rigor, se podría argumentar que en algunos casos las unidades de base no son
estrictamente independientes entre sí.
Por ejemplo, el metro ya no se define contra el antiguo metro prototipo, una barra de
iridio-platino y la definición actual involucra el concepto de segundo, otra unidad de base. En
igual forma, la candela, unidad de base de la intensidad luminosa, se define en términos del
hertz (s-1) y del watt (m2·kg·s3), ambas unidades derivadas, y del esterradián, una unidad
derivada adimensional (Vera y Silva, 2011).
Sin embargo, se considera que el SI, entendido como el conjunto de unidades de base
y de unidades derivadas, es un sistema coherente por las razones siguientes:
Las unidades de base están definidas en términos de constantes físicas, con la única
excepción del kilogramo, definido en términos de un prototipo,
Cada magnitud se expresa en términos de una única unidad, obtenida por multiplicación o
división de las unidades de base y de las unidades derivadas adimensionales,
Los múltiplos y submúltiplos se obtienen por medio de multiplicación con una potencia
exacta de diez,
Las unidades derivadas se pueden expresar estrictamente en términos de las unidades de
base en sí, es decir, no conllevan factores numéricos.
El sistema de magnitudes a utilizar con el SI, incluyendo las ecuaciones que relacionan
las magnitudes, está formado, en realidad, por las magnitudes y ecuaciones de la física, bien
conocidas por los científicos, técnicos e ingenieros. Figuran en muchos libros de texto y en
numerosas publicaciones de referencia, pero cualquiera de esas listas es sólo una selección
de las magnitudes y ecuaciones posibles, que no tienen límite. Muchas de las magnitudes,
sus nombres y símbolos recomendados y las ecuaciones que las relacionan, están recogidas
en la norma internacional ISO/ IEC 80000, Magnitudes y Unidades, y en ella se propone que
las magnitudes y ecuaciones utilizadas con el SI sean conocidas como Sistema Internacional
de Magnitudes.
UNIDADES DE BASE.
Las definiciones oficiales de todas las unidades de base del SI son aprobadas por la
CGPM. Estas definiciones se modifican de cuando en cuando, según avanza la ciencia. Las
magnitudes de base son por convención, y son consideradas independientes.
Tabla. Magnitudes base y Unidades base.
Definición de la unidad de longitud (metro).
Metro: es la longitud de la trayectoria recorrida por la luz en el vacío en un lapso de 1/299 792 458 de segundo.
De aquí resulta que la velocidad de la luz en el vacío es igual a 299 792 458 metros por
segundo exactamente, c0 = 299 792 458 m/s.
Figura 1. Reproducción en el CENAM de la definición del metro mediante un Láser He-Ne estabilizado con
una celda interna de yodo a una longitud de onda de 632 991 398,22 fm.
Definición de la unidad de masa (kilogramo).
El kilogramo es la unidad de masa; es igual a la masa del prototipo internacional del kilogramo.
Definición de la unidad de tiempo (segundo).
El segundo es la duración de 9 192 631 770 periodos de radiación correspondiente a la transición entre los dos niveles hiperfinos del estado fundamental del átomo de cesio 133.
Figura 3. Laboratorio de relojes atómicos del CENAM, donde se mantienen en operaciones los patrones
Nacionales de Tiempo y Frecuencia.
Definición de la unidad de corriente eléctrica (ampere).
El ampere es la intensidad de corriente constante que, manteniéndose en dos conductores
paralelos, rectilíneos, de longitud infinita, de sección circular despreciable y situados a una distancia de un
metro uno de otro, en el vacío, produciría entre estos conductores una fuerza igual a 2x10-7 newton por
metro de longitud.
Figura 4. Laboratorio del patrón de tensión del CENAM, donde se mantiene en operación el efecto
Josephson usado en la definición del ampere.
Definición de la unidad de temperatura termodinámica (kelvin).
El kelvin, unidad de temperatura termodinámica, es la fracción 1/273,16 de la Temperatura termodinámica del punto triple del agua.
Definición de la unidad de intensidad luminosa (candela).
La candela es la intensidad luminosa, en un dirección dada, de una fuente que emite radiación monocromática de frecuencia 540 x 1012 hertz y cuya intensidad energética en dicha dirección de 1/683 watt por esterradián.
Figura 6. Laboratorio de fotometría del CENAM, donde se realiza y se mantienen en operación el Patrón Nacional de Intensidad Luminosa.
Definición de la unidad de cantidad de substancia (mol).
El mol es la cantidad de substancia de un sistema que contiene tantas entidades elementales como átomos hay en 0,012 kilogramos de carbono 12; su símbolo es “mol”. Cuando se emplee el mol, deben especificarse las entidades elementales, que pueden ser átomos, moléculas, iones, electrones, u otras partículas o grupos especificados de tales partículas.
Figura 7. Imagen de partículas de dióxido de silicio obtenidas con microscopía de barrido de electrones del
CENAM. Suponiendo que cada partícula esférica como las mostradas es equivalente a una molécula de
SiO2, entonces 6,022 143 0 x 1023 de tales partículas, formarían una mol de SiO2 con una masa de 60,083
g ± 0,000 4 g.
UNIDADES DERIVADAS. Las unidades derivadas del SI son formadas como productos de potencias de las
unidades base.
Unidades derivas que tienen nombre y símbolo especial. Estos nombres y símbolos especiales pueden
utilizarse con los nombres y los símbolos de las unidades básicas o derivadas para expresar las unidades
de otras magnitudes derivadas.
Algunas unidades que no pertenecen al SI.
Prefijos del SI. En la actualidad existen 20 prefijos. facilitar la expresión de cantidades muy grandes o muy
pequeñas. Ejem.2,3 cm3 = 2,3(cm)3 = 2,3(10-2m)3 = 2,3 x 10-6 m3
Reglas de escritura de los símbolos de las unidades y los prefijos.
La conformación de un lenguaje contiene reglas para su escritura que evitan confusiones y facilitan
la comunicación. Lo mismo sucede en el lenguaje de las medidas. El Sistema Internacional de Unidades
(SI) tiene sus propias reglas de escritura que permiten una comunicación unívoca.
Los principios generales referentes a la escritura de los símbolos de las unidades y de los nombres
fueron propuestos durante la 9ª CGPM (1948, Resolución 7). Posteriormente fueron adoptados por la ISO,
la CEI y por otras organizaciones internacionales.
Como resultado, existe en la actualidad un consenso general sobre cómo deben expresarse los
símbolos y nombres de unidades, incluyendo los símbolos y nombres de los prefijos, y los símbolos y
valores de las magnitudes. El respeto de estas reglas y convenciones de estilo, las más importantes de las
cuales se presentan aquí, facilita la lectura de los artículos científicos y técnicos.
Símbolos de las unidades.
Los símbolos de las unidades se imprimen en caracteres romanos (rectos), independientemente del
tipo de letra empleada en el texto adyacente. Se escriben en minúsculas excepto si derivan de un nombre
propio, en cuyo caso la primera letra es mayúscula.
m, metro
s, segundo
Pa, pascal
Ω, ohmio
En los símbolos la sustitución de una minúscula por una mayúscula no debe hacerse ya que puede
cambiar el significado. 5 km para indicar 5 kilómetros, pero 5 Km indica 5 kelvin metro.
Una excepción, adoptada por la 16ª CGPM (1979, Resolución 6), es que se permite el uso de la
letra L en mayúscula o l en minúscula como símbolos del litro, a fin de evitar la confusión entre la cifra 1
(uno) y la letra l (ele). L ó l, litro.
Un prefijo de múltiplo o submúltiplo, si se usa, forma parte de la unidad y precede al símbolo de la
unidad, sin espacio entre el símbolo del prefijo y el símbolo de la unidad. Un prefijo nunca se usa solo y
nunca se usan prefijos compuestos. nm, pero no mμm
Los símbolos de las unidades son entidades matemáticas y no abreviaturas. Por tanto, no van
seguidos de un punto, salvo al final de una frase, ni se usa el plural, ni se pueden mezclar símbolos de
unidades con nombres de unidades en una misma expresión, pues los nombres no son entidades
matemáticas. 75 cm de longitud, pero no 75 cm. de longitud.
Un prefijo de múltiplo o submúltiplo, si se usa, forma parte de la unidad y precede al símbolo de la
unidad, sin espacio entre el símbolo del prefijo y el símbolo de la unidad. Un prefijo nunca se usa solo y
nunca se usan prefijos compuestos. nm, pero no mμm
Los símbolos de las unidades son entidades matemáticas y no abreviaturas. Por tanto, no van
seguidos de un punto, salvo al final de una frase, ni se usa el plural, ni se pueden mezclar símbolos de
unidades con nombres de unidades en una misma expresión, pues los nombres no son entidades
matemáticas. 75 cm de longitud, pero no 75 cm. de longitud. l = 75 cm, pero no 75 cms
culombio por kilogramo, pero no culombio por kg
Para formar los productos y cocientes de los símbolos de las unidades, se aplican las reglas
habituales de multiplicación o de división algebraicas. La multiplicación debe indicarse mediante un espacio
o un punto centrado a media altura (⋅), para evitar que ciertos prefijos se interpreten erróneamente como un
símbolo de unidad. La división se indica mediante una línea horizontal, una barra oblicua (/), o mediante
exponentes negativos. Cuando se combinan varios símbolos de unidades, hay que tener cuidado para
evitar toda ambigüedad, por ejemplo utilizando corchetes o paréntesis, o exponentes negativos. En una
expresión dada sin paréntesis, no debe utilizarse más de una barra oblicua, para evitar ambigüedades.
Nombres de las unidades
Los nombres de las unidades se imprimen en caracteres romanos (rectos) y se consideran como
nombres (sustantivos) comunes. En español, los nombres de unidades empiezan por minúscula (incluso
cuando el símbolo de la unidad comience por mayúscula), salvo que se encuentren situados al comienzo de
una frase o en un texto en mayúsculas, como un título.
Para cumplir esta regla, la escritura correcta del nombre de la unidad cuyo símbolo es °C es “grado
Celsius” (la unidad grado comienza por la letra g en minúscula y el atributo Celsius comienza por la letra C
en mayúscula, porque es un nombre propio).
nombre de símbolo unidad
joule J
hercio Hz
metro m
segundo s
ampere A
watt W
Aunque los valores de las magnitudes se expresan generalmente mediante los nombres y símbolos de
las unidades, si por cualquier razón resulta más apropiado el nombre de la unidad que su símbolo, debe
escribirse el nombre de la unidad completo. 2,6 m/s, o 2,6 metros por segundo.
Cuando el nombre de la unidad está combinado con el prefijo de un múltiplo o submúltiplo, no se deja
espacio ni se coloca guión entre el nombre del prefijo y el de la unidad.
El conjunto formado por el nombre del prefijo y el de la unidad constituye una sola palabra.
Ejemplo: miligramo, pero no mili-gramo
kilopascal, pero no kilo-pascal.
Cuando el nombre de una unidad derivada se forma por multiplicación de nombres de unidades
individuales, conviene dejar un espacio, un punto centrado a media altura ( ⋅), o colocar un guión para
separar el nombre de cada unidad. Ejemplo pascal segundo, o pascal∙segundo, o pascal-segundo.
Asimismo en español, las denominaciones del tipo “cuadrado” o “cúbico”, utilizadas con los nombres
de las unidades elevadas a las potencias correspondientes, se colocan después del nombre de la unidad.
metro por segundo cuadrado, centímetro cuadrado, milímetro cúbico, amperio por metro cuadrado,
kilogramo por metro cúbico.
Valor y valor numérico de una magnitud; cálculo de magnitudes.
El valor de una magnitud se expresa como el producto de un número por una unidad; el número que
multiplica a la unidad es el valor numérico de la magnitud expresada en esa unidad. El valor numérico de
una magnitud depende de la unidad elegida. Así, el valor de una magnitud particular es independiente de la
elección de unidad, pero su valor numérico es diferente para unidades diferentes.
El valor de la velocidad de una partícula v = dx/dt puede indicarse mediante las expresiones v = 25
m/s = 90 km/h, donde 25 es el valor numérico de la velocidad expresada en la unidad metro por segundo y
90 cuando se expresa en kilómetros por hora.
Las unidades no se deben representar por sus símbolos cuando se escribe con letras su valor
numérico. Cincuenta kilómetros pero no cincuenta km
Escritura del valor de una magnitud.
El valor numérico precede siempre a la unidad y siempre se deja un espacio entre el número y la
unidad. Así, el valor de una magnitud es el producto de un número por una unidad, considerándose el
espacio como signo de multiplicación (igual que el espacio entre unidades). Las únicas excepciones a esta
regla son los símbolos de unidad del grado, el minuto y el segundo de ángulo plano, °, ′ y ″,
respectivamente, para los cuales no se deja espacio entre el valor numérico y el símbolo de unidad.
m = 12,3 g donde m se emplea como símbolo de la magnitud masa, pero φ = 30° 22′ 8″, donde φ se
emplea como símbolo de la magnitud ángulo plano. Esta regla implica que el símbolo °C para el grado
Celsius debe ir precedido de un espacio para expresar el valor de la temperatura Celsius t. t = 30,2 °C,
pero no t = 30,2°C, ni t = 30,2° C
En cualquier expresión, sólo se emplea una unidad. Una excepción a esta regla es la expresión de
los valores de tiempo y ángulo plano expresados mediante unidades fuera del SI. Sin embargo, para
ángulos planos, es preferible generalmente dividir el grado de forma decimal. Así, se escribirá 22,20° mejor
que 22° 12′, salvo en campos como la navegación, la cartografía, la astronomía, y para la medida de
ángulos muy pequeños. l = 10,234 m, pero no l = 10 m 23,4 cm
Escritura de los números y del separador decimal.
El símbolo utilizado para separar la parte entera de su parte decimal se denomina “separador
decimal”. Desde la 22ª Conferencia General (2003, Resolución 10), “el símbolo del separador decimal
puede ser el punto o la coma, en la propia línea de escritura. El separador decimal elegido será el de uso
corriente en el contexto en cuestión.
Si el número está comprendido entre +1 y −1, el separador decimal va siempre precedido de un
cero. −0,234, pero no −,234
Desde la 9ª Conferencia General (1948, Resolución 7) y la 22ª Conferencia General (2003,
Resolución 10), los números con muchas cifras pueden repartirse en grupos de tres cifras separadas por un
espacio, a fin de facilitar la lectura. Estos grupos no se separan nunca por puntos ni por comas. Sin
embargo, cuando no hay más que cuatro cifras delante o detrás del separador decimal, es usual no separar
una cifra mediante un espacio.
La práctica de agrupar de esta manera las cifras queda a elección personal; no siempre se sigue en
ciertos campos especializados como el dibujo industrial, los documentos financieros y los escritos que ha
de leer un ordenador.
43 279,168 29, pero no 43.279,168.29
3279,1683 o 3 279,168 3
En los números de una tabla, el formato no debe variar en una misma columna.
Otras recomendaciones cuyas reglas específicas no se indican pero es conveniente observar:
20 mm x 30 mm x 40 mm
200°C a 300 °C
0 V a 50 V
(35,4 ± 0,1) m
35,4 m ± 0,1 m
MΩ pero no Mohm
--- Para las fechas, se utilizan dos o cuatro caracteres para el año, dos para el mes y dos para el día en ese
orden. 1996-07-09 ó 96-07-09.
Ejemplo de múltiplo y submúltiplo
El metro es la unidad básica del Sistema Internacional de Unidades
Múltiplos del metro:
Yottametro (Ym): 1024 metros
Zettametro (Zm): 1021 metros
Exámetro (Em): 1018 metros
Petámetro (Pm): 1015 metros
Terámetro (Tm): 1012 metros
Gigámetro (Gm): 109 metros
Megámetro (Mm): 106 metros
Miriámetro (Mam): 104 metros
Kilómetro (km): 103 metros
Hectómetro (hm): 102 metros
Decámetro (dam): 101 metros
Submúltiplos del metro:
Decímetro (dm): 10-1 metros
Centímetro (cm): 10-2 metros
Milímetro (mm): 10-3 metros
Micrómetro (µm): 10-6 metros
Nanómetro (nm): 10-9 metros
Angstrom (Å): 10-10 metros
Picómetro (pm): 10-12 metros
Femtómetro o fermi (fm): 10-15 metros
Attómetro (am): 10-18 metros
Zeptómetro (zm): 10-21 metros
Yoctómetro (ym): 10-24 metros
Sistema inglés de medidas
1 legua 3 millas 24 240 960 rods 5280 15840 190080 1,9008×108 4,82803
furlong cadenas yardas pies pulgadas miles 2 km
1 milla 8
furlongs
80
cadenas
320 rods 1 760
yardas
5 280
pies
63360
pulgadas
6,336×107
miles
1,609344
km
1 furlong (estadio)
10
cadenas
40 rods 220
yardas
660 pies 7 920
pulgadas
7,92×106
miles
201,168
m
1 cadena
4 rods 22
yardas
66 pies 792
pulgadas
792 000
miles
20,1168
m
1 rod (vara)
5.5
yardas
16,5
pies
198
pulgadas
198 000
miles
5,0292
m
1 yarda 3 pies 36
pulgada
s
36 000
miles
0,9144
m
1 pie 12
pulgada
s
12 000
miles
30,48
cm
1 pulgada
1 000
miles
2,54 cm
1 mil 0.0254
mm
Sistema náutico
1 grado de latitud 20 leguas
náuticas
60 millas
náuticas
607,5 cables 60 750
fathoms
121 500
yardas
364 500
pies
1 legua náutica 3 millas
náuticas
30,375 cables 3 037,5
fathoms
6 075
yardas
18 225 pies
1 milla náutica 11,256 cables 1 012,5
fathoms
2 025 yardas 6 075 pies
1 cable 100 fathoms 200 yardas 600 pies
1 fathom (brazas
inglesas)
2 yardas 6 pies
1 yarda 3 pies
Sistema estadounidense de agrimensura
1 Milla de agrimensura = 5.280 pies de agrimensura
Sistemas de medición, temperatura, presión, torsión y esfuerzos mecánicos.
Temperatura
La temperatura es la medida de la cantidad de energía térmica poseída por un objeto.
Galileo desarrolló el primero instrumento para medir la temperatura, fue refinado y calibrado
por científicos subsiguientes.
Las escalas Fahrenheit, Celsius y Kelvin son tres diferentes sistemas para la medición
de energía térmica (temperatura) basada en diferentes referencias.
Medir la temperatura es relativamente un concepto nuevo. Los primeros científicos entendían
la diferencia entre 'frío' y 'caliente', pero no tenían un método para cuantificar los diferentes
grados de calor hasta el siglo XVII. En 1597, el astrónomo Italiano Galileo Galilei inventó un
simple termoscopio de agua, un artificio que consiste en un largo tubo de cristal invertido en
una jarra sellada que contenía agua y aire. Cuando la jarra era calentada, el aire se expandía
y empujaba hacia arriba el líquido en el tubo. El nivel del agua en el tubo podía ser comparado
a diferentes temperaturas para mostrar los cambios relativos cuando se añadía o se retiraba
calor, pero el termoscopio no permitía cuantificar la temperatura fácilmente.
Varios años después, el físico e inventor Italiano Santorio Santorio mejoró el diseño de
Galileo añadiendo una escala numérica al termoscopio. Estos primeros termoscopios dieron
paso al desarrollo de los termómetros llenos de líquido comúnmente usados hoy en día. Los
termómetros modernos funcionan sobre la base de la tendencia de algunos líquidos a
expandirse cuándo se calientan. Cuando el fluido dentro del termómetro absorbe calor, se
expande, ocupando un volumen mayor y forzando la subida del nivel del fluido dentro del tubo.
Cuando el fluido se enfría, se contrae, ocupando un volumen menor y causando la caída del
nivel del fluido.
La temperatura es la medida de la cantidad de energía de un objeto. Ya que la
temperatura es una medida relativa, las escalas que se basan en puntos de referencia deben
ser usadas para medir la temperatura con precisión. Hay tres escalas comúnmente usadas
actualmente para medir la temperatura:
La escala Fahrenheit (°F), la escala Celsius (°C), y la escala Kelvin (K). Cada una de
estas escalas usa una serie de divisiones basadas en diferentes puntos de referencia tal como
se describe enseguida.
El kelvin (antes llamado grado Kelvin), simbolizado como K, es la unidad de
temperatura de la escala creada por William Thomson, Lord Kelvin, en el año 1848, sobre la
base del grado Celsius, estableciendo el punto cero en el cero absoluto (−273,15 °C) y
conservando la misma dimensión. Lord Kelvin, a sus 24 años introdujo la escala de
temperatura termodinámica, y la unidad fue nombrada en su honor. Es una de las unidades
del Sistema Internacional de Unidades y corresponde a una fracción de 1/273,16 partes de la
temperatura del punto triple del agua.[2] Se representa con la letra K, y nunca "°K".
Actualmente, su nombre no es el de "grados kelvin", sino simplemente "kelvin".
Coincidiendo el incremento en un grado Celsius con el de un kelvin, su importancia
radica en el 0 de la escala: la temperatura de 0 K es denominada 'cero absoluto' y
corresponde al punto en el que las moléculas y átomos de un sistema tienen la mínima
energía térmica posible. Ningún sistema macroscópico puede tener una temperatura inferior.
A la temperatura medida en kelvin se le llama "temperatura absoluta", y es la escala de
temperaturas que se usa en ciencia, especialmente en trabajos de física o química.
De Escala Fahrenheit a Escala Kelvin:
Presión
En física, la presión (símbolo p) es una magnitud física escalar que mide la fuerza en
dirección perpendicular por unidad de superficie, y sirve para caracterizar como se aplica una
determinada fuerza resultante sobre una superficie.
Cuando sobre una superficie plana de área A se aplica una fuerza normal F de manera
uniforme, la presión P viene dada de la siguiente forma. Cuando sobre una superficie plana de
área A se aplica una fuerza normal F de manera uniforme, la presión P viene dada de la
siguiente forma:
En un caso general donde la fuerza puede tener cualquier dirección y no estar distribuida
uniformemente en cada punto la presión se define como:
Donde n es un vector unitario y normal a la superficie en el punto donde se pretende medir la
presión.
En determinadas aplicaciones la presión se mide no como la presión absoluta sino
como la presión por encima de la presión atmosférica, denominándose presión relativa,
presión normal, presión de gauge o presión manométrica.
Consecuentemente, la presión absoluta es la presión atmosférica más la presión
manométrica (presión que se mide con el manómetro).
En el Sistema Internacional la presión se mide en una unidad derivada que se
denomina pascal (Pa) que es equivalente a una fuerza total de un newton actuando
uniformemente en un metro cuadrado. En el Sistema Inglés, la presión se mide en una unidad
derivada que se denomina libra por pulgada cuadrada (pound per square inch) que es
equivalente a una fuerza total de una libra actuando en una pulgada cuadrada.
Unidades de medida, presión y sus factores de conversión.
La presión atmosférica media es de 101 325 pascales (101,3 kPa), a nivel del mar,
donde 1 atm = 1,01325 bar = 101325 Pa = 1,033 kgf/cm² y 1 m.c.a = 9.81 kPa.
Las obsoletas unidades manométricas de presión, como los milímetros de mercurio,
están basadas en la presión ejercida por el peso de algún tipo estándar de fluido bajo cierta
gravedad estándar. Las unidades de presión manométricas no deben ser utilizadas para
propósitos científicos o técnicos, debido a la falta de repetitividad inherente a sus definiciones.
También se utilizan los milímetros de columna de agua (mm c.d.a.).
Torsión
Proceso que se produce cuando a una barra cilíndrica (un hilo, o un alambre, etc.) fija
por un extremo se le aplica un par de fuerzas, de tal forma, que los distintos discos
horizontales en que podemos considerar dividida la barra se deslizan unos respecto a otros.
Una generatriz de la barra pasa a ser una hélice.
Esfuerzos mecánicos.
Tracción: esfuerzo a que está sometido un cuerpo por la aplicación de dos fuerzas que
actúan en sentido opuesto, y tienden a estirarlo, aumentando su longitud y disminuyendo su
sección.
Compresión: esfuerzo a que está sometido un cuerpo por la aplicación de dos fuerzas que
actúan en sentido opuesto, y tienden a comprimirlo, disminuyendo su longitud y aumentando
su sección.
Flexión: esfuerzo que tiende a doblar el objeto. Las fuerzas que actúan son paralelas a las
superficies que sostienen el objeto. Siempre que existe flexión también hay esfuerzo de
tracción y de compresión.
Cortadura: esfuerzo que tiende a cortar el objeto por la aplicación de dos fuerzas en sentidos
contrarios y no alineados. Se encuentra en uniones como: tornillos, remaches y soldaduras.
Torsión: esfuerzo que tiende a retorcer un objeto por aplicación de un momento sobre el eje
longitudinal.
Unidades que se mantienen, unidades que se mantienen temporalmente y otras
unidades.
• Unidades eléctricas Comunes
Cantidad de electricidad (Q):
Culombio(C).
Resistencia(R):
Ohmio (Ω).
Tensión (V):
Voltios(V).
Intensidad (I):
Amperio(A).
• Angulo plano
Radian (símbolo rad); unidad suplementaria, el radian es el ángulo plano comprendido
entre dos radios de un circuito que interceptan, sobre la circunferencia de este circulo.
• Temperatura termodinámica
Kelvin (símbolo K) unidad base. El kelvin es la fracción 1/273.16 de la
temperatura termodinámica del punto triple delagua.
• Masa (Cantidad de masa, además existe el kilogramo fuerza y presión)
Kilogramo (símbolo kg) unidad baseEl kilogramo es la masa igual a la del prototipo
internacional del kilogramo.
• Fuerza (PARA TORSIÓN, PRESION Y POR SU PUESTO FUERZA).
Newton (símbolo N) unidad derivada.
DIFERENCIA, VENTAJAS Y DESVENTAJAS DE INSTRUMENTOS ANALÓGICOS Y DIGITALES
Tipos de Instrumentos de medición
En general los parámetros que caracterizan un fenómeno a medir pueden clasificarse en
Analógicos y Digitales, se dice que un parámetro es analógico cuando puede tomar todos los
valores posibles en forma continua, por ejemplo: el voltaje de una batería, la intensidad de luz,
la velocidad de un vehículo, la inclinación de un plano, etc.
Por otra parte se dice que un parámetro es digital cuando solo puede tomar valores discretos,
por ejemplo: el número de partículas emitidas por un material radioactivo en un segundo, el
número de moléculas, en un volumen dado de cierto material, el número de revoluciones de
un motor en un minuto, etc.
Ahora bien con que objeto se trata de convertir la información a la forma digital,para contestar
esta pregunta es necesario visualizar las ventajas y desventajas delos instrumentos tanto
analógicos como digitales.
Instrumentos Analógicos e Instrumentos Digitales
Instrumentos Analógicos.
El término: Analógico Se refiere a las magnitudes o valores que varían con el tiempo en forma
continua como la distancia y la temperatura, la velocidad, que podrían variar muy lento o muy
rápido como un sistema de audio.
Voltímetro análogo
En la vida cotidiana el tiempo se representa en forma analógica por relojes (de agujas), y en
forma discreta (digital) por displays digitales .En la tecnología analógica es muy difícil
almacenar, manipular, comparar, calcular y recuperar información con exactitud cuando esta
ha sido guardada, en cambio en la tecnología digital (computadoras, por ejemplo), se pueden
hacer tareas muy rápidamente, muy exactas, muy precisas y sin detenerse. La electrónica
moderna usa electrónica digital para realizar muchas funciones que antes desempeñaba la
electrónica analógica.
Ventajas
a) Bajo Costo.
b) En algunos casos no requieren de energía de alimentación.
c) No requieren gran sofisticación.
d) Presentan con facilidad las variaciones cualitativas de los parámetros para visualizar
rápidamente si el valor aumenta o disminuye.
e) Es sencillo adaptarlos a diferentes tipos de escalas no lineales.
Desventajas
a) Tienen poca resolución, típicamente no proporcionan más de 3 cifras.
b) El error de paralaje limita la exactitud a ± 0.5% a plena escala en el mejor de los casos.
c) Las lecturas se presentan a errores graves cuando el instrumento tiene varias escalas.
d) La rapidez de lectura es baja, típicamente 1 lectura/ segundo.
e) No pueden emplearse como parte de un sistema de procesamiento de datos de tipo
digital.
Instrumentos Digitales.
El término: Digital Se refiere a cantidades discretas como la cantidad de personas en una
sala, cantidad de libros en una biblioteca, cantidad de autos en una zona de estacionamiento,
cantidad de productos en un supermercado, etc.
Multímetro digital
Los Sistemas digitales tienen una alta importancia en la tecnología moderna, especialmente
en la computación y sistemas de control automático. La tecnología digital se puede ver en
diferentes ámbitos: Analógico y Digital. ¿Cuál es la diferencia? mecánico: llaves
electromecánico: el relé/relay hidráulico neumático electrónico .Los dos últimos dominan la
tecnología.
Ventajas
a) Tienen alta resolución alcanzando en algunos casos más de 9 cifras en lecturas de
frecuencia y una exactitud de + 0.002% en mediciones de voltajes.
b) No están sujetos al error de paralaje.
c) Pueden eliminar la posibilidad de errores por confusión de escalas.
d) Tienen una rapidez de lectura que puede superar las 1000 lecturas por segundo.
e) Puede entregar información digital para procesamiento inmediato en computadora.
Desventajas
a) El costo es elevado.
b) Son complejos en su construcción.
c) Las escalas no lineales son difíciles de introducir.
d) En todos los casos requieren de fuente de alimentación.
De las ventajas y desventajas anteriores puede observarse que para cada aplicación hay que
evaluar en función de las necesidades específicas, cual tipo de instrumentos es el más
adecuado, con esto se enfatiza que no siempre el instrumento digital es el más adecuado
siendo en algunos casos contraproducente el uso del mismo.
Los instrumentos digitales tienden a dar la impresión de ser muy exactos por su indicación
concreta y sin ambigüedades, pero no hay que olvidar que si su calibración es deficiente, su
exactitud puede ser tanta o más mala que la de un instrumento analógico.
Campos de aplicación de la metrología dimensional industrial
El campo de la metrología dimensional es muy amplio, sin embargo podemos clasificarla en
cuatro grupos dentro de los cuales se encuentran los diferentes tipos de mediciones que se
realizan, tabla 1.
Campo de aplicación de la metrología Dimensional
LongitudesExteriores Interiores Profundidades
Ángulos Cualesquiera
Superficie Acabado superficial
Formas y posiciones
Formas por elementos aislados
RectitudPlanitudCircularidadForma de una líneaForma de una superficie
Orientación por elementos asociados
ParalelismoPerpendicularidadInclinación
Posición por elementos asociados
Localización de un elementoConcentricidadCoaxialidad
Medición de parámetros
La inspección de una pieza cae dentro de la metrología geométrica que comúnmente se
denomina dimensional y tiene como objetivo determinar si cualquier pieza cumple con las
especificaciones establecidas para la misma, según se indique.
Tolerancias geométricas, es el término general aplicado a la categoría de tolerancias
utilizadas para controlar formas, perfiles, orientación, localización y cabeceo.
Los instrumentos de medición geométrica pueden clasificarse según el tipo de medición que
se realicen, esto es en instrumentos de medición directa e instrumentos de medición indirecta.
Tabla 1. Campo de aplicación de la metrología
La medición se puede clasificar en directa cuando el valor medido se obtiene directamente de
los trazos o divisiones de los instrumentos e indirectas en las cuales se utilizan algún otro
principio físico para dar la medida, ejemplo un termómetro, ver tabla 2.
Los instrumentos de medición también han evolucionado y desde los calibradores y
micrómetros se ha llegado hasta los instrumentos electrónicos y neumáticos que son más
exactos, pero por otra parte también hay que considerar que la complejidad es una fuente de
errores suplementarios.
Clasificación de los instrumentos de medición dimensional
Lineal Medida directa
Con trazos o divisiones Escala o reglas graduadasTodo tipo de calibradores Medidores de alturas con escala vernier
Con tornillo micrométricoTodo tipo de micrómetros Cabezas micrométricas Medidor maestro de alturas
Con dimensión fija Bloques patrón
Calibres de espesores (lainas)Escantillones o calibradores “pasa no pasa”
Medida indirecta
Comparativa
Máquina de medición de redondezComparadores ópticosComparadores electromecánicosMedidor de espesor de recubrimiento
Relativa NivelesReglas ópticasRugosímetros
Angular
Medida directa
Con trazos o divisiones
Transportador simpleGoniómetrosEscuadra universalEscuadra graduada
Con dimensión fijaEscuadras fijas Bloques patrón angulares Polígonos
Medida indirecta Trigonométrica
Falsas escuadras Regla de senosMesa de senosMMC
Conceptos Básicos de Metrología
Magnitud. Atributo de un fenómeno, cuerpo o sustancia que es susceptible de ser diferenciado cualitativamente y determinado cuantitativamente. Ejemplo: volumen, peso,
Magnitud base. Magnitud de un sistema de magnitudes que se acepta por convención como funcionalmente independientes unas de otrasEjemplo: longitud, tiempo, masa, temperatura, etc.
Magnitud derivada. Magnitud de un sistema de magnitudes definida en función de las magnitudes de base. Ejemplo: Velocidad = longitud o distancia /tiempo; Fuerza = masa por aceleración
Valor (de una magnitud). Expresiones cuantitativas de una magnitud particular, expresada generalmente en la forma de una unidad de medida multiplicada por un número.Ejemplo:
- Masa de un cuerpo 0,152 Kg ó 152 g;- Cantidad de sustancia de una muestra de agua (H2O) 0,012 mol ó 12mmol.
Valor verdadero (de una magnitud). Valor compatible con la definición de una magnitud particular dada.Ejemplos:- Es el valor que se obtendría por una medición perfecta.- Los valores verdaderos son por naturaleza indeterminados.
Valor convencionalmente verdadero (de una magnitud). Valor atribuido a una magnitud particular y aceptada, algunas veces por convicción, como un valor que tiene una incertidumbre apropiada para un propósito dado.
Tabla 2. Clasificación de los instrumentos
Ejemplo: - En un lugar determinado, el valor asignado a la magnitud realizada por un patrón de referencia puede
tomarse como un valor convencionalmente verdadero.-
Medición. Conjunto de operaciones que tienen por objeto determinar el valor de una magnitud.
Principio de medición. Base científica de una medición Ejemplo:- El efecto termoeléctrico aplicado a la medición de temperatura.- El efecto Doppler aplicado a la medición de la velocidad.
Método de medición. Secuencia lógica de las operaciones, descritas de manera genérica, utilizada en la ejecución de las mediciones. Ejemplo:- Método de sustitución. Este método utiliza un equipo auxiliar, llamado comparador o de transferencia, con el
que se mide inicialmente al mensurando y luego un valor de referencia. Este método también es conocido como método de medición por transferencia.
Ejemplo:
a) Medición de la masa de una muestra o producto con pesas a través de una balanza analítica.
- Medición directa: En este método se obtiene un valor en unidades del mensurando, mediante un instrumento, cadena o sistema de medición, digital o analógico, en forma de: indicador, registrador, totalizador ó integrador. El sensor del instrumento es colocado directamente en contacto con el fenómeno que se mide.
Ejemplos:
a) Medición de volumen y densidad en base al principio de Arquímedes.b) Medición de presión, en un manómetro secundario con indicación digital o analógica.
- Método diferencial. La medición es la diferencia entre un valor conocido (referencia) y un valor desconocido. Este método es más exacto y proporciona mejor resolución que el obtenido en la medición directa.Ejemplos:
a) El valor de la fuente bajo prueba Vtest va ser igual a la suma algebraica del valor de referencia +10 V y la Indicación del vóltmetro (Vtest = 10,000 0 V + 26,3 mV = 10,026 3 V).
b) Calibración de bloques patrón mediante un comparador de bloques patrón.
- Método nulo o de cero. Este método utiliza un detector de nulos o equilibrio (comparador), el cual permite comprobar la igualdad (diferencia cero) entre el mensurando y un valor de referencia (patrón).
Procedimiento (de medición). Conjunto de operaciones, descritas específicamente, para realizar mediciones particulares de acuerdo a un método dado.
Mensurando. Magnitud particular sujeta a medición.Ejemplo: longitud de un bloque patrón.
Magnitud de influencia. Magnitud que no es el mensurando pero que afecta al resultado de la medición.Ejemplo:- La temperatura de un micrómetro cuando se trata de una medida de la longitud.
Se entiende que la definición de magnitud de influencia incluye valores asociados con patrones de medición, materiales de referencia y datos de referencia los cuales pueden depender el resultado de una medición, incluye, también fenómenos tales como fluctuaciones a corto plazo en instituciones de medición, y magnitudes como temperatura ambiente, presión barométrica y humedad.
Resultado de una medición. Valor atribuido a un mensurando y obtenido por medición.
Resultado no corregido. Resultado de una medición antes de la corrección del error sistemático.
Resultado corregido. Resultado de una medición después de la corrección del error sistemático.
Exactitud de medición. Proximidad de concordancia entre el resultado de una medición y un valor verdadero del mensurando.
Múltiplo de una unidad.Unidad de medida obtenida multiplicando una unidad de medida dada por un número entero mayor que uno.Ejemplos.
El kilómetro es un múltiplo decimal del metro. La hora es un múltiplo no decimal del segundo.
Submúltiplo de una unidad Unidad de medida obtenida dividiendo una unidad de medida dada por un número entero mayor que uno Ejemplos.
El milímetro es un submúltiplo decimal del metro. Para el ángulo plano, el segundo es un submúltiplo no decimal del minuto.
Nombre Símbolo Valoryotta Y 1024 = 1 000 000 000 000 000 000 000 000
zetta Z 1021 = 1 000 000 000 000 000 000 000
exa E 1018 = 1 000 000 000 000 000 000
peta P 1015 = 1 000 000 000 000 000
tera T 1012 = 1 000 000 000 000
giga G 109 = 1 000 000 000
mega M 106 = 1 000 000
kilo k 103 = 1 000
hecto h 102 = 100
deca da 101 = 10
deci d 10-1 = 0,1
centi c 10-2 = 0,01
mili m 10-3 = 0,001
micro µ 10-6 = 0,000 001
nano n 10-9 = 0,000 000 001
pico p 10-12 = 0,000 000 000 001
femto f 10-15 = 0,000 000 000 000 001
atto a 10-18 = 0,000 000 000 000 000 001
zepto z 10-21 = 0,000 000 000 000 000 000 001
yocto y 10-24 = 0,000 000 000 000 000 000 000 001
Repetibilidad (de resultados de medición) Proximidad de la concordancia entre los resultados de las mediciones sucesivas del mismo mensurando, con las mediciones realizadas con la aplicación de la totalidad de las siguientes condiciones:
- El mismo procedimiento de medición.- El mismo observador.- El mismo instrumento de medición utilizado en las mismas condiciones.- El mismo lugar.- La repetición dentro de un período corto de tiempo.
La repetibilidad se puede expresar cuantitativamente con la ayuda de las características de la dispersión de resultados.
Reproducibilidad (de los resultados de medición). Proximidad de concordancia entre los resultados de las mediciones del mismo mensurando, con las mediciones realizadas haciendo variar las condiciones de medición.
Condiciones que se hacen variar pueden ser:- El principio de medición.- El método de medición.- El observador.- El instrumento de medición.- El patrón de referencia.- El lugar.- Las condiciones de uso.- El tiempo.
Incertidumbre de la medición. Parámetro asociado al resultado de una medición, que caracteriza la dispersión de los valores que podrían razonablemente, ser atribuidos al mensurando.
El parámetro puede ser, por ejemplo, una desviación estándar (o un múltiplo de ésta), o la mitad de un intervalo de nivel de confianza determinado.
La incertidumbre de medición comprende, en general, varios componentes. Algunos pueden ser evaluados a partir de la distribución estadísticas de los resultados de series de mediciones y puede ser caracterizado por las desviaciones estándar experimentales. Los otros componentes que también pueden ser caracterizados por las desviaciones estándar, son evaluados admitiendo distribuciones de probabilidad, según la experiencia adquirida o de acuerdo con otras informaciones.
Se entiende que el resultado de la medición es la mejor estimación del valor del mensurando, y que todos los componentes de la incertidumbre, incluyendo aquellos que provienen de efectos sistemáticos, tales que los componentes asociados a las correcciones y a los patrones de referencia, contribuyen a la dispersión.
Error (de medición). Resultado de un mensurando menos un valor convencionalmente verdadero del mensurando.
Error aleatorio. Resultado de una medición menos la media que resultaría de un número infinito de mediciones del mismo mensurando realizadas bajo condiciones de repetibilidad. Solo es posible determinar un estimado del error aleatorio.
Error sistemático. Medida que resultaría de un número infinito de mediciones del mismo mensurando realizadas bajo condiciones de repetibilidad menos un valor verdadero del mensurando.
Corrección. Valor agregado algebraicamente al resultado no corregido de una medición para compensar un error sistemático.
Instrumento de medición. Dispositivo destinado a ser utilizado para hacer mediciones solo o en conjunto con dispositivos complementarios.
Ejemplo: Instrumentos de medición indicadores: indicadores de carátula, calibrador universal, voltímetro. Instrumentos de medición registradores: Higrotermógrafo, barómetro.
Valor nominal. Valor redondeado o aproximado de una característica de un instrumento de medición que proporciona una guía para su uso.Ejemplo:
El valor de 100 ohm marcada en una resistencia patrón. El valor de 100 mm de longitud de un bloque patrón. El valor de 25 mm de diámetro de un anillo patrón.
Alcance nominal. Intervalo de la escala obtenida por una posición dada de los controles de un instrumento de medición.
Intervalo de medición. Modulo de la diferencia entre los dos límites de un alcance nominal.Ejemplo: para el alcance de -10 a 10m, el intervalo de medición es de 20m.
Valor de una división de la escala. Diferencia entre los valores correspondientes a dos marcas sucesivas de la escala.
Resolución. La diferencia más pequeña entre las indicaciones de un dispositivo indicador que pueda ser distinguido significativamente
Resolución efectiva: Lo que puede ver el ojo humano.
¿Alcance nominal? ¿Intervalo de medición? ¿Valor de una división de la escala? ¿Resolución?
Estabilidad. Amplitud de un instrumento de medición para mantener constante en el tiempo, sus características metrológicas.
Deriva. Variación lenta de una característica metrológica de un instrumento de medición.
Histéresis. Propiedad de un instrumento donde la respuesta a una señal de entrada depende de la secuencia de las señales de entrada (o los valores de las magnitudes de influencia) precedentes.
1.5 Diseminación de la Exactitud y Trazabilidad
Diseminación de la exactitud.
Cuando se tiene comparaciones entre patrones en forma descendente desde el patrón primario nacional o internacional hasta un determinado patrón usado en la industria para conocer en este último la desviación que existe con respecto al primero, esto corresponde a la diseminación de la exactitud.
Este concepto conlleva al deseo de que las medidas siempre tengan uniformidad, sean confiables y se integren en los niveles deseados manteniendo calibrados los patrones, aparatos e instrumentos de medición.
Trazabilidad. Propiedad del resultado de una medición o del valor de un patrón por la cual puede ser relacionado a referencias determinadas, generalmente a patrones nacionales o internacionales por medio de una cadena ininterrumpida de comparaciones teniendo todas, incertidumbres determinadas.
Notas: 1. Frecuentemente este concepto se expresa por el adjetivo trazable.2. La cadena ininterrumpida de comparaciones se llama cadena de trazabilidad.
Figura 2. Diseminación y trazabilidad
JUEGO DE BLOQUES PATRÓN GRADO DE EXACTITUD “K” y
“00” Marca: MITUTOYO Incertidumbre:
Intervalo de longitudes (mm)
Incertidumbre (nm)
0,5 hasta 10 ± 20 10 hasta 25 ± 22 25 hasta 50 ± 29 50 hasta 75 ± 39 75 hasta 100 ± 49
Certificado CENAM No.: CNM-CC-740-017/2011; CNM-CC-740-016/2011; CNM-CC-740-074/2011; CNM-CC-740-018/2011; Fecha de calibración: 2011-02-11; 2011-01-31; 2011-03-03; 2011-01-20. Vigencia 2 años
COMPARADOR ELECTROMECÁNICO DE
BLOQUES PATRÓN Marca: MITUTOYO Modelo: GBCD-100A Serie: 1051705 No. Ident.: CR-UM-LDI-CEB-01 Incertidumbre: Repetibilidad = 0.000m Reposicionamiento = 0.000 m Asimetría = 0.004 m Linealidad = 0.004 m Certificado CENAM No. CNM-CC-740-008/2011. Fecha de calibración: 2011-02-16 Vigencia 1 año
BLOQUES PATRÓN DEL USUARIO GRADO 0, 1, 2
Incertidumbre K = 2
Intervalo de longitudes
(mm)
Incertidumbre Acero (µm)
Incertidumbre Cerámica
(µm)
Incertidumbre Tungsteno
(µm) 0,5 hasta 10 ± 0,04 ± 0,05 ± 0,06 10 hasta 25 ± 0,04 ± 0,05 ± 0,07 25 hasta 50 ± 0,06 ± 0,07 ± 0,12 50 hasta 75 ± 0,09 ± 0,09 ± 0,18 75 hasta 100 ± 0,11 ± 0,12 ± 0,23
PATRONES NACIONALES DE LONGITUD Y TEMPERATURA
TERMOHIGRÓMETRO Marca: FLUKE. Serie: 1280331 081030708 No. Ident.: CR-UM-LDI-TEH-02 CR-UM-LDI-TER-01 Incertidumbre: ± 0,07°C. Informe No.: TM-0057-2011 Acreditación: T-37 Fecha de calibración: 2011-02-10 Vigencia 1 año.
2. Errores de Medición Aunque la medición no es exacta, es necesario establecer la exactitud con la cual fue realizada tal medición, para determinar el grado de exactitud de una medición es necesario cuantificar los errores inherentes al método de
medición, a las condiciones ambientales, al factor humano y a los instrumentos de medición, tratando de minimizar aquellos que se puedan, para obtener resultados de calidad.
Los errores pueden ser despreciables o significativos, dependiendo entre otras cosas de la aplicación que se le de a la medición.
Error = valor leído – dimensión real
Ejemplo, el diámetro exterior de un perno es de 20mm, se ha medido 5 veces los resultados se muestra en la tabla.
Estos errores pueden deberse a diferentes factores que pudieron influir durante la medición. Estos factores pueden ser:
Lo complejo de la pieza. El acabado superficial. La persona que realizó la operación (experiencia, capacidad, habilidad, etc.) Lugar y hora en donde se realice la medición. Las condiciones ambientales.
Los errores de un proceso de medición frecuentemente se clasifican en dos tipos
No. Lecturas Dimensión real
Operación Error
1 20.2 20 20.2 - 20 = 0.2
2 20.9 20 20.9 - 20 = -0.1
3 20.8 20 20.8 - 20 = -0.2
4 20.3 20 20.3 - 20 = 0.3
5 20.0 20 20.0 - 20 = 0
Tabla 3. Ejemplo, determinación del error
1. Errores sistemáticos (regulares o constantes). Obedecen a la presencia de una causa permanente y adquieren siempre igual valor cuando se opera en igualdad de circunstancias; pueden por lo tanto atenuarse o evitarse.
2. Errores Aleatorios (accidentales o fortuitos). Son aquellos que se originan por causas verdaderamente accidentales y se presentan indistintamente con diversas magnitudes.
Desde el punto de vista matemático, el error sistemático produce un cierto sesgo que es constante en las observaciones al menos en una serie de mediciones, mientras que el error accidental o aleatorio varía de una medición a otra y produce una variación aleatoria en las observaciones. Por ejemplo, los errores debidos a las imperfecciones de los instrumentos de medición son de tipo sistemático y los errores personales que comete cada observador al realizar sus mediciones son de tipo aleatorio. Los errores accidentales son causados por el azar.
2.1 Principales causas de los errores en la medición
Errores Aleatorios o Casuales (valor y signo desconocido)
Operador Aparato Medio Ambiente
Agudeza visual Juego Humedad
Salud Inercia Variaciones
SerenidadDefectos de fabricación
(no controlables) Polvo
Presión variable Fallas inesperadas en la operación
Variaciones de temperatura (no controlables)
Aproximaciones
Errores Sistemáticos o Constantes (valor y signo conocido)
Aparato Medio Ambiente
Defecto de construcción
Variaciones de temperatura (controlada)
Desajuste de datos Deformación mecánica (controlable)
Calibración
Tabla 4. Causas de errores aleatorios
Generalmente los errores en que se incurren al realizar cualquier medición pueden clasificarse en dos tipos: aquellos que pueden ser eliminados o minimizarse realizando el trabajo con cuidado y detalle, y aquellos inherentes al proceso de medición. Ver tablas 4 y 5.
2.2 Tipos de Errores
Atendiendo al origen donde se produce el error, puede hacerse una clasificación general de estos, en errores causados por el operador o el método de medición (errores humanos), errores causados por el instrumento de medición y errores causados por el medio ambiente donde se hace la medición.
2.2.1 Errores Humanos Los errores humanos son de gran repercusión en el resultado y tienen dos causas fundamentales:
2.2.1.1 Los errores de lectura.- Debido básicamente a la falta de concentración del operario.
2.2.1.2 Errores aritméticos.- Que se ocasionan cuando realizamos operaciones aritméticas para obtener el resultado final, por ejemplo un calibrador con vernier, micrómetro, etc.
Para eliminar este tipo de error se recomienda realizar la medición o las operaciones aritméticas por lo menos tres veces para verificar que los resultados coincidan.
2.2.1.3 Error por el uso de instrumentos no calibrados.- Instrumentos no calibrados o cuya fecha de calibración está vencida, así como instrumentos sospechosos de presentar alguna anormalidad en su funcionamiento no deben utilizarse para realizar mediciones hasta que no sean calibrados y autorizados para su uso.
2.2.1.4 Error por instrumento inadecuado.- Antes de realizar cualquier medición, es necesario determinar cuál es el instrumento o equipo de medición más adecuado para esa aplicación en particular; además de la fuerza de medición deben tenerse presente otros factores como:
Calidad de pieza a medir Tipo de medición (externa, interna, altura, profundidad, etc.) Tamaño de la pieza Exactitud deseada.
Tabla 5. Causas de errores sistemáticos
Cuando se miden las dimensiones de una pieza de trabajo la exactitud de la medida depende del instrumento de medición elegido, por ejemplo, si se ha de medir el diámetro exterior de un producto de hierro fundido, un calibrador vernier sería suficiente; sin embargo, si se va a medir un perno patrón, aunque tenga el mismo diámetro del ejemplo anterior ni un micrómetro de exteriores tendría la exactitud suficiente para este tipo de aplicaciones, por tanto, debe usarse un equipo de mayor exactitud cómo puede ser una maquina unidimensional
Se recomienda que la resolución del instrumento respecto a la tolerancia de la característica a medir sea de 10 a 1 para un caso ideal y de 5 a 1 en el peor de los casos. Si no es así la tolerancia se combina con el error de medición y por lo tanto un elemento bueno puede diagnosticarse como defectuoso y viceversa.
Por ejemplo: Si queremos medir una característica con una tolerancia de ± 0.1 mm la resolución del instrumento utilizado debe ser 0.01 mm.
2.2.1.5 Error por método de sujeción del instrumento.- El método de sujeción del instrumento puede ser causa de error como lo muestra la figura 3, donde un indicador de carátula está sujeto a una distancia muy grande del soporte y al hacer la medición la fuerza ejercida provoca una desviación del brazo.
La mayor parte del error se debe a la deflexión del brazo no del soporte y para minimizarlo se debe colocar siempre el eje de medición lo más cerca posible al eje del soporte.
2.2.1.6 Error por la fuerza ejercida al efectuar mediciones.- La fuerza ejercida al efectuar una medición puede provocar deformaciones en la pieza a medir, en el instrumento o en ambos, por lo que se recomienda tener presente este concepto para hacer una buena elección del instrumento de medición cuando se va a realizar una medición. Por ejemplo, en vez de utilizar un micrómetro con trinquete o tambor de fricción puede requerirse una de baja fuerza de medición.
Errores de alineación
2.2.1.7 Error de coseno.- Este error lo provoca la colocación incorrecta de las caras de medición del instrumento con respecto a la pieza a medir. En general, casi todos los errores de posicionamiento se reducen a la colocación de la escala de medición inclinada respecto a la dirección real de la pieza, por lo que son función del coseno del ángulo de inclinación y se le conoce como errores de coseno.
En muchos casos, el ángulo es tan pequeño que el error resulta despreciable, pero puede ser significativo al crecer la longitud que se mide, y complicarse si intervienen también las características del instrumento de medida. Figura 5.
Soporte
Brazo
Figura 3. Error de sujeción
2.2.1.8 Error de paralaje.- En los instrumentos analógicos, los datos de una escala graduada. La evaluación del valor depende de la apreciación, interpolación, coincidencia, etcétera del metrólogo. Si además las dos escalas o elementos que componen el sistema de medición están situadas en diferentes planos, aparece el error de paralaje, es decir cuando la visión del metrólogo no es perpendicular a estos planos. Figura 6.
Para disminuir el error de paralaje en los instrumentos de carátula de alta exactitud, se suele colocar un espejo en el plano de la escala fija, y al hacer la lectura se debe tener la precaución de que coincida la aguja móvil con su imagen sobre el espejo.
Como el error aumenta proporcionalmente con la separación de las escalas o aguja indicadora y escala, otra forma de reducir este error es disminuyendo lo más posible dicha distancia.
Figura 5. Error de coseno
Figura 6. Error de paralaje
2.2.1.9 Error de ABBE.- Gran parte de la inexactitud de un instrumento de medición de metrología dimensional puede evitarse manteniendo en mente la ley de ABBE: “la máxima exactitud de medición es obtenida si el eje de medición es el mismo que el eje de la escala”. Dos instrumentos de uso industrial en metrología dimensional son el micrómetro y el calibrador. El primero es más exacto que el segundo debido a que la escala de medición es colineal con el eje de la pieza a medir y por lo tanto no hay error de ABBE. Figura 9.
Figura 7. Error de paralaje
Figura 8. Error de paralaje
Donde: A = altura de las mordazas (se obtiene de normatividad).W = Tamaño del cursor (se obtiene de normatividad).Huelgo = se obtiene de normatividad
2.2.2 Errores Debidos a las Condiciones Ambientales
2.2.2.1 Temperatura.- En mayor o menor grado, todos los materiales que componen tanto las piezas por medir como los instrumentos de medición, están sujetos a variaciones longitudinales debidas a cambios de temperatura. En el caso de la metrología dimensional esto reviste una importancia esencial, esto es debido al fenómeno físico conocido como dilatación lineal. La mayoría de los materiales y en especial los metálicos experimentan una dilatación reversible al aumentar la temperatura y son proporcionales a la longitud, la constante de proporcionalidad es conocida como coeficiente de expansión térmica. Valores comunes para los principales materiales son los siguientes:
Acero Bronce Aluminio Cerámica Granito11,5 * 10-6 mm/oC 18,0 * 10-6mm/oC 10,6 * 10-6mm/oC 9,2 * 10-6 mm/oC 6,3 * 10-6mm/oC
Figura 9. Error de ABBE
Figura 10. Fórmula para determinar incremento de temperatura
2.2.2.2 Humedad.- Debido a los óxidos que se pueden formar por humedad excesiva en las caras de medición del instrumento o en otras partes o a las expansiones por absorción de humedad de algunos materiales, etcétera, se establece como norma una humedad relativa de 50% ±10%.
2.2.2.3 Polvo.- Los errores debidos a polvo o mugre se observan con mayor frecuencia de lo esperado, algunas veces alcanza el orden de 3 micrómetros. Para obtener medidas exactas se recomienda usar filtros para aire que limite la cantidad y el tamaño de las partículas de polvo ambiental.
2.2.3 Errores por el instrumento o equipo de medición
Las causas de errores atribuibles al instrumento, pueden deberse a defectos de fabricación (dado que es imposible construir patrones perfectos), estos pueden ser deformaciones, falta de linealidad, imperfecciones mecánicas, falta de paralelismo, etcétera.
El error instrumental tiene valores máximos permisibles, establecidos en normas o información técnica de fabricantes de instrumentos y puede determinarse mediante calibración.
Debe contarse con un sistema de control que establezca, entre otros aspectos, periodos de calibración, criterio de aceptación y responsabilidades para la calibración de cualquier instrumento y equipo de medición.
Figura 11. Fórmula para determinar incremento de temperatura
Lo + ΔL = L0 (1+LαΔT)
3. Instrumentos Básicos para Medir Longitud
3.1 Calibradores
El calibrador vernier es un instrumento de medición directa, constituido fundamentalmente por una escala principal o cuerpo, una escala vernier que es la escala máxima la cual se desliza a lo largo de la escala principal en la misma dirección y puntas de medición.
La exactitud del instrumento depende en gran parte de la rectitud de la escala principal y de la uniformidad de la alineación del cursor
La escala vernier es una escala móvil que disminuye la mínima división de la escala principal. Su principio de funcionamiento consiste en la coincidencia de los trazos correspondientes de las dos escalas.
En el calibrador vernier la escala posee una longitud total de 9 mm, en ella se encuentran 10 divisiones. La distancia entre dos trazos consecutivos del vernier es de 9/10 = 0.9 mm. Por lo tanto, el intervalo entre las divisiones del vernier será menor que el intervalo de las divisiones de la escala principal en 0.1 mm y esta será la mínima división.
Intervalo de escala del cuerpo principal (mm)
Tipos de graduación de la escala Vernier
Mínima división de la escala (mm)
1
Divide 9 mm en 10 partesDivide 19 mm en 10 partes 0,1
Divide 19 mm en 20 partesDivide 39 mm en 20 partes 0,05
Divide 49 mm en 50 partes 0,02
El tipo de escala de un calibrador vernier, se especifica en la norma mexicana NMX-CH-02-1993. Los calibradores vernier se clasifican en dos clases los de tipo “M” y los de tipo “CM”
Tabla 6. Intervalo de medición de calibradores
Figura 12. Calibrador tipo vernier
Los de tipo “M” son los más usados ya que generalmente son de intervalo de medición de 150 mm, 200 mm, y 300 mm.
Existen diversos tipos de calibradores, sin embargo los más comunes son el tipo M estándar, otro tipo es el calibrador de carátula cuyo mecanismo está basado en una cremallera y un piñón, lo cual facilita la lectura, sin embargo esta característica requiere que se ponga de mayor atención en su manejo ya que se puede desajustar la aguja por falta de presión entre el piñón y la cremallera o debido al polvo o rebabas que harán que el piñón salte dientes de la cremallera con el consecuente desplazamiento de la aguja.
Otro tipo es el calibrador electrodigital cuyo funcionamiento está basado en un sistema de detección de desplazamiento tipo capacitancia.
Los de tipo “MC” están diseñados en forma tal que las puntas de medición de exteriores pueden utilizarse en la medición de interiores. Generalmente cuentan con un dispositivo de ajuste fino del curso. A diferencia del calibrador tipo M las puntas no están achaflanadas, por lo que tiene una mayor resistencia al desgaste y a daños.
Figura 13. Calibrador tipo “M”
Figura 14. Calibrador tipo “CM”
Figura 14. Medición de exteriores
Medición de exteriores con calibrador vernier.
- Mantenga firme sobre la mano el calibrador vernier mientras que con la otra sujete el mensurando.- Mantenga el mensurando lo más cerca posible de la superficie de referencia o escala principal del calibrador
vernier.- Asegúrese de que las caras de medición de exteriores haga contacto adecuado con el mensurando.- Anote los valores obtenidos y repita la operación por lo menos tres veces.
Medición de interiores con el calibrador vernier.
- Tome la medida cuando las puntas estén lo más adentro posible de agujero o de la ranura que quiera medir.- Cuando realice la medición de un diámetro interior tome el valor cuando esté en su máximo.- Cuando esté midiendo el ancho de una ranura tome la lectura cuando el valor indicado sea el mínimo.
Medición de profundidades.
- Sujete firmemente el calibrador vernier- Tome la lectura cuando la cara inferior del cuerpo principal esté en contacto uniforme con el mensurando y/o
la superficie de referencia.
Figura 16. Medición de interiores
Figura 15. Medición de exteriores
Medición de peldaño.
- Tome la medida cuando el peldaño este en contacto adecuado con la pieza por medir.-
3.1.1 Mantenimiento de Calibradores
Con el objeto de obtener el mejor rendimiento de estos instrumentos y asegurar su uso económico es esencial realizar un efectivo control de mantenimiento.
Almacenamiento
El lugar no debe estar expuesto al polvo, alta humedad o fluctuaciones extremas de temperatura. Cuando almacene calibradores de gran tamaño que no sean utilizados con frecuencia, aplique
líquido antioxidante al curso y caras de medición; procure dejar éstas algo separadas. Al menos una vez al mes verifique el movimiento del cursor. Evite la entrada de vapores de productos químicos.
Figura 17. Medición de profundidad
Figura 18. Medición de peldaño
Coloque los calibradores de modo que el brazo principal no se flexione y el vernier no resulte dañado.
Mantenga un registro de los calibradores que salgan del almacén hacia el área productiva. Designe a un apersona encargada de los calibradores.
Inspección periódica
Debe realizarse una inspección de una a dos veces por año esto dependerá la frecuencia de uso.
Cuidados al medir con calibrador vernier:
1) No lo utilice para marcar o hacer ralladuras.2) Limpie la escala completa antes de utilizarlo, así como las caras de medición3) Coloque la pieza a medir lo más cerca posible a la superficie de referencia.4) Al medir diámetros internos, lea en la escala el valor máximo.5) No aplique demasiada fuerza al medir, simplemente debe hacer contacto con las caras.6) Después de utilizarlo, limpie y lubrique las guías del instrumento.7) Considere al medir la transparencia térmica de las manos del usuario al calibrador vernier.8) Revise que el cursor se mueva suavemente, no debe sentirse flojo o con huelgo.9) Después de usarlo, limpie las manchas y huellas digitales del calibrador con un trapo suave y seco.
Errores de medición con calibradores
1. Errores inherentes a la construcción con calibradores Error de ABBE. Desgaste de las puntas de medición. Errores en las mediciones de diámetros interiores.
2. Lectura del vernier y paralaje Error de graduación un componente del error instrumental. Habilidad del ojo para reconocer el alineamiento de dos graduaciones. Error de paralaje.
3. Error por expansión térmica.4. Fuerza de medición.
3.2 Micrómetros
El micrómetro es un instrumento que mide el desplazamiento del husillo cuando esté es movido mediante el giro de un tornillo (tambor). El desplazamiento lineal del husillo es amplificado por la rotación del tornillo y el diámetro del tambor; las graduaciones alrededor de la circunferencia del tambor permiten leer un cambio pequeño en la posición del husillo.
El micrómetro de exteriores consta de un arco, husillo, tope fijo (yunque), tope móvil (husillo), cilindros exteriores e interiores, tambor, trinquete (matraca) y freno (mecanismo de fricción). Figura 19
Los más comunes y de mayor uso son fabricados en intervalos que van de 0 a 25 mm, 25 a 50 mm, 50 a 75 mm, 75 a 100 mm, generalmente viene acompañados con una barra de acero circular de verificación, una llave de ajuste y estuche de protección.
Equipo de calibración: los micrómetros son calibrados con bloques patrón de grado de exactitud “1” ó “2” (conforme a la Norma Mexicana NMX-CH-86), planos y paralelas ópticas, lámpara de luz monocromática, guantes de algodón, juego de accesorios y productos de limpieza.
Debido a su amplia utilización en la planta productiva, los micrómetros deben ser calibrados en períodos cortos de tiempo.
Recomendaciones para el uso de micrómetro:
1. Seleccione el micrómetro que mejor se acerque a la aplicación, intervalo y exactitud requerida.2. No gire el micrómetro violentamente, no lo deje caer y evite golpes fuertes.3. Limpie el husillo y las caras de medición, use papel o tela libre de pelusas.4. Cuando monte el micrómetro sobre un soporte, asegúrese de que el cuerpo del micrómetro este sujeto al
centro y que la sujeción no haya sido muy fuerte.5. Permita la estabilización térmica del instrumento y del mensurando ya que un cambio de 10ºC en una
longitud de 100mm de acero, la pieza cambiara su longitud en 0,012mm. 6. Limpie las puntas con un pedacito de papel. 7. Utilice el trinquete para no forzar el tornillo.
Figura 19. Micrómetro
Figura 20. Componentes del micrómetro
8. Limpie las caras de medición después de ser usado.9. Lubrique las caras con aceite limpio, no las deje completamente cerradas deje un espació entre las caras
para evitar oxidación.
3.3 Indicadores Los indicadores (también llamados comparadores de carátula o palpadores), son instrumentos ampliamente utilizados en la industria para realizar mediciones dimensionales. Su principio de funcionamiento es mecánico ya que, un pequeño desplazamiento del husillo (palpador) es amplificado mediante un tren de engranes para mover en forma angular una aguja indicadora sobre la carátula del dispositivo. Es un instrumento fácil de leer y adaptable a varias aplicaciones, existen indicadores con resolución de milímetros y hasta menores a 1 m y la fuerza de palpación varía según su exactitud de 8 a 0.5 N. Son de amplificación mecánica o amplificación electrónica, requieren de soporte, soporte rígido y planos de referencia confiable (planitud conocida). Figura 22
Figura 21. Recomendación de uso
Figura 22. Partes de un indicador
Norma ISO-R-433 y JIS B 7503 referente a indicadores los clasifica de la siguiente manera.
I. Indicadores tipo vástago.
Tipo 1
Intervalo máximo de medición: 5mm y 10mm
Mínima división de la escala. 0,01mm
Fuerza de medición: 1,5 N máxima
Tipo 2
Intervalo máximo de medición: 1mm, 2mm y 5mm
Mínima división de la escala: 0,002mm y 0,001mm
Fuerza de medición: 1,5 N máxima
II. Indicadores tipo palanca.
Tipo de cambio por palanca
Intervalo máximo de medición: 0,5mm, 0,8mm y 1mm
Mínima división de la escala. 0,01mm
Fuerza de medición: 0,5 N máxima
Tipo de cambio automático
Intervalo máximo de medición: 0,2mm y 0,28mm
Figura 23. Indicadores de carátula
Mínima división de la escala: 0,002mm
Fuerza de medición: 0,5 N máxima
Los indicadores son utilizados como comparadores mecánicos, es decir mediante un patrón se determina una dimensión y posteriormente se compara dicha dimensión con una pieza de dimensión desconocidas, para ello se requiere de un cuerpo rígido que soporte al indicador de cuadrante y de un plano de referencia.
El error que generalmente se comete es el de coseno o posicionamiento, con respecto al movimiento del vástago ya que si es montado con un ligero ángulo de inclinación entonces estará midiendo el desplazamiento en diagonal y no en forma vertical.
Cuidados generales
No aplique fuerza excesiva al indicador de carátula No deje caer ni golpear el indicador Use la punta de mayor contacto que mejor sirva o se ajuste a su aplicación. Reemplace las puntas de contacto gastadas Elimine cualquier clase de polvo o suciedad antes de usar el indicador Use la palanca del indicador para levantar el husillo Cuando monte el indicador en un soporte o dispositivo, sujete el vástago tan cerca de la carátula
como sea posible. Tratar de que el ángulo de inclinación se mínimo Use un soporte rígido para montar el indicador y ajústelo de tal forma que el centro de gravedad
quede en la base Coloque el indicador de modo que la distancia entre éste y la columna sea mínima Use un contrapeso si es necesario para que el centro de gravedad quede en la base Después de usarlo, elimine el polvo y las huellas digitales del indicador con un trapo suave y seco.
Figura 24. Indicadores de carátula tipo palanca
3.4 Bloques patrón
Definición: medida materializada de sección rectangular o cuadrada hecha de material resistente al desgaste, con un par de superficies de medición planas y paralelas entre sí, las cuales pueden ser adheridas a la superficie de medición de otros bloques patrón (bp) para hacer ensambles compuestos o a una superficie de platinas auxiliares de acabado similar para mediciones de longitud.
Los bloques patrón son el primer eslabón de la cadena de diseminación de la unidad de longitud, reflejada en objetos físico. La norma mexicana para los bloques patrón es la NMX-CH-3650.
La nomenclatura de las superficies de los bp se clasifica en superficie de medición derecha e izquierda y caras laterales. Cada bloque patrón deberá estar marcado permanentemente con su longitud nominal y deberá ser permanente e individualmente identificable.
Exactitud de los bloques patrón
Clasificación UsoGrado
JIS-ISO-DIN
Referencia Investigación tecnológica y científica.Calibración de bloques patrón grado 0,1 y 2 K
Calibración
Calibración de instrumentos de mediciónCalibración de bloques patrón (con el grado o se pueden calibrar bloques grado 1 y 2; con el grado 1 se pueden calibrar bloques grado 2).
0 1
Inspección Inspección de partes, máquinas, montajes.Calibración de instrumentos de medición 1 2
Taller Fabricación de dispositivosMontaje de herramientas de corte.
2
Tabla 7. Recomendación de uso de los bloques patrón
Figura 25. Exactitud de bloques patrón
Tolerancia de planitud
La planitud de las caras de medición de los bloques patrón puede determinarse mediante interferómetria, pero un método practico es utilizar planos ópticos. Ver figura 26.
Después de limpiar la superficie por inspeccionar, el plano óptico se coloca sobre la cara de medición y se ejerce una pequeña presión en uno de sus extremos para que quede ligeramente inclinado y entonces aparecerán franjas de interferencia. La curvatura de las franjas se utiliza para determinar el valor de planitud de la superficie inspeccionada.
Procedimiento de adherencia
Existen diferentes maneras de obtener un tamaño específico adhiriendo varios bloques patrón. Los siguientes puntos deben tenerse presente cuando se adhieran bloques patrón.
1. Utilice el mínimo número de bloques patrón para formar la medida deseada.2. Asegúrese de que no haya raspaduras, rebabas y óxido sobre las caras de medición y que esto
dificulta la adherencia, dichas caras deben de verificarse con un plano óptico. 3. Con la combinación de un juego de bloques patrón de 112 piezas se pueden lograr longitudes
entre 2 mm y 202 mm con paso de 0.001 mm.4. Para apilar bloques debemos de comenzar por eliminar los dígitos de derecha a izquierda.
Figura 26. Esquemas de Planitud en bloques
Ejemplo: obtener una longitud de 23.867 mm
Primero eliminamos el 0.007, lo cual lo logramos con un bloque de 1,007 y se lo restamos al valor que requerimos.
23,867
-1,007
=22,86
Ahora eliminamos el 0,06. En este paso debemos de buscar que el resultado sea múltiplo de 5 ya que la serie que nos ayuda a eliminar las décimas de milímetro viene con este paso, el bloque seleccionado es 1.36
22,86
-1.36
=21.5
Faltando solo un valor de 21.5 mm 21.5
-21,5
=0,0
Figura 28. Adherencia de bloques
4. Particularidades de la Calibración
4.1 Conceptos
Calibración.- Conjunto de operaciones que establecen en condiciones especificadas, la relación entre los valores de las magnitudes indicadas por un instrumento de medición o sistema de medición o los valores representados por una medida materializada o un material de referencia y los valores correspondientes de la magnitud realizada por los patrones.
Nota:
El resultado de una calibración permite atribuir a las indicaciones los valores correspondientes al mensurando o determinar las correcciones para aplicarlas a las indicaciones.
Una calibración puede también determinar otras propiedades metrologícas tales como los efectos de magnitudes de influencia.
El resultado de una calibración puede ser entregado en un documento, algunas veces llamado certificado de calibración o informe de calibración.
La calibración consiste en comparar un instrumento de medición o un patrón de trabajo, bajo condiciones especificas, contra un patrón de referencia, indicando cuáles son sus diferencias por medio de los resultados. Esto permite estimar los errores de indicación del instrumento de medición, del patrón o la asignación de valores a los trazos sobre escalas arbitrarias en instrumentos o el valor a medidas materializadas, etcétera.
Todo instrumento de medición y patrón de medida debe calibrarse antes de ser puesto en servicio. Dependiendo del instrumento o patrón de que se trate, la calibración debe efectuarse en el lugar de origen o después de haberse instalado en el laboratorio. Si el equipo puede ser trasportado sin que su exactitud se ponga en riesgo, es razonable aceptar que las calibraciones se efectúen en el sitio de origen por un laboratorio de metrología acreditado o reconocido oficialmente y con trazabilidad a patrones primarios nacionales.
Patrón.- Medida materializada, instrumento de medición, material de referencia o sistema de medición, destinado a definir, realizar, conservar o reproducir una unidad o uno o varios valores de una magnitud para servir de referencia.
Patrón internacional.- Patrón reconocido por un acuerdo internacional para servir internacionalmente como base para la asignación de valores a los otros patrones de la magnitud de interés.
Patrón nacional.- Patrón reconocido por una decisión nacional en un país, para servir como base en la asignación de valores a otros patrones de la magnitud de interés.
Patrón primario.- Patrón que es designado o ampliamente reconocido, que presenta las más altas cualidades y cuyo valor es establecido sin referirse a otros patrones de la misma magnitud.
Nota: El concepto de patrón primario es válido tanto para las magnitudes de base como para las magnitudes derivadas.
Patrón secundario.- Patrón cuyo valor es establecido para comparación con un patrón primario de la misma magnitud.
Patrón de referencia.- Patrón, en general, de la más alta calidad metrológica disponible en un lugar dado o en una organización dada de donde derivan las mediciones que ahí son realizadas.
Patrón de trabajo.- Patrón utilizado comúnmente para calibrar o controlar medidas materializadas, de los instrumentos de medición o de los materiales de referencia.
Nota:
Un patrón de trabajo, habitualmente se calibra con respecto a un patrón de referencia. Un patrón de trabajo utilizado comúnmente para asegurar que las mediciones se llevan a cabo
correctamente es llamado patrón de control.
Patrón de transferencia.- Patrón utilizado como intermediario para comparar patrones.
Patrón viajero.- Patrón, algunas veces de construcción especial destinado a ser transportado a diferentes lugares
4.2 Requisitos indispensables para la calibración
Contar con un espacio apropiado que cumpla con las siguientes condiciones ambientales que influyen en las mediciones en términos de exactitud y confiabilidad en la medición.
Temperatura.- para obtener un mejor resultado se debe ambientar el laboratorio y los instrumentos a calibrar a la temperatura de 20 ºC ± 1 ºC.
Humedad relativa.- Se debe mantener a 50% ± 10 % ya que la humedad excesiva puede oxidar superficies importantes de los aparatos, instrumentos o patrones.
Polvo.- Tamaño de las partículas de polvo deberá estar entre 1,0 m y 50 m.
Iluminación.- Se recomienda tener una intensidad de 1 000 lux a la altura del banco o superficie de lectura, las lámparas deben estar distribuidas para evitar sombras en el momento de realizar las mediciones, mejorando directamente las condiciones de trabajo personal.
Vibraciones.- Las tolerancias permisibles dependen del tipo y diseño de los instrumentos de medición instalados, así como de la naturaleza y exactitud de la propia medición que se lleva a cabo en el laboratorio (primario o secundario). Las frecuencias de máxima amplitud no deben ser mayores de 2Hz, percepción sensorial de 2Hz es aproximadamente (2,8 X 2,54 X 10-2 X 10) mm = 0,07 mm de desplazamiento pico a pico. No sobrepasando en ningún caso de 0,18 mm de desplazamiento.
Electricidad y campos magnéticos.- no existen requerimientos especiales, sólo para instrumentos de medición electrónicos debidamente protegidos de las perturbaciones eléctricas por medio de accesorios especiales, evitando el desajuste de estos aparatos al momento de realizar las mediciones.
Tensión.- Es necesario que los instrumentos de mediciones eléctricas, el máximo cambio de voltaje en promedio sea menor a 1%, considerando que los transistores se mantengan al mínimo y trabajen con un factor de potencia del 95 %, con carga para que no baje su eficiencia en el momento de realizar mediciones.
Nota: Podrán ser autorizadas condiciones ambientales diferentes a las recomendadas siempre y cuando se demuestre que éstas no afectan las mediciones o que el fabricante original del equipo de calibración así lo recomiende.
El laboratorio debe contar con los aparatos, patrones e instrumentos de medición necesarios para llevar a cabo las calibraciones o mediciones, además deberán estar calibrados ya sea por laboratorios acreditados o por laboratorios primarios nacionales o extranjeros, para que así se pueda garantizar fácilmente su trazabilidad.
Tener métodos de medición y/o calibración por escrito que sean adecuados a las características de los aparatos, instrumentos de medición y patrones con que cuenta el laboratorio. En caso de no ser así, se deben presentar evidencias objetivas de están plenamente documentados y validados, o sea, que son reproducibles y repetibles con sus respectivos análisis estadísticos.
4.3 Determinación de los periodos recomendables para la calibración
Periodos de calibración recomendados en México por el grupo de evaluadores del área Dimensional del Sistema Nacional de Calibración
Instrumentos de Medición
Período de calibración
Años
Referencia Trabajo
1. Lámpara patrón, interferómetros 4 1
2. Bloques patrón longitudinales
Grado K ó 00 2 1
Grado 0, 1 y 2 1 6 meses
Accesorios para bloques patrón 1 6 meses
Columnas de bloques patrón 2 1
Barras patrón de extremos 1 6 meses
3. Patrones de diámetro
Cilíndricos, planos, cónicos, esperas patrón 1 6 meses
Reglas patrón de trazos 2 1
Anillos patrón 1 6 meses
4. Medidores directos de longitud
Reglas de trazo y cintas métricas 1 6 meses
Calibradores vernier 6 meses 4 meses
Máquina de medición por coordenadas 1 1
Cabezas micrométricas 1 6 meses
Micrómetros de exteriores 6 meses 4 meses
Micrómetros de interiores de dos contactos 6 meses 4 meses
Micrómetros de interiores de tres contactos 6 meses 4 meses
Micrómetros especiales 6 meses 4 mese
Calibres de límites lisos 6 meses 4 mese
5. Comparadores de longitud y accesorios:
Comparadores – indicadores de carátula mecánicos 6 meses 4 meses
Comparadores neumáticos 6 meses 4 meses
Comparadores electrónicos 1 6 meses
Comparadores ópticos 1 6 meses
Soportes de comparador 1 6 meses
Accesorios de comparador 1 6 meses
Calibrador de comparadores – indicadores de carátula 1 1
6. Patrones angulares
Polígonos patrón 4 4
Bloques patrón angulares 2 1
7. Instrumentos de medición de ángulos
Transportador 1 4 meses
Platos divisores y/o inclinables 1 1
Reglas y mesas de senos 2 1
Niveles, plomadas (se incluyen los electrónicos) 2 1
Autocolimador
4 2
8. Medidores de rectitud, planitud, alineación y perpendicularidad
Reglas de rectitud, biseladas de cantos, de control, de rectitud, paralelas y triangulares
2 1
Escuadras de perpendicularidad y de montaje 2 2
Cilindros de perpendicularidad 2 1
Patrones de planitud de vidrio, calibres de cristal, calibres plano – paralelo y disco interferencial
4 2
Mesa de planitud de materiales pétreos 2 1
Mesa de planitud metálicas 1 1
Reglas ópticas 4 2
9. Medidores de redondez
Patrón de redondez 2 1
Maquina de medición de redondez 1 1
10. Medidores de roscas
Patrones de micrómetros de roscas 2 1
Calibres de límites para roscas 6 meses 4 meses
Micrómetros de roscas 1 6 meses
Medidores de paso de roscas 1 6 meses
Medidores de diámetros de roscas 1 6 meses
Perfil para roscas 1 6 meses
11. Medidores de engranes
Calibrador con vernier de engranes 6 meses 4 meses
Medidora de perfil de engranes 2 1
Medidora de concentricidad 2 1
Medidora de concentricidad por rodadura 2 1
Perfiles y accesorios para engranes 1 6 meses
12. Medidoras de formas en general
Perfilómetros 2 1
Microscopios 2 1
Proyectores de perfiles 2 1
Plantillas de forma y retículas 2 1
Calibres de límites de forma 1 6 meses
Plantillas para comparadores 1 6 meses
13. Medidores de calidad superficial
Patrones de rugosidad 1 6 meses
Rugosímetro de palpador 1 6 meses
14. Varios
Componentes mecánicos, aditamentos, soportes, trípodes, etc. 1 1
Accesorios electrónicos, neumáticos, ópticos, etc. 1 1
Directrices para determinar los periodos de calibración para equipo de medición según la norma NMX-CC-017/1 IMNC o equivalente ISO 10012.
Tabla 8. Recomendación periodos de calibración
Existe un gran número de factores que influyen en la frecuencia de calibración. Los principales son los siguientes:
Tipo de equipo. Recomendaciones del fabricante. Tendencia de los datos obtenidos de los registros de calibración previos. Registros históricos del mantenimiento y servicio. Frecuencia y la severidad del uso. Tendencia al desgaste y deriva. La frecuencia de revisión cruzada contra otro equipo de medición, particularmente de patrones. Frecuencia y formalidad de las verificaciones intermedias. Condiciones ambientales. Exactitud de la medición requerida. La gravedad de las consecuencias por tomar como correcto un valor de medición incorrecto,
debido a fallas en el equipo de medición. Costo de la calibración.
Es obvio que en vista de todos estos factores, no puede elaborarse una lista de intervalos de calibración que pudiera ser aplicada universalmente. Es más útil presentar directrices de cómo los periodos de calibración pueden establecerse y entonces revisarlos una vez que la calibración se ejecute de manera rutinaria.
Existen dos criterios básicos y opuestos que requieren analizarse al decidir los períodos de calibración para cada elemento del equipo de medición los cuales son:
Es conveniente que el riesgo de que un equipo esté fuera de especificación cuando lo están usando sea el mínimo.
Es conveniente mantener al mínimo el costo de las calibraciones.
Por lo tanto, los métodos que se presentan para la selección inicial de los periodos de calibración y para el reajuste de éstos están basados en la experiencia.
Selección inicial de los periodos de calibración.- La base para la determinación inicial del periodo de calibración es invariable la llamada intuición ingenieril. Alguien con experiencia en mediciones en general o en particular del equipo de medición a ser calibrado y de preferencia con conocimientos de los periodos empleados por otros laboratorios, hace una estimación para cada elemento del equipo o grupo de elementos, del periodo de tiempo que probablemente permanezca dentro de la tolerancia de calibración.
Los factores a considerar son:
Las recomendaciones del fabricante del equipo. Las recomendaciones de expertos. La influencia del ambiente. La exactitud de la medición requerida.
Métodos de revisión de los periodos de calibración.- Existen varios métodos para revisar los periodos de calibración, los cuales se definen por:
Los equipos son tratados de manera individual o por grupo. Los no cumplen con sus especificaciones debido a la deriva o por su uso.
Método 1: Ajuste automático o de escalera.-
Los resultados de la calibración se comparan con los las tolerancias del instrumento, si los resultados se encuentran dentro de los límites el periodo de calibración se alarga pero si los resultados se encuentran muy próximos a estos límites el periodo de calibración se reduce.
Esta respuesta “escalonada” puede producir un rápido ajuste de los intervalos y es llevado a cabo fácilmente sin esfuerzo administrativo.
Método 2: Carta de control.-
Se eligen los mismos puntos a calibrar en cada calibración y se grafican los resultados contra el tiempo. De esta grafica se calcula la dispersión y la deriva, ya sea la deriva media sobre un periodo de calibración o en el caso de equipo muy estable, la deriva sobre varios periodos.
Método 3: Instrumentos similares.-
Los elementos del equipo de medición se agrupan inicialmente en base a la marca, su confiabilidad y su estabilidad esperada, se asigna al grupo un periodo de calibración inicialmente sobre la base de la intuición ingenieril.
En cada grupo, al término de la calibración se determina la cantidad de equipos que se detectaron con errores excesivos o en estado de no conformidad y se expresa en porcentaje referido a la cantidad total de instrumentos de ese grupo.
Si el porcentaje de equipos no conforme es excesivamente alta, es conveniente que el lapso de calibración se reduzca. Si un subgrupo particular de equipos (de un tipo o fabricación particular) no se comporta como el resto de los del grupo, este subgrupo debe ser cambiado a otro con un periodo de calibración diferente.
Es conveniente que el periodo durante el cual se evalúa el desempeño sea el más corto posible y compatible con la obtención de una cantidad estadísticamente significativa de equipos calibrados para un determinado grupo.
Si la proporción de elementos no conformes en determinado grupo resulta muy baja, puede ser económica justificable incrementar el lapso de calibración.
Método 4: Tiempo “en horas de operación”.-
Esta es una variación de los métodos anteriores. El método básico permanece intacto pero el lapso de calibración se expresa en horas de uso en lugar de meses calendario o tiempo transcurrido. El elemento del equipo se puede acondicionar con un indicador de tiempo transcurrido y se vuelve a calibrar cuando el indicador alcanza un valor especificado.
La ventaja teórica importante de este método es que el número de calibraciones realizadas y por lo tanto el costo de las calibraciones varían en proporción directa con el tiempo de operación del equipo. Además, hay una verificación automática de la utilización del equipo.
Desventajas practicas:
Conviene que el método no sea usado cuando se tenga conocimiento que el equipo deriva o se deteriora en almacenamiento o cuando es manipulado o cuando ha estado sujeto a cierto número de ciclos cortos de encendido y apagado; en cualquier caso es conveniente tener un respaldo de tiempo calendario.
El costo inicial de la compra e instalación de medidores de tiempo es alto y puesto que los usuarios pueden interferirlos, se requiere de una supervisión que incrementa los costos.
Es más difícil lograr un flujo de trabajo continuo con este método que con los otros que se han mencionado, ya que el laboratorio desconoce la fecha de la próxima calibración.
Método 5: Prueba en servicio o prueba de la “caja negra”.-
Este método es complementario a la calibración completa. Puede proporcionar información parcial útil sobre las características del equipo de medición entre calibraciones completas y puede dar una guía sobre que tan apropiado es el programa de calibración.
Es particularmente aplicable a instrumentos y tableros de prueba complejos. Los parámetros críticos se inspeccionan frecuentemente (una o más veces al día) con equipo de calibración portátil o preferentemente con una caja negra fabricada específicamente para inspeccionar los parámetros seleccionados. Si se encuentra que el equipo no está conforme al revisarse con la caja negra, se envía a calibración completa.
Aunque teóricamente el método tiene una alta confiabilidad, es ligeramente ambiguo pues el equipo podría estar fallando en algún parámetro que la caja negra no esté midiendo. Adicionalmente, las características de la caja negra pueden no ser constantes y es necesario también confirmarla regularmente.
4.4 Registro de las calibracionesEs recomendable contar con registros y sistemas de control interno para mantener evidencias de toda información que involucre al laboratorio.
Registro general de entradas y salidas de equipo en el laboratorio.-
Estos registros especifican las condiciones en que entran o salen los patrones, aparatos o instrumentos de medición del laboratorio.
Registro de equipo.-
Todo equipo de medición debe contar con un registro que asegure su identificación única, la cual contenga las características técnicas principales del equipo y la descripción de las condiciones en que se encuentra, incluyendo la existencia de anomalías o condiciones especiales. Este registro va enfocado a asegurar la confiabilidad del patrón, el aparato o el instrumento de medición.
Registro del trabajo efectuado.-
Todo servicio realizado por el laboratorio contará con un registro o número de control con el fin de ser identificado fácilmente para cualquier aclaración o duda.
Registro del método de medición.-
Todo procedimiento de medición o calibración existente en un laboratorio deberá contar con un número o clave de control, así como estar documentado por escrito con los requisitos necesarios para que cumpla como método aprobado, basado ya sea en normas nacionales o internacionales vigentes.
Importancia de la calibración metrológica, en los instrumentos sujetos a calibración (ISC).
De acuerdo con los estándares de calidad establecidos ya sea nacional o internacional se deberá de cumplir con lo que ahi se especifica para cada uno de los instrumentos usados, ISC (instrumentos sujetos a calibración) nos dice que si durante la calibración se detectaran valores superiores a los establecidos en la especificación o reglamento (regulado por la secretaria de economía y el instituto nacional de pesos y medidas) se le rechazara haciendo referencia al valor que dio origen al rechazo.
Las Tolerancias siempre y cuando no sean de referencia internacional pueden y deben de ser reguladas por lo institutos correspondientes a cada país, y en su caso participaran las industrias que generan dicho producto, con el fin de normar el producto.
ESTUDIOS DE R & R Y TRAZABILIDAD
El sistema de medición de una empresa son los ojos a través de los cuales se observa la calidad. Si no contamos con un
sistema de medición confiable nunca podremos saber si producimos con calidad hasta que el cliente comience a quejarse y
rechazar productos.
En muchas empresas se confunde el sistema de medición con los instrumentos, pero el sistema de medición es más que eso.
El sistema de medición está formado por instrumentos, operadores y método de medición.
Estudios de Repetibilidad y Reproducibilidad (R y R)
El estudio de R y R es el estudio más importante de todos porque nos dice si nuestro sistema de medición es adecuado para
medir nuestro proceso. Cuando un estudio de R y R arroja un resultado mayor del 30% indica que el sistema de medición es
inaceptable. No necesariamente significa que el instrumento mida incorrectamente. La causa de un elevado % R y R puede
radicar en el instrumento, en los operadores o en el método de medición. Pero, ¿cómo nos podemos dar cuenta de cual es la
verdadera causa del alto porcentaje R y R?
En muchas empresas ocurre que cuando se obtiene un alto % R y R se envía el instrumento a calibrar, lo cual es incorrecto
porque el estudio de R y R evalúa el sistema de medición y no sólo al instrumento de medición. Para encontrar la verdadera
causa de un alto % R y R se deben analizar las gráficas del estudio como rangos, medias, corridas, puntos individuales. Estas
gráficas le dirán exactamente cual es la causa del problema.
CALIBRADORES PASA – NO PASA.
Dispositivos diseñados para verificar las dimensiones de una parte en sus límites de tamaño
superior e inferior, de acuerdo con las tolerancias especificadas por las normas.
Este es uno de los métodos más rápidos para medir roscas externas y consiste en un par de
anillos roscados pasa-no pasa.
Estos calibres se fijan a los límites de la tolerancia de la parte. Su aplicación simplemente es
atornillarlos sobre la parte. El de pasa debe entrar sin fuerza sobre la longitud de la rosca y el
de no pasa no debe introducirse más de dos hilos antes de que se atore.
Estos calibres sólo indican si la parte inspeccionada está dentro de tolerancia a no (atributos).
Ellos no especifican cual es el tamaño real de la parte roscada; para ello se hace necesario
usar alguno de los método antes descritos.
También hay calibres roscados pasa-no pasa para la inspección de roscas internas. Estos
trabajan bajo el mismo principio de pasa y no pasa; en este caso, el calibre de no pasa entrará
una vuelta cuando más, pero no otra. Este es quizá el método más práctico para medir roscas
internas, ya que aunque existen instrumentos que proporcionan datos variables, éstos no
están disponibles para los diámetros más pequeños.
Los calibradores se usan para comprobar dimensiones externas tales como diámetro,
anchura, grosor y superficies similares. Los calibradores de anillos se emplean para revisar
diámetros cilíndricos. Para una aplicación determinada, generalmente se requieren un par de
calibradores, uno de pasa y el otro de no pasa, cada calibrador es un anillo cuya abertura se
maquina a uno de los límites de tolerancia del diámetro de la parte. Para facilidad de manejo,
la parte exterior del anillo está moleteada. Los dos calibradores se distinguen por la presencia
de un surco alrededor de la parte externa del anillo no pasa.
Calibrador pasa no pasa de contacto para medir el diámetro. El calibrador límite más común
que se utiliza para verificar diámetros de orificios es el calibrador de inserción. El calibrador
consta de una manija a la cual se conectan dos piezas cilíndricas precisamente asentadas
(insertos) de acero endurecido, como en la figura 3.56. Los insertos cilíndricos funcionan
como os calibradores de pasa y no pasa. Otros dispositivos similares al calibrador de
inserción incluyen los calibradores de ahusamiento, que consta de un inserto ahusado para
verificar orificios con aguzamientos; y los calibradores roscados, con los que se verifican las
roscas internas en las partes
Calibrador pasa no pasa de contacto.
Estos calibradores son fáciles de usar y el tiempo requerido para completar una inspección
casi siempre es menos al que emplea un instrumento de medición. Su desventaja es que se
obtiene muy poca información del tamaño real de la parte; solo indican si el tamaño esta
dentro de la tolerancia.
RUGOSIDAD
Aunque durante mucho tiempo la medición de la rugosidad no fue considerada como una
rama de la metrología, en la actualidad es un requerimiento importante debido al
reconocimiento creciente de la importancia y necesidad de esta medición.
Una superficie perfecta es una abstracción matemática, ya que cualquier superficie real, por
perfecta que parezca, presentará irregularidades que se originan durante el proceso de
fabricación.
Las irregularidades mayores (macrogeométricas) son errores de forma, asociados con la
variación en tamaño de una pieza, paralelismo entre superficies y planitud de una superficie o
conicidad, redondez y cilindricidad, y que pueden medirse con instrumentos convencionales.
Las irregularidades menores (microgeométricas) son la ondulación y la rugosidad. La primera
pueden ocasionarla la flexión de la pieza durante el maquinado, falta de homogeneidad del
material, libración de esfuerzos residuales, deformaciones por tratamiento térmico,
vibraciones, etcétera; la segunda la provoca el elemento utilizado para realizar el maquinado,
por ejemplo, la herramienta de corte o la piedra de rectificado.
Los errores superficiales mencionados se presentan simultáneamente sobre una superficie, lo
que dificulta la medición individual de cada uno de ellos.
La rugosidad (que es la huella digital de una pieza) son irregularidades provocadas por la
herramienta de corte o elemento utilizado en su proceso de producción, corte, arranque y
fatiga superficial.
El acabado superficial de los cuerpos puede presentar errores de forma macrogeométricos y
microgeométricos.
La rugosidad superficial es el conjunto de irregularidades de la superficie real,
definidas convencionalmente en una sección donde los errores de forma y las
ondulaciones han sido eliminados.
Superficie real: Superficie que limita el cuerpo y lo separa del medio que lo separa.
Superficie geométrica: Superficie ideal cuya forma está especificada por el dibujo y/o todo
documento técnico.
Superficie de referencia: Superficie a partir de la cual se determinan los parámetros de
rugosidad. Tiene la forma de la superficie geométrica. Se puede calcular por el método de
mínimos cuadrados.
Perfil real: es la intersección de la superficie real con un plano normal.
La rugosidad de la superficie se determina considerando la longitud de onda del radar y el
ángulo de incidencia. Una superficie aparecerá ser lisa si sus variaciones de la altura son más
pequeñas que 1/8 de la longitud de onda del radar.
En términos del uso de una determinada longitud de onda, una superficie aparece más lisa
mientras la longitud de onda y el ángulo de incidencia aumenta.
En imágenes generadas por radares, las superficies ásperas aparecerán más brillantes que
superficies más lisas del mismo material. La aspereza superficial influencia la reflectividad de
la energía de la microonda.
Las superficies lisas horizontales que reflejan casi toda la energía de la incidencia lejos del
radar se llaman los reflectores especulares, ejemplos de estas superficies, son el agua
tranquila o caminos pavimentados que aparecen oscuras en las imágenes de radar. En
cambio las superficies ásperas dispersan la energía de la microonda incidente en muchas
direcciones, esto se conoce como reflexión difusa. Las superficies vegetales causan reflexión
difusa y generan imágenes con un tono más brillante.
Características
Promedio de rugosidad: El valor promedio de rugosidad en µm es el valor promedio
aritmético de los valores absolutos de las distancias del perfil de rugosidad de la línea
intermedia de la longitud de medición. El valor promedio de rugosidad es idéntico a la altura
de un rectángulo donde su longitud es igual a la longitud total lm y esto a su vez es idéntico
con la superficie de la suma que existe entre el perfil de rugosidad y la línea intermedia. Rz:
Promedio de la profundidad de la rugosidad en µm (promedio aritmético de cinco
profundidades singulares consecutivas en la longitud de medición). Los rugosímetros sirven
para detectar de forma rápida las profundidades de la rugosidad en las superficies de
materiales. Los rugosímetros le indican en µm la profundidad de la rugosidad Rz y el promedio
de rugosidad Ra. Tenemos disponibles equipos con un máximo de trece parámetros de
medida. Son aplicables las siguientes normativas en la comprobación de rugosidad en las
superficies delas piezas de trabajo: DIN 4762, DIN 4768, DIN 4771, DIN 4775. La rugosidad
alcanzable de las superficies las puede ver en DIN 4766±1. Los rugosímetros se envían
calibrados (pero sin certificado). Opcionalmente puede obtener para los rugosímetros una
calibración de laboratorio, incluido el certificado ISO. Así podrá integrar sus medidores en su
control de calidad ISO y calibrarlos anualmente (a través de PCE o cualquier laboratorio
acreditado).
Rugosidad obtenida: El costo de una superficie maquinada crece cuando se desea un mejor
acabado superficial, razón por la cual el diseñador deberá indicar claramente cual es el valor
de rugosidad deseado, ya que no siempre un buen acabado superficial redundará en un mejor
funcionamiento de la pieza, como sucede cuando desea lubricación eficiente y por tanto una
capa de aceite debe mantenerse sobre la superficie.
En el pasado el mejor método práctico para decidir si un acabado superficial cumplía con los
requerimientos era comparado visualmente y mediante el tacto contra muestras con diferentes
acabados superficiales .Este método no debe confundirse con los patrones de rugosidad que
actualmente se usan en la calibración de rugosimetros.
Tipos de medición de rugosidad
Los sistemas más utilizados son el de rugosidad Ra, rugosidad Rx, rugosidad Ry y rugosidad
Rz. Los más usuales son Ra. Rz, Ry. Ra
Los valores absolutos de los alejamientos del perfil desde la línea central.
La altura de un rectángulo de longitud lm, cuya área, es igual a la suma de las áreas
delimitadas por el perfil de rugosidad y la línea central Rz.
Promedio de las alturas de pico a valles. La diferencia entre el promedio de las alturas delos
cinco picos más altos y la altura promedio de los cinco valles más profundos Ry.
La máxima altura del perfil. La distancia entre las líneas del perfil de picos y valles.
Medida de rugosidad:
Comparadores visotáctiles. Elementos para evaluar el acabado superficial de piezas por
comparación visual y táctil con superficies de diferentes acabados obtenidas por el mismo
proceso de fabricación.
Rugosímetro de palpador mecánico:
Instrumento para la medida de la calidad superficial pasado en la amplificación eléctrica dela
señal generada por un palpador que traduce las irregularidades del perfil de la sección dela
pieza. Sus elementos principales son el palpador, el mecanismo de soporte y arrastre de éste,
el amplificador electrónico, un calculador y un registrador.
Rugosímetro: Palpador inductivo. El desplazamiento de la aguja al describir las
irregularidades del perfil modifica la longitud del entrehierro del circuito magnético, y con ello
el flujo de campo magnético que lo atraviesa, generando una señal eléctrica.
Rugosímetro: Palpador capacitivo. El desplazamiento vertical del palpador aproxima las
dos láminas de un condensador, modificando su capacidad y con ella la señal eléctrica.
Rugosímetro: Palpador piezoeléctrico: El desplazamiento de la aguja del palpador de forma
elásticamente un material piezoeléctrico, que responde a dicha deformación generando una
señal eléctrica.
Rugosímetro: Patín mecánico: El patín describirá las ondulaciones de la superficie mientras
la aguja recorra los picos y valles del perfil. Así se separan mecánicamente ondulación y
rugosidad que son simplemente desviaciones respecto de la superficie geométrica con distinta
longitud de onda.
Rugosímetro: Filtrado eléctrico: La señal eléctrica procedente del palpador puede pasar a
un filtro para eliminar las ondulaciones, esto es, disminuir la amplitud de sus componentes a
partir de una longitud de onda ᵞ´, (longitud de onda de corte).
Actualmente los rugosímetros permiten calcular y tratar numerosos parámetros de rugosidad,
compensar la forma de la pieza o programar la medida.
Bibliografía
González, Carlos. Zeleny, Ramón. “Metrología”, D.F, México: Mc Graw Hill, 2001 González, Carlos. Zeleny, Ramón. “Metrología Dimensional”, D.F, México: Mc Graw Hill, 1999.
CENAM. Apuntes “General de Metrología Dimensional”. Querétaro. Qro: 2003.
CIDESI. Apuntes “calibración de Instrumentos de Dimensional”. Querétaro, Qro.:2006
NMX-EC-3650-IMNC: 2004 “Especificaciones geométricas de producto (EGP) – Patrones de longitud – Bloques patrón”.
NMX-CH-002-IMNC-2004 “Instrumentos de medición dimensional – Calibradores tipo vernier y medidores de profundidades – Diseño y requisitos”.