medidas y unidades

34
MEDICIONES DE MAGNITUDES FÍSICAS Y QUÍMICAS Lic. Evelina SB Maranzana – Universidad Nacional de Quilmes Introducción La química es una ciencia que describe experimentalmente la materia, sus propiedades físicas y químicas, los cambios que ésta experimenta como así también las variaciones de energía que están asociados a estos procesos. Los resultados de cualquier tipo de observación experimental que se realice para calcular el grado en que ocurren los cambios o variaciones en las propiedades de la materia y energía se efectúan mediante mediciones. Todo proceso de medición implica comparar el objeto o propiedad de estudio con un patrón de referencia, proceso que permite la obtención de valores numéricos. Sin embargo, los datos numéricos que se obtienen al realizar mediciones de magnitudes físicas o químicas tienen un cierto grado de incertidumbre. Por lo tanto, encontrar en la práctica el valor real o exacto de una magnitud es imposible, podemos sólo aproximarnos a ese valor, pero nunca sabremos si realmente es dicho valor, porque ni los instrumentos de medición son perfectos ni nuestros sentidos son absolutamente perspicaces. Por otro lado, en muchos casos en el proceso de tratamiento de datos intervienen números irracionales (p, e, etc.) o bien operaciones matemáticas cuyos resultados no pueden tomarse con todas sus cifras (log, trigonométricas, etc.) sino que hay que tomarlos con un número limitado de cifras decimales. Podemos asegurar, por tanto, que toda medida que efectuamos, cualquiera sea la bondad del instrumento utilizado y la pericia del operador, es inexacta, pues aún suponiendo que casualmente alguna fuera exacta, no tenemos medio de comprobarlo y por ello de saberlo. El problema radica entonces en establecer los límites de la incertidumbre existentes al determinar el valor de una magnitud. Por tanto, el resultado de una medida debe ir siempre acompañado de esa incertidumbre que nos indica la calidad de la medición realizada. 1. Mediciones Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que puede ser determinada cuantitativamente, es decir, es un atributo susceptible de ser medido. El mesurando es la magnitud de un objeto o fenómeno específico que estamos interesados en medir. Para establecer el valor de un mesurando debemos utilizar instrumentos de medición y un método de medición. Asimismo para llevar a cabo esta operación es necesario definir unidades de medición. La medición es el proceso de cuantificar nuestra experiencia del mundo exterior. Es la técnica mediante la cual asignamos un número 1 , generalmente un número real, a una propiedad física o química, como resultado de una comparación con otra similar tomada como patrón que es adoptada como unidad. Si estamos interesados en medir el largo de la mesa en la cual estamos sentados en frente en este momento, la longitud, es el atributo – magnitud - que deseamos determina. En tanto que esa longitud específica – la de la mesa - será el mesurando. Si al determinar esta longitud específica utilizamos la cinta métrica, ésta será el instrumento de medición. Como dicha cinta se encuentra graduada de acuerdo al Sistema Internacional de Unidades (SI), la unidad será el metro y la cinta a usar deberá estar debidamente calibrada en esa unidad (o submúltiplos). El método de medición que llevaremos acabo por lo tanto constituirá en determinar cuantas veces la cinta y fracciones de ella entran en la longitud deseada. Se debe tener siempre presente que todo proceso de medición presenta errores experimentales o incertezas. 1 Hay magnitudes físicas que no quedan completamente descriptas con un número, se necesita indicar además su dirección y su sentido, las cuales se las conocen como magnitudes vectoriales Química 1 - Medidas y unidades - 1

Upload: alexander-bonilla

Post on 20-Dec-2015

37 views

Category:

Documents


0 download

DESCRIPTION

MEDICIONES DE MAGNITUDES FÍSICAS Y QUÍMICASLa química es una ciencia que describe experimentalmente la materia, sus propiedadesfísicas y químicas, los cambios que ésta experimenta como así también las variacionesde energía que están asociados a estos procesos

TRANSCRIPT

MEDICIONES DE MAGNITUDES FÍSICAS Y QUÍMICASLic. Evelina SB Maranzana – Universidad Nacional de Quilmes

Introducción

La química es una ciencia que describe experimentalmente la materia, sus propiedades físicas y químicas, los cambios que ésta experimenta como así también las variaciones de energía que están asociados a estos procesos.Los resultados de cualquier tipo de observación experimental que se realice para calcular el grado en que ocurren los cambios o variaciones en las propiedades de la materia y energía se efectúan mediante mediciones. Todo proceso de medición implica comparar el objeto o propiedad de estudio con un patrón de referencia, proceso que permite la obtención de valores numéricos. Sin embargo, los datos numéricos que se obtienen al realizar mediciones de magnitudes físicas o químicas tienen un cierto grado de incertidumbre. Por lo tanto, encontrar en la práctica el valor real o exacto de una magnitud es imposible, podemos sólo aproximarnos a ese valor, pero nunca sabremos si realmente es dicho valor, porque ni los instrumentos de medición son perfectos ni nuestros sentidos son absolutamente perspicaces.Por otro lado, en muchos casos en el proceso de tratamiento de datos intervienen números irracionales (p, e, etc.) o bien operaciones matemáticas cuyos resultados no pueden tomarse con todas sus cifras (log, trigonométricas, etc.) sino que hay que tomarlos con un número limitado de cifras decimales. Podemos asegurar, por tanto, que toda medida que efectuamos, cualquiera sea la bondad del instrumento utilizado y la pericia del operador, es inexacta, pues aún suponiendo que casualmente alguna fuera exacta, no tenemos medio de comprobarlo y por ello de saberlo.El problema radica entonces en establecer los límites de la incertidumbre existentes al determinar el valor de una magnitud. Por tanto, el resultado de una medida debe ir siempre acompañado de esa incertidumbre que nos indica la calidad de la medición realizada.

1. Mediciones

Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que puede ser determinada cuantitativamente, es decir, es un atributo susceptible de ser medido. El mesurando es la magnitud de un objeto o fenómeno específico que estamos interesados en medir.Para establecer el valor de un mesurando debemos utilizar instrumentos de medición y un método de medición. Asimismo para llevar a cabo esta operación es necesario definir unidades de medición.

La medición es el proceso de cuantificar nuestra experiencia del mundo exterior. Es la técnica mediante la cual asignamos un número1, generalmente un número real, a una propiedad física o química, como resultado de una comparación con otra similar tomada como patrón que es adoptada como unidad.

Si estamos interesados en medir el largo de la mesa en la cual estamos sentados en frente en este momento, la longitud, es el atributo – magnitud - que deseamos determina. En tanto que esa longitud específica – la de la mesa - será el mesurando. Si al determinar esta longitud específica utilizamos la cinta métrica, ésta será el instrumento de medición. Como dicha cinta se encuentra graduada de acuerdo al Sistema Internacional de Unidades (SI), la unidad será el metro y la cinta a usar deberá estar debidamente calibrada en esa unidad (o submúltiplos). El método de medición que llevaremos acabo por lo tanto constituirá en determinar cuantas veces la cinta y fracciones de ella entran en la longitud deseada.

Se debe tener siempre presente que todo proceso de medición presenta errores experimentales o incertezas.

1 Hay magnitudes físicas que no quedan completamente descriptas con un número, se necesita indicar además su dirección y su sentido, las cuales se las conocen como magnitudes vectoriales

Química 1 - Medidas y unidades - 1

En ciencias e ingeniería, el concepto error t iene un significado diferente del uso habitual de este término. Coloquialmente, es usual el empleo del término error como análogo o equivalente a equivocación. En el campo de las ciencias y la ingeniería, sin embargo, el error, como veremos a continuación, está más bien asociado al concepto de incerteza en la determinación del resultado de una medición.

A pesar de los avances tecnológicos, del diseño de instrumentos de medición más sofisticados, y aún siendo asistidos por computadoras, siempre se cometen incertezas. Además se debe agregar la dificultad de que al utilizar programas prediseñados para el procesamiento de datos obtenidos después de la medición, esto introduce la dificultad de controlar estos resultados.

Como futuros profesionales tendremos que aprender a comprender, estimar y controlar las incertezas que se propagan en nuestros cálculos. Es por ello, que al realizar cualquier t ipo de medición debemos siempre evitar en pensar sobre la misma como un procedimiento para reproducir un cierto resultado “correcto”. En la vida real nadie nos dirá cuál debe ser el resultado, nuestro criterio y capacidad, bien formados, nos permitirán tomar decisiones para resolver las situaciones que se nos presenten.

Es importante al realizar las mediciones, tomar cierto tiempo para planificar anticipadamente el procedimiento. También es importante que aprendamos a trabajar en el marco de los instrumentos que tengamos disponibles. Los instrumentos nunca serán ideales, y es virtud del operador aprender a identificar las fuentes de errores, evaluarlas y si es posible eliminarlas o hacer las correcciones que se necesiten.

Un principio básico para realizar todo tipo de medición, es que, al medir pongamos extremo cuidado en no perturbar el sistema que está bajo observación (ni con nuestra presencia, ni con los instrumentos de medición).

En el campo macroscópico, es posible que la perturbación sea mucho más pequeña, en varios ordenes de magnitud, que las incertezas. Pero en el campo microscópico, las perturbaciones sobre el sistema son del orden de las incertezas, y no son posibles de ser estimadas en valor. Para la obtención de los valores medidos en este campo, debemos manejar conceptos de la física conocidos como mecánica cuántica, que escapa a los alcances del presente curso y son estudiados en Física III.

Decimos que conocemos el valor de una magnitud determinada, en la medida que conocemos sus errores. En el campo de las ciencias y la ingeniería consideramos que la medición de una magnitud con un cierto error no significa que se haya cometido una equivocación o que se haya realizado una mala medición. Con la indicación del error de medición expresamos, en forma cuantitativa y lo más precisamente posible, las limitaciones que nuestro proceso de medición introduce en la determinación de la magnitud medida.

¡ES IMPRESCINDIBLE EN CIENCIAS E INGENIERIA ESPECIFICAR LOS ERRORES DE MEDICION!

Variables discretas y continuas: La variable se representa mediante símbolos. Estas pueden asumir cualquier valor dentro de un conjunto de valores prescrito denominado dominio de la variable. Si la variable sólo puede asumir un valor, entonces se denomina constante. Una variable que puede asumir cualquier valor entre los valores extremos del dominio, se denomina variable continua, de lo contrario se llama variable discreta.

Química 1 - Medidas y unidades - 2

En general, las mediciones generan datos continuos mientras que los conteos generan datos discretos.

La cantidad de alumnos presentes en un aula puede asumir valores de 0, 1,3, 4, 5, etc., y hasta su máxima capacidad, pero no puede tener valores fraccionarios. En tanto que la cantidad de sustancia contenida en un recipiente, puede tener valores fraccionarios limitados sólo por la sensibilidad del instrumento empleado para medirla, así puede tomar valores tales como 1,1002 gr, 1,50 gr, etc.

Mediciones y medidas directas: Cuando la magnitud física a medir es cuantificable con el propio instrumento de medición. Es decir cuando la lectura se hace en un instrumento aplicado a medir la magnitud deseada.

Mediciones y medidas indirectas: Cuando para obtener el valor de magnitud física es indispensable valerse de otros parámetros mensurables. Es decir, cuando se hace una lectura o más en los instrumentos aplicados a medir cierta magnitud física y luego se calcula la medida de la magnitud deseada. Es imposible realizar un análisis físico o químico sin que los resultados estén totalmente libres de errores. Sin embargo, es función de quien las realice minimizarlos y estimar su magnitud con una exactitud aceptable. Cada medición está sujeta a muchas imprecisiones (errores) que cuando se combinan producen una diversidad de resultados alejados, en mayor o menor grado del valor verdadero. La presencia de éstas imprecisiones o incertezas en las medidas originales traerá aparejadas incertezas en el valor de la cantidad final, para ello en los cálculos deberemos propagar estas incertezas para conocer el intervalo de la medida final.

Lo que se debe procurar en toda medición es conocer las cotas (o límites probabilísticos) de estas incertezas. Gráficamente hablando, al realizar una medición se busca establecer un intervalo xxxxx ∆+≤≤∆− donde con cierta probabilidad, se puede

decir que se encuentra el mejor valor de la magnitud x. Este valor x es el más representativo de nuestra medición y el intervalo Dx se lo denomina la incerteza o error absoluto de la medición.

Figura 1.1: Intervalo asociado al resultado de una medición. Nótese que, en lugar de dar un único número, se

define un intervalo. Al valor representado en el centro del intervalo x se lo llama el mejor valor de la

medición, y el intervalo se denomina incertidumbre o error absoluto de la medición.

Química 1 - Medidas y unidades - 3

xx ∆− xx ∆−x

2. Precisión y Exactitud

Precisión

El término precisión se utiliza para describir la reproducibilidad de los resultados obtenidos, esto es, la concordancia entre los valores numéricos de dos o más mediciones repetidas que se han realizado exactamente de la misma forma. Dado un valor fi jo de una variable, la precisión es la medida del grado con el cual, mediciones sucesivas difieren una de la otra.

En general, la precisión de un método analítico se obtiene con facilidad simplemente repitiendo la medición y depende de la capacidad del instrumento de medición de dar el mismo resultado en mediciones diferentes realizadas en las mismas condiciones. Para describir la precisión de un conjunto de datos se usan principalmente tres parámetros: desviación estándar, varianza y coeficiente de variación, términos que tienen una significación estadística cuya definición y aplicación exceden el nivel de este curso.

Exactitud

La exactitud describe la veracidad de un resultado experimental. Estrictamente hablando, el único tipo de medición totalmente exacta es el contar objetos. Todas las demás mediciones contienen errores y dan sólo una aproximación de la realidad. La exactitud es un término relativo ya que el hecho de que un método sea o no exacto depende en gran medida de las necesidades de quien realice las mediciones o de la dificultad del problema analítico. El término exactitud indica la proximidad de una medida a su valor aceptado y se expresa en términos de error absoluto o relativo.

Cabe destacar la diferencia fundamental que existe entre exactitud y precisión. Exactitud supone una comparación con un valor verdadero o aceptado como tal, mientras que la precisión indica la concordancia entre las medidas que han sido realizadas de la misma manera. En otras palabras, exactitud implica la cercanía con la cual la lectura de un instrumento de medida se aproxima al valor verdadero de la variable medida. Implica precisión pero el recíproco no es verdadero (precisión no implica exactitud) es decir, la precisión se relaciona con la concordancia de los resultados experimentales entre sí mismos, sin relacionarse con el valor real Vreal (Ver Figura 1.2)

La precisión de una medida se determina fácilmente repitiendo la medición en las mismas condiciones. No puede decirse lo mismo para la exactitud ya que para ello se requiere conocer el valor verdadero, es decir, la misma información que se desea obtener.

Química 1 - Medidas y unidades - 4

FIGURA 1.2: Esta figura ilustra de modo esquemático los conceptos de precisión y exactitud. Los centros de los círculos indican la posición del “valor verdadero” del mesurando y los puntos grises los valores de varias determinaciones del centro. La dispersión de los puntos da una idea de la precisión, mientras que su centro efectivo (centroide) está asociado a la exactitud. El primer esquema es una determinación exacta pero no precisa (observe la dispersión de los puntos grises). El segundo esquema ilustra una determinación precisa pero inexacta del mesurando. El primer esquema inferior por otro lado es una determinación inexacta e imprecisa del mesurando en tanto que el segundo esquema muestra una medición exacta y precisa del mesurando a determinar.

3. Teoría de errores

En todo proceso de medición existen limitaciones dadas por los instrumentos que se utilizan, el método de medición y el observador (u observadores) que realizan la medición. Asimismo el proceso de medición en sí introduce errores o incertezas, particularmente como se mencionó anteriormente, cuando el instrumento de medición interactúa de alguna manera con el objeto a medir.

Cuando usamos un termómetro para medir una temperatura, parte del calor del objeto fluye al termómetro (o viceversa), de modo que el resultado de la medición es un valor aproximado al verdadero valor de la temperatura del cuerpo debido a la inevitable interacción que existe entre el cuerpo y el termómetro. Es claro que esta interacción podrá o no ser significativa: Si estamos midiendo la temperatura de un metro cúbico de agua, la cantidad de calor transferida al termómetro puede no ser significativa, pero si lo será si el volumen en cuestión es una pequeña fracción del milili tro.

Tanto los instrumentos que usamos para medir, como las magnitudes mismas son fuente de incertezas al momento de medir. Los instrumentos tienen una precisión finita, por lo que, para un instrumento dado, siempre existe una variación mínima de la magnitud que puede detectar. Esta mínima cantidad se denomina la apreciación nominal del instrumento. A su vez, las magnitudes a medir no están definidas con infinita precisión, a ésta limitación intrínseca se denomina incerteza intrínseca (o falta de definición) de la magnitud en cuestión.

La apreciación nominal de un de una regla graduada en milímetros no permite detectar variaciones menores que una fracción de milímetro. Por otro lado, para entender el concepto de incerteza intrínseca de una magnitud, imaginemos que queremos medir el largo de una mesa. Es posible que al utilizar instrumentos cada vez más precisos empecemos a notar las irregularidades típicas del corte de los bordes o, al ir aún más allá, finalmente detectemos la naturaleza molecular o atómica del material que la constituye. Es claro que en ese punto la longitud dejará de estar bien definida. En la práctica, es posible que mucho antes de estos casos límite, la falta de paralelismo

Química 1 - Medidas y unidades - 5

en sus bordes haga que el concepto de la “longitud de la mesa” comience a hacerse cada vez menos definido.

Otra fuente de error que se origina en los instrumentos además de la precisión es la exactitud de los mismos. Como vimos hasta aquí, la precisión de un instrumento o de un método de medición está asociada a la sensibilidad o menos variación de la magnitud que se puede detectar con dicho instrumento o método.

Un tornillo micrométrico (con una apreciación nominal de 10 mm) es más preciso que una regla graduada en milímetros, o un cronómetro es más preciso que un reloj común, etc.

La exactitud de un instrumento o método de medición está asociada a la calidad de la calibración del mismo. La exactitud es la medida de la calidad de la calibración de nuestro instrumento respecto de patrones de medida o referencia aceptados internacionalmente. En general los instrumentos vienen calibrados, pero dentro de ciertos límites. Es deseable que la calibración de un instrumento sea tan buena como la apreciación del mismo.En resumen, como el resultado de toda medición siempre tiene cierto grado de incertidumbre debido a las limitaciones de los instrumentos de medida, las condiciones en que se realiza la medición, así como también, a las capacidades del experimentador, para tener una idea correcta de la magnitud con la que se está trabajando, es indispensable establecer los límites entre los cuales se encuentra el valor real de dicha magnitud. La teoría de errores establece estos límites.

CLASES DE ERRORES

Existen varias formas de clasificar y expresar los errores de una medición. De acuerdo a su fuente pueden ser clasificados de la siguiente manera:

1. Errores introducidos por el instrumento de medición2. Errores introducido por la interacción método de medición – mesurando3. Errores intrínsecos del mesurando

1. Errores introducidos por el instrumento de medición

Error de apreciación sap

Si el instrumento de medición está correctamente calibrado la incertidumbre que tendremos al realizar una medición estará asociada a la mínima división de su escala o a la mínima división que podemos resolver con algún método de medición. Nótese que no decimos que el error de apreciación es la mínima división de la escala del instrumento, sino la mínima división que es discernible por el observador. La mínima cantidad que puede medirse con un instrumento dado se denomina apreciación nominal. El error de apreciación puede ser mayor o menor que la apreciación nominal, dependiendo de la habilidad (o falta de ella) del observador.

Es posible que un observador entrenado pueda apreciar con una regla común fracciones del milímetro mientras que otro observador, con la misma regla pero con dificultades de visión sólo pueda apreciar 2 mm.

Error de exactitud sexac

Este error representa el error absoluto con el que el instrumento en cuestión ha sido calibrado.

2. Error introducido por interacción método de medición - mesurando sint

Esta incerteza proviene de la interacción del método de medición con el objeto a medir. Su determinación depende de la medición que se realiza y su valor se estima a partir de un análisis riguroso del método utilizado.

Química 1 - Medidas y unidades - 6

3. Error intrínseco del mesurando sdef

Como se mencionó anteriormente, las magnitudes a medir no están definidas con una precisión infinita, esta falta de definición del objeto sujeto a medición o incertidumbre asociada con la falta de definición del objeto a medir representa su incertidumbre intrínseca.

En general, para un experimento dado, todas las fuentes de incertidumbre estarán presentes, de modo que resulta útil definir el error nominal de una medición, snom, como:

s2nom = s2

ap + s2def + s2

int + s2exac

Este procedimiento de sumar los cuadrados de los errores es un resultado de la estadística, y proviene de suponer que todas las distintas fuentes de error son independientes unas de otras. Explicación que excede el nivel de este curso.

Según la característica de los fenómenos responsables de las incertidumbres de una medición, los errores también pueden ser clasificados como:

1. Errores determinados o sistemáticos2. Errores indeterminados o aleatorios3. Errores evidentes o espúreos

1. Errores determinados o sistemáticos

Se caracterizan por ser constantes a lo largo de todo el proceso de medición si ésta se realiza bajo condiciones iguales. Son errores cuyas causas están definidas y son, por lo tanto, predecibles y reproducibles. Afectan a todas las mediciones de una manera unidireccional en el sentido que todos los resultados de una serie de mediciones repetidas bien poseen desviaciones positivas ó negativas, pero no positivas y negativas simultáneamente.

Estos tipos de errores al tener un valor definido, una causa asignable y, para las mediciones repetidas que se realizan exactamente de la misma manera, tienen el mismo signo y magnitud pueden ser eliminados si se conoce su causa.Los errores sistemáticos determinan la exactitud de una técnica de medición y se pueden subclasificar en tres tipos:

Tipos de errores sistemáticos:

Errores instrumentalesErrores de métodoErrores personales

Errores instrumentales: Todo instrumento de medición es potencial fuente de error, bien por imperfecciones en su construcción, por el desgaste producto del uso continuo y, en el peor de los casos , por el uso inadecuado y descuidado de éste. Los errores instrumentales serán constantes en cuanto a su valor y signo (por defecto o exceso). Este mismo carácter les hace en gran parte controlables pudiendo ser corregidos en mayor o menor grado. Solo pueden ser puestos de manifiesto cambiando el observador o de instrumento de medida.

Los errores instrumentales sistemáticos se suelen detectar y corregir mediante la calibración con materiales estándar adecuados. Siempre debe hacerse una calibración periódica de los instrumentos ya que la respuesta de la mayoría de los instrumentos varía con el tiempo a consecuencia del desgaste, la corrosión o del trato inadecuado.La calibración eliminará la mayoría de los errores determinados de este tipo.

Algunas causas típicas de errores instrumentales son: derivas de los circuitos electrónicos, fugas en los sistemas de vacío, efectos de la temperatura en los detectores, errores de calibración en los medidores, balanzas y equipos volumétricos.

Química 1 - Medidas y unidades - 7

Errores de método: Se presentan comúnmente cuando se lleva a cabo la determinación de una medida mediante un método que no es idóneo para tal fin. Entre este tipo de errores podemos citar el comportamiento físico o químico no ideal de los fenómenos a observar, el t ipo de reacciones o reactivos que se utilizan en los análisis cuantitativos, la utilización de un instrumento apto, pero inadecuado para la medida que se desea realizar.Los errores inherentes en un método son frecuentemente difíciles de detectar y son por ello el tipo más grave de errores determinados.

Errores personales: Los errores personales se introducen como consecuencia de las limitaciones en los sentidos o factores psicológicos del observador. Debido a que, en este sentido, las mediciones requieren el juicio del experimentador que las hace, pueden introducirse errores imprevisibles o de carácter anárquico.Cada observador tiene una forma característica de apreciar los fenómenos, y en particular, de efectuar lecturas en las mediciones. Lo curioso que nos muestra la experiencia, es que cada observador repite su modalidad en forma sistemática. De allí que se denomine a esta característica ecuación personal e introducen errores unidireccionales en forma sistemática.

Entre los errores personales podemos citar los más frecuentes:

Errores de apreciación de la indicación: En muchas mediciones, el resultado se obtiene por la observación de una aguja indicadora entre dos divisiones de una escala graduada, originándose así errores de apreciación. Estos a su vez tienen dos causas diferentes que pasamos a explicar:

Error de paralaje: Se origina en la falta de perpendicularidad entre la visual del observador y la escala del instrumento de medición. Esta incertidumbre se puede reducir colocándose el observador de forma tal que la visual que pasa por la punta de la aguja sea normal al plano de la escala. Algunos aparatos llevan a tal efecto la escala sobre un espejo, debiéndose hacer la lectura en la posición en que coincida la aguja y su imagen. Así la perpendicularidad del rayo visual se logrará cuando el observador no vea la imagen del mismo en el espejo.

Error del límite de resolución visual: El ojo humano normal puede discriminar entre dos puntos separados a más de 0,1 mm, cuando se observa desde una distancia de 300 mm. Por lo tanto, si dos puntos están separados a menos de esa distancia no podrá distinguirlos.La magnitud de este error es típicamente subjetiva, pues hay personas que tienen una visión mejor o peor que la normal.

Una fuente casi universal de error personal es el prejuicio o predisposición. La mayoría de los experimentadores, por muy objetivos que pretendan ser, tienen una propensión a estimar las lecturas en un sentido que tiende a mejorar la precisión de una serie de resultados, o a dar mayor crédito a los datos que se encuentran más cercanos a un valor preconcebido como verdadero para la medida. Incluso, la predisposición numérica es otra fuente común de error personal. Se tiende a preferir los números 0 y 5, frente a otros, al estimar la posición de un indicador con respecto a una escala; igualmente frecuente es prejuzgar a favor de cifras pequeñas frente a las grandes, e incluso números enteros frente a decimales. Finalmente, existe el error personal que resulta de cometer una gran equivocación, éstos son originados debido a suposiciones teóricas incorrectas, errores de cálculo, transposición de números al apuntar datos, lectura de una escala al revés, inversión de un signo, o uso de una escala incorrecta, son ejemplos comunes. Estos errores pueden afectar a un solo valor o a una serie completa de medidas. Generalmente, los errores de este tipo pueden ser consecuencia de descuido y se pueden eliminar mediante la autodisciplina.

Efecto de los errores determinados en los resultados de un análisis

Los errores determinados pueden clasificarse en constantes y proporcionales. La magnitud de un error constante es independiente de las dimensiones de la cantidad medida. Por el contrario, los errores proporcionales aumentan o disminuyen en proporción al tamaño de la muestra tomada para el análisis.

Errores constantes: Para cualquier análisis, un error constante será más importante cuando disminuya la magnitud de la cantidad medida. Una forma de minimizar el efecto del error constante en utilizar una muestra tan grande como lo permita el método en cuestión.

Química 1 - Medidas y unidades - 8

Errores proporcionales: El efecto de los contaminantes que interfieren en una muestra, si no se eliminan de alguna manera, causará un error proporcional. Estas contaminaciones pueden causar interferencias en los métodos de determinación mediados por reacciones y los resultados serán incorrectos. La magnitud de este tipo de errores vendrá determinado por la fracción de contaminante y producirá el mismo error relativo, independientemente del tamaño de la muestra.

Detección y eliminación de errores determinados instrumentales y personales

Los errores instrumentales normalmente se detectan y corrigen mediante la calibración. La respuesta de la mayoría de los instrumentos sufrirá variaciones con el tiempo debido al uso, la corrosión o a los malos tratos. Por tanto, siempre es aconsejable calibrar periódicamente los instrumentos.Los errores personales pueden ser minimizados trabajando con cuidado y autodisciplina. Por ello, los científicos practican la costumbre de comprobar sistemáticamente las lecturas de los instrumentos, las anotaciones en el diario de laboratorio y los cálculos. Los errores que resultan de alguna deficiencia física se evitan normalmente con una adecuada elección del método – en el supuesto de que se conozca la deficiencia.

Detección de errores determinados del método

Los errores determinados del método son particularmente difíciles de detectar. La identificación y compensación de tales errores puede conseguirse por uno o más de los siguientes sistemas:

Análisis de muestras patrón: Los errores determinados de método pueden comprobarse mediante el análisis de una muestra sintética cuya composición se conoce y es muy parecida a la del material para el que se ensaya el análisis. Este tipo de muestras deben prepararse cuidadosamente para asegurar que la concentración del analito se conoce con un alto grado de certeza.

Análisis independiente: Cuando no se dispone de muestras de composición conocida, es importante realizar un análisis paralelo de la muestra con un método distinto y de fiabilidad garantizada. En general, el método independiente no debería parecerse al que se investiga para evitar la posibilidad de que algún factor común de la muestra tenga efectos semejantes en ambos métodos.

Determinaciones en blanco: Es posible detectar los errores constantes que afectan a las medidas físicas mediante una determinación en blanco, en la que todas las etapas del análisis se llevan a cabo en ausencia de la muestra. El resultado obtenido se utiliza para corregir la medida correspondiente a la muestra. Las determinaciones en blanco son particularmente útiles para descubrir los errores debidos a la introducción de contaminantes que interfieren procedentes de reactivos, y de recipientes utilizados en el método. Los blancos también permiten al analista corregir los datos de la valoración respecto al volumen de reactivo necesario para originar el cambio del color del indicador en el punto final.

Variación del tamaño de la muestra: El hecho de que un error constante disminuya al aumentar la magnitud que se mide, puede utilizarse para detectar tales errores en un método analítico. Se llevan a cabo una serie de análisis en los que se varía lo más ampliamente posible el tamaño de la muestra. La observación de los resultados permitirá correlacionar aumentos o disminuciones sistemáticas con el tamaño de la muestra.

2. Errores Indeterminados o aleatorios

Se caracterizan por ser de carácter variable, es decir que al repetir un experimento en condiciones idénticas, los resultados obtenidos no son iguales en todos los casos. Las diferencias en los resultados de las mediciones no siguen ningún patrón definido y son producto de la acción conjunta de una serie de factores que no siempre están identificados. Este tipo de error se trabaja estadísticamente. El error aleatorio se puede minimizar aumentando el número de mediciones.

En otras palabras, la presencia de un error indeterminado se manifiesta por la fluctuación aleatoria de los resultados que se obtiene al repetir varias veces el análisis.

Química 1 - Medidas y unidades - 9

Como su nombre lo indica, las causas específicas de este tipo de error se desconocen dado que no tiene un único origen, sino que proceden de la acumulación de incertidumbres individuales demasiado pequeñas para detectarse.

Las variaciones entre los resultados pueden explicarse suponiendo que cualquier proceso de medida se ve afectado por numerosas y pequeñas incertidumbre del método, instrumentales y personales, las cuales no es posible detectar individualmente y se deben a variables experimentales incontroladas. El efecto acumulativo de tales incertidumbres es igualmente variable. Normalmente tienden a contrarrestarse unas con otras y por ello resulta un efecto mínimo. Sin embargo, es posible que en alguna ocasión coincidan en el mismo sentido para producir un error positivo o negativo relativamente grande.

Las fuentes de incertidumbre en la calibración de una pipeta pueden consistir en la apreciación visual del nivel del líquido con respecto a la marca grabada en la pipeta (menisco), el nivel de mercurio en el termómetro y la posición del cursor indicador en la escala de la balanza (todas incertidumbres personales). Otras fuentes incluyen variaciones en el tiempo de vertido, el ángulo de la pipeta en la posición de vertido (ambos, errores de método), y los cambios de temperatura debidos al manejo de la pipeta (error instrumental) Sin duda, existen además otras muchas causas de incertidumbre que se pueden añadir a las ya citadas. Es evidente que muchas variables pequeñas e incontroladas acompañan incluso a un proceso tan simple como la calibración de una pipeta. Aunque no es posible detectar la influencia de ninguna de estas incertidumbres, su efecto acumulado es un error indeterminado, que es el responsable de la dispersión de los resultados alrededor de la media.

3. Errores evidentes

Existe un tercer tipo de error que se encuentra en ciertas ocasiones, y son los errores evidentes, los cuales surgen en la mayoría de los casos por falta de cuidado, ineptitud, indolencia o mala suerte del experimentador. Algunas causas típicas de estos errores son: transposiciones de números al escribir los datos, pérdida de muestra, utilización de la escala equivocada del instrumento, introducción accidental de contaminantes y cambios de signo al leer los instrumentos. Un error evidente de un conjunto de medidas repetidas aparecerá como un resultado aberrante – un dato que es muy diferente del resto del conjunto.

PARAMETROS PARA DEFINIR EXACTITUD Y PRECISIÓN

1. Exactitud

El error total es igual a la suma de estos tres tipos de errores. Aun cuando el error total se puede minimizar, es imposible eliminarlo del todo debido a que el error nominal está siempre presente. Por lo tanto, el error total no tiende a cero sino a cierto valor constante.Cuando la medición se realiza una sola vez el error está dado por:

∆x = ∆ nominal + ∆ sistemático

Cuando la medición se realiza varias veces, el error total está dado por:

∆x = ∆ nominal + ∆ sistemático + ∆ aleatorio

Además de los mencionados existen otros tipos de errores tales como los errores estáticos y los errores dinámicos.Los errores estáticos se originan debido a las limitaciones de los instrumentos de medición o por las leyes físicas que gobiernan su comportamiento.

En un micrómetro se introduce un error estático cuando al eje se aplica una fuerza excesiva.

Química 1 - Medidas y unidades - 10

Los errores dinámicos se originan debido a que el instrumento de medición no responde lo suficientemente rápido para seguir los cambios de la variable medida. Para cualquier tipo adicional de error se puede clasificar en uno de los grupos mencionados.

1.1. Error absoluto

El error absoluto Ea de una medida es la diferencia entre el valor observado experimentalmente xi y el valor verdadero o aceptado como verdadero xr

ria xxE −=En contraste con la precisión donde el único interés es una diferencia numérica, el signo asociado con el error es tan importante como el mismo valor numérico, porque el experimentador necesita conocer si el efecto del error ha provocado un aumento o disminución del resultado (o resultados)El valor aceptado puede estar sujeto a un error apreciable; consecuentemente suele ser difícil establecer una estimación real de la exactitud de una medida.

En tanto que el error absoluto Ea de la media (o promedio) de un pequeño conjunto de análisis repetidos viene dado por la relación:

ra xxE −=

Donde x es el valor promedio de las mediciones realizadas y rx es el valor aceptado como verdadero de la cantidad que se mide. Al realizar varias mediciones de una misma magnitud todas ellas difieren en su valor, sin embargo oscilan en torno a un valor medio x que es el valor más probable de una medida variable.

Este valor se expresa:

Donde:

x es la media aritmética o promedio

mediciones experimentales número de mediciones

Media aritmética y promedio son términos sinónimos para el valor numérico que se obtiene dividiendo la suma de una serie de medidas repetidas por el número de los resultados individuales en la serie.

Aun cuando las mediciones se realizaron con el mismo instrumento cada medición experimental x i tiene su error ∆x i con respecto a x. Si definimos ∆x como el máximo error posible entre todos los valores ∆x i, entonces la forma correcta de escribir el valor de la magnitud física medida es:

Definimos ∆x como:

Donde:

mayor lectura

menor lectura

Química 1 - Medidas y unidades - 11

La forma de expresar ∆x en la expresión , se conoce como error absoluto y sus unidades son las del promedio.

Química 1 - Medidas y unidades - 12

1.2. Error relativo y error relativo porcentual

A menudo es útil expresar la exactitud en términos de error relativo. Para ello cuando Dx se divide por la media aritmética o el valor aceptado como el valor verdadero, entonces la cantidad que denominamos error relativo se expresa como:

x

xEr

∆=

Por otro lado el error relativo porcentual se expresa como:

%100.%x

xEr

∆=

Obsérvese que tanto el error absoluto como el relativo tienen signo pero no tienen unidades; si el signo es positivo indica que el resultado medido es mayor que el valor aceptado como verdadero y si es negativo, lo contrario.

Cálculo del error en la adición y sustracción de datos experimentales

Sean a y b magnitudes experimentalmente obtenidas con sus errores respectivos:

y c la magnitud a determinar a partir de ellas. Entonces, si

el error absoluto de c estará dado por:

El error absoluto de la suma o de la diferencia de magnitudes experimentalmente obtenidas, es igual a la suma de los errores absolutos de esas magnitudes. Cabe destacar que en el caso de la diferencia si restásemos los errores, eventualmente obtendríamos un error nulo, lo cual está descartado por lo cual consideramos la peor situación, es decir sumamos los errores.

Cálculo del error en el producto y cociente de datos experimentales

Sean a y b magnitudes experimentalmente obtenidas con sus errores respectivos:

y c la magnitud a determinar a partir de ellas. Entonces, si

ó el error relativo de c está dado por:

El error relativo del producto o el cociente de magnitudes experimentalmente obtenidas, es igual a la suma de los errores relativos de cada una de esas magnitudes.

Química 1 - Medidas y unidades - 13

2. Precisión

Un método común para expresar la precisión de una serie de mediciones realizadas en las mismas condiciones es la desviación de cada medida respecto a la media )( xxi − Consiste simplemente, en la diferencia numérica, sin tener en cuenta el signo, entre el valor experimental y la media de la serie de valores medidos.

La desviación estándar y la varianza son otras medidas de precisión más significativas.Frecuentemente es más conveniente indicar la desviación relativa respecto a la media en términos de tanto por ciento.

2.1. Desviación respecto de la media

La desviación es el alejamiento de una lectura dada de la media aritmética del grupo de lecturas. Si d1 es la desviación de la primera lectura x 1 y d2 es para la segunda lectura x 2

entonces la desviación de la media se puede expresar como:

Donde:

x es la media aritmética o promedio

mediciones experimentales

Tenga presente que el valor de las desviaciones de la media pueden tener valores tanto positivos como negativos y que la suma algebraica de todas las desviaciones debe ser cero.

2.2. Desviación promedio

La desviación promedio es una indicación de la precisión de los instrumentos empleados al realizar las mediciones. Por regla general, los Instrumentos altamente precisos darán una desviación promedio baja. Por definición la desviación promedio es la suma de los valores absolutos de las desviaciones dividida por el número de lecturas.

2.3. Desviación estándar

Por definición la desviación estándar de un número finito de datos está dada por:

Química 1 - Medidas y unidades - 14

4. Cifras significativas

Debido a que los valores obtenidos mediante una medición nunca son cifras exactas (siempre poseen algún grado de incertidumbre) como consecuencia de las limitaciones o rango de error que posee el instrumento de medición y obviamente la habilidad de quien efectúa tal medición; se debe procurar que, al registrar datos experimentales, éstos no digan más de lo que pueden decir según las condiciones en que las mediciones fueron realizadas. Es decir, que los valores numéricos expresen de alguna manera la confiabilidad o precisión. Por ello se debe poner cuidado en el número de cifras con que se expresa el resultado de una medida con el propósito de incluir sólo aquellas que tienen algún significado experimental. Tales cifras reciben el nombre de cifras significativas.

Una cifra es significativa cuando se conoce con una precisión aceptable.

Así, cuando se mide con un termómetro que aprecia hasta 0,1 °C no tiene ningún sentido que se escriban resultados del tipo 26,25 °C o 32,185 °C, por ejemplo.

Todas las cifras que figuran en un resultado deben ser significativas. Este mismo criterio general debe respetarse cuando se opera con datos experimentales; es una cuestión de sentido común que por el simple hecho de operar con los números no es posible mejorar la precisión de los resultados si éstos tienen una base experimental. Cuando un resultado se escribe de modo que todas sus cifras sean significativas proporciona por sí mismo información sobre la precisión de la medida.Cabe destacar que los valores numéricos que se obtienen al realizar conteos son cifras exactas. Los números exactos no tienen incertidumbre y por lo tanto tienen un número infinito de cifras significativas.

REGLAS PARA DETERMINAR LAS CIFRAS SIGNIFICATIVAS EN UNA MEDICION

Para cualquier medición, todos los números distintos del cero son significativos. No obstante, los ceros pueden ser cifras significativas o no dependiendo de su posición en el número.El cero no sólo actúa como un número, sino que también sirve para localizar la coma (o punto) decimal en números muy grandes o muy pequeños. Está claro que se debe distinguir entre los ceros que tienen significado físico (esto es, ceros que son cifras significativas) de aquellos que son desconocidos o que carecen de sentido debido a las limitaciones de la medida.

El cero ES SIGNIFICATIVO cuando está:

1. Entre dígitos distinto de cero:306 tiene tres cifras significativas (3, 0 y 6)3,06 tiene tres cifras significativas (3, 0 y 6)21,08 tiene cuatro cifras significativas (2, 1, 0 y 8)

2. Al final de un número que incluye un punto decimal:0,800 tiene tres cifras significativas (8, 0 y 0)35,280 tiene cinco cifras significativas (3, 5, 2, 8 y 0)2,00 tiene tres cifras significativas (2, 0 y 0)30, tiene dos cifras significativas (3 y 0)

El cero NO ES SIGNIFICATIVO cuando está:

1. Antes del primer dígito no cero. Estos ceros se utilizan para fijar el punto decimal:0,0035 tiene dos cifras significativas (2 y 5)0,0450 tiene tres cifras significativas (4,5 y 0)1000 es una medición ambigua 590 es una medición ambigua

Química 1 - Medidas y unidades - 15

Los dos últimos valores si han sido obtenidos mediante conteo podemos decir que poseen infinita cantidad de cifras significativas, en tanto que si los mismos fueron obtenidos mediante una medición, el valor de los ceros en cada caso es ambiguo porque en ninguno de los casos sabemos si los ceros se utilizan para ubicar el punto decimal o si representan realmente cifras significativas. Para eliminar esta ambiguedad, la regla general es que los ceros finales de un dato entero (sin punto decimal) no son significativos; si se desea expresar que son significativos, se convierte el dato en real añadiendo un punto decimal o se expresa en notación de mantisa indicando la cantidad de cifras consideradas como significativas y potencia de diez (notación científica, procedimiento que se explica en detalle en la próxima sección)

Ejemplo:

El número 5.000 expresado de esta forma, no se puede estar nunca seguro de si 5.000 significa 5.000 ± 1 (en cuyo caso serían cuatro cifras significativa), 5.000 ± 10 (tres cifras significativas), 5.000 ± 100 (dos cifras significativas) o 5.000 ± 1000 (una cifra significativa). La mejor manera de resolver la ambigüedad que se puede presentar en estos casos es expresar los números utilizando notación científica.

PROPAGACION DE IMPRECISIONES: Operaciones aritméticas con datos experimentales considerando cifras significativas

Los errores o las imprecisiones de un dato se propagan a todos los datos que se generan a partir de él. Es posible calcular con bastante rigor el error asociado a un resultado de una operación aritmética que involucra una colección de datos de los que se conoce su error, para hacerlo se utilizan las expresiones que derivan del cálculo diferencial, que si bien son de sencilla aplicación, resultan bastante tediosas y exceden los conocimientos de este curso. Debe recordarse siempre que los resultados de un cálculo cuyos datos han sido obtenidos mediante mediciones no pueden tener mayor precisión que la medición menos precisa.En los casos en los que el objetivo del análisis de propagación de errores no sea determinar rigurosamente la imprecisión final del resultado, sino, simplemente, estimar dicha precisión, es suficiente con un análisis del número de cifras significativas del resultado utilizando las siguientes reglas aproximadas:

Operaciones intermedias

No perder cifras significativas en las operaciones intermedias. Esto se asegura si todas las operaciones intermedias se hacen con una o dos cifras más de las realmente significativas.

Producto y cociente:

El número de cifras significativas del resultado debe contener igual número de cifras significativas que las que tenga el dato con menor número de cifras significativas:

2,62 / 8,14732116 = 0,3222,62 posee tres cifras significativas 8,14732116 posee nueve cifras significativas, por lo tanto el resultado de la operación debe expresarse con tres cifras significativas.

Adición y sustracción:

Los resultados de una adición o sustracción se deben expresar con la misma precisión que la medición menos precisa. Esto significa que la última cifra significativa del resultado es la del sumando que tenga menor cantidad de cifras decimales (o dicho de otra manera, tenga su última cifra significativa más a la izquierda):

2212,342 + 5,6 = 2217,9

Química 1 - Medidas y unidades - 16

REDONDEO Y CIFRAS SIGNIFICATIVAS

Al realizar operaciones aritméticas con datos obtenidos mediante mediciones con frecuencia obtenemos números que poseen más dígitos de los que se justifican utilizar. Cuando se deben eliminar (truncar) dígitos de un número se determina el valor del último dígito retenido mediante un proceso conocido como redondeo de cifras.

Reglas:

1. Cuando el primer dígito e eliminar es 4 o menor, se eliminan ese dígito y los restantes a su derecha. El último dígito retenido no cambia.

Redondear 2,62589 a 2 cifras significativas resulta en 2,6

2. Cuando el primer dígito después de los que se desea retener es 5 o mayor, se eliminan ese dígito y los restantes a su derecha, y el dígito precedente retenido se incrementa en una unidad con las siguientes consideraciones:

Redondear 2,03636 a 3 cifras significativas resulta en 2,04Redondear 14,03500 a 4 cifras significativas resulta en 14,04

3. Si el primer dígito a truncar es cinco y hay dígitos diferentes de cero después del cinco, incrementa el dígito precedente en 1.

Redondear 1,61562 a 3 cifras significativas resulta en 1,62Redondear 1,6250003 a 3 cifras significativas resulta en 1,63

4. Si el primer dígito a truncar es cinco y hay únicamente ceros después de cinco, redondee al número par.

Redondear 1,655000 a 3 cifras significativas resulta en 1,66Redondear 1,6225000 a 3 cifras significativas resulta en 1,62

Química 1 - Medidas y unidades - 17

5. Notación científica

La notación científica es un formato que se utiliza para escribir números muy grandes o pequeños de tal forma que puedan manejarse con facilidad. La notación exponencial es basada en usar potencia teniendo como base el 10. La ecuación general es la siguiente:

A x 10 a

Donde:A = número mayor que la unidad y menos que 10a = exponente de la base 10

Ventajas:

1. Para operar con números grandes o números pequeños se pueden escribir usando notación exponencial en una forma más manejable para facilitar los cálculos

2. También los números expresados en notación exponencial pueden ser usados con mayor facilidad en las computadoras y calculadoras.

Números mayores que 10

1. Primero localizamos el punto decimal para mover este punto a la derecha o izquierda hasta lograr que esté a la izquierda un solo dígito diferente de cero.

2. Este dígito diferente de cero colocado a la izquierda del punto decimal origina la expresión estándar de la notación científica.

3. Cuente el número de lugares que desplazó el punto decimal para satisfacer el paso 1.

4. El número de espacios que desplazó el punto decimal hasta la izquierda antes del primer dígito es lo que determina el valor del exponente de la base 10. En otras palabras, la potencia de 10 es igual al número de lugares que se ha desplazado el punto decimal, al moverse el punto decimal a la izquierda, la potencia de 10 es un número positivo.

Números menores 1

1. Primero localizamos el punto decimal a la derecha del primer dígito distinto de cero moviéndonos desde la izquierda.

2. Este dígito diferente de cero colocado a la izquierda del punto decimal origina la expresión estándar de la notación científica.

3. Cuente el número de lugares que desplazó el punto decimal para satisfacer el paso 1.

4. El número de espacios que desplazó el punto decimal hasta el punto decimal es lo que determina el valor del exponente de la base 10. En otras palabras, la potencia de 10 es igual al número de lugares que se ha desplazado el punto decimal, al moverse el punto decimal a la derecha, la potencia de 10 es un número negativo.

Ejemplos:

Expresar en notación científica el siguiente número: 4142618

1. Posicione el punto decimal hasta que deje una sola cifra entera a la izquierda del punto decimal: 4,142618

2. Cuente el número de dígitos por encima del cual se corrió el punto decimal hacia la izquierda y ese será el valor positivo del exponente de la base 10: 10 6

3. El número resultante en notación científica será: 4,142618 x 10 6

Química 1 - Medidas y unidades - 18

Expresar en notación científica el siguiente número: 0,00087

1. Posicione el punto decimal hasta que deje una sola cifra entera a la izquierda del punto decimal: 00008,7

2. Cuente el número de dígitos por encima del cual se corrió el punto decimal hacia la derecha y ese será el valor negativo del exponente de la base 10: 10 - 4

3. El número resultante en notación científica resultará: 8,7 x 10 - 4

Cuando se mueve el punto decimal en el coeficiente una posición a la izquierda, tiene que añadir uno al exponente.

Ejemplos:

42 x 106 = 4,2 x 107

4200 x 106 = 4,200 x 109

42 x 10- 6 = 4,2 x 10- 5

Cuando se mueve el punto decimal en el coeficiente una posición a la derecha, tiene que restar uno al exponente.

Ejemplos:

0,42 x 106 = 4,2 x 105

0,000043 x 106 = 4,3 x 101

0,42 x 10- 6 = 4,2 x 10- 7

Operaciones aritméticas en notación científica

1. Cuando se realizan adiciones o sustracciones de números en notación científica, se necesita igualar los exponentes de ambas cantidades y luego sumar los coeficientes de forma tal que ambas cantidades estén con los mismos exponentes.

2. En operaciones de producto y cociente con notación científica se deben seguir las reglas de los exponentes:

Cuando se multiplican dos números se multiplican los coeficientes y se suman los exponentes

Cuando se divide dos números, se dividen los coeficientes y se restan los exponentes.

Ejemplos:

Adición:4,2 x 10 6 + 6,4 x 10 5 = 4,2 x 10 6 + 0,64 x 10 6 = (4,2 + 0,64) x 106

Sustracción:4,2 x 10 - 6- 6,4 x 10 - 5 = 0,42 x 10 - 5- 6,4 x 10 - 5 = (0,42- 6,4) x 10 - 5 = - 2,2 x 10 - 5

Producto:4,3 x 10 6 . 2,0 x 10 2 = (4,3 . 2,0) x 10 (6+2) = 8,6 x 108

4,3 x 10 6 . 2,0 x 10 - 2 = (4,3 . 2,0) x 10 (6+(- 2)) = 8,6 x 104

Cociente:4,2 x 10 6 / 2,0 x 102 = (4,2 / 2,0) x (106 :10 2) = 2,1 x 10 (6- 2) = 2,1 x 104

4,2 x 10 - 6 / 2,0 x 10 - 2 = (4,2 / 2,0) x (10 - 6 : 10 - 2) = 2,1 x 10 (- 6- (- 2)) = 2,1 x 10 - 4

Química 1 - Medidas y unidades - 19

6. Sistema Métrico Decimal – Sistema Internacional de Unidades

Antecedentes históricos

En los tiempos medievales la diversidad e incoherencia de los sistemas de medición existentes era tan abrumadora que cada país, incluso cada región, tenía su propio sistema de pesos y medidas. A medida que las naciones europeas se convertían en países unificados, la existencia de un sinnúmero de sistemas de medición arbitrarios era una de las causas más frecuentes de disputas entre mercaderes, ciudadanos y funcionarios del fisco. La longitud, por ejemplo, podía ser medida en pies, pulgadas, palmos, codos, manos, varas, cadenas, leguas, etc. La falta de una norma común estándar constituía el principal conflicto en los intercambios e integridad en las operaciones comerciales entre las regiones.

Con el surgimiento de la República, como resultado de la Revolución Francesa en 1789, se impuso la necesidad de solucionar la diversidad y disparidad de los sistemas de medición existentes; por uno de carácter único, uniforme, abstracto, decimal y de aplicación universal; consecuentemente acorde con el avance intelectual y la capacidad de abstracción alcanzado por la sociedad.

El debate se centró en lo que se refería a la medida de longitud, a fin de desvincularla de referencias antropológicas concretas, pero ciertamente indeterminadas, como lo era el tamaño del pulgar que mide, o del pie del rey de turno que se oficializaba mediante la construcción de una pieza de metal patrón, pero este patrón cambiaba tras las sucesiones del rey.

Las dos unidades de mayor importancia a definir para las necesidades prácticas cotidianas de aquel momento eran las de longitud y peso.

En 1790, la Asamblea Nacional Francesa encomendó a la Academia de Ciencias diseñar un sistema de unidades de medición más adecuado y simple. Después de muchas deliberaciones, prefijaron para la definición de un sistema de medidas universal basarse en las propiedades de objetos de la naturaleza, concretamente, el tamaño de la Tierra, y el peso del agua, y en relaciones sencillas entre una unidad y la otra.

Finalmente la Comisión de la Academia de Ciencias propone como longitud de referencia la cuarta parte del meridiano terrestre, y su unidad fundamental, el METRO, a la diezmillonésima parte de esta longitud.

A fin de determinar esta unidad con la mayor precisión posible, enviaron varios equipos de expertos para medir la longitud de un arco de meridiano terrestre tan largo como fuera posible. Para ello se decidió medir la longitud del meridiano que va desde la torre del fuerte en Montjuic (Barcelona) a Dunquerque (Francia), ya que éste era el segmento terrestre más largo casi totalmente dentro de territorio francés. Es destacable mencionar que durante el proceso de medición, el cual llevó seis años, hubo hostilidades bélicas entre Francia y España, pero el desarrollo del nuevo sistema de medidas se consideró de tal importancia que el grupo de medición francés fue escoltado por tropas españolas dentro de territorio español a fin de asegurar la continuidad de la medición.Establecida la unidad de longitud y por ende la de volumen, se pudo definir la de la fuerza, el gramo, como la milésima parte del kilogramo que correspondió a la fuerza que ejerce la gravedad sobre la masa del volumen de 1 dm 3 de agua destilada a su máxima densidad (4° C, a nivel del mar y a una latitud determinada)

El proceso culminó en la proclamación el 22 de junio de 1799 del Sistema Métrico con la entrega a los Archivos de la República de los patrones del metro y el kilogramo confeccionados en aleación de platino e iridio.

Posteriores mejoras en la medición tanto del tamaño de la Tierra como también de las propiedades del agua resultaron en discrepancias con los patrones. La Revolución Industrial ya estaba en camino y la normalización de las piezas mecánicas, fundamentalmente tornillos y tuercas, era la mayor importancia y estos dependían de mediciones precisas. Cambiar los patrones de medida para ajustarse a las nuevas mediciones hubiera sido impráctico, particularmente porque a medida que los instrumentos fueron mejorando acabarían encontrando nuevos valores cada vez más precisos. Por ello se decidió romper con la relación que existía entre los patrones y sus fuentes naturales de tal forma que los patrones en sí se convirtieron en la base del sistema y permanecieron como tales hasta 1960 cuando se redefinió el metro en funciones de propiedades físicas y posteriormente en 1983, cuando se redefinió como el espacio que recorre la luz en una cierta fracción de segundo. De esta forma, el metro recobró su relación con un fenómeno natural,

Química 1 - Medidas y unidades - 20

esta vez realmente inmutable y universal. El kilogramo, sin embargo, permanece formalmente definido sobre la base del patrón que ya tiene dos siglos de antigüedad.

El Sistema Métrico Decimal (MKSA, metro, kilogramo masa, segundo, ampere) se adoptó internacionalmente en la 1° Conferencia General de Pesos y Medidas de 1889.

Uno de los problemas del Sistema Métrico Decimal, a pesar de su aparente claridad y seguridades iniciales, eran las definiciones de masa y fuerza. Lo que en un principio era unidad de fuerza pasó paulatinamente a considerarse como unidad de masa.

El peso es la fuerza que ejerce la gravedad sobre una masa y ambas magnitudes son proporcionales entre sí, pero no iguales, pues están vinculadas por el factor aceleración de la gravedad, como veremos más adelante.

Sistema Internacional de Unidades (SI)

La 11° Conferencia General de Pesas y Medidas (CGPM), en sus sesiones de 1960 celebradas en París, estableció definitivamente el Sistema Internacional de Medidas (SI), basado en 6 unidades fundamentales - metro, kilogramo, segundo, ampere, Kelvin, candela- , perfeccionado y completado posteriormente, agregándose en 1971 la séptima unidad fundamental, el mol, que cuantifica la cantidad de materia.

El Sistema Internacional de Medidas está dividido en dos clases de unidades:

1. Unidades fundamentales 2. Unidades derivadas

Desde el punto de vista científico, la división de unidades en estas dos clases es en cierta forma arbitraria, pero la CGPM, considerando las ventajas de implementar un sistema de unidades simple, práctico, de uso mundial para las relaciones internacionales, la enseñanza y el trabajo científico, decidió basar el SI en la elección de siete unidades bien definidas, las cuales por definición son referidas como unidades dimensionalmente independientes: el metro, el kilogramo, el segundo, el ampere, el kelvin, el mol y la candela. Estas unidades del SI son las unidades base o fundamentales.

El segundo tipo de unidades del SI son las unidades derivadas. Estas unidades se obtienen mediante operaciones matemáticas de las unidades fundamentales de acuerdo a las relaciones algebraicas que relacionan las unidades fundamentales asociadas. Los nombre y símbolos de algunas de las unidades derivadas a partir de las fundamentales pueden ser reemplazadas por nombres especiales y diferentes símbolos como veremos más adelante.

Las unidades SI forman un conjunto de unidades coherentes, donde el término coherente significa que el sistema esta formado por unidades que están mutuamente relacionadas por reglas de multiplicación y división relacionadas entre sí por un factor numérico igual a 1.

Es importante destacar que cada magnitud física tiene únicamente una unidad SI, aunque cada una de ellas puede ser expresada de diferentes formas. Sin embargo, lo inverso no es verdadero, en algunos casos la misma unidad SI puede ser utilizada para expresar los valores de diferentes magnitudes físicas.

Química 1 - Medidas y unidades - 21

Unidades Fundamentales del Sistema Internacional (SI)

Unidad de longitud: METRO

La definición de 1889 del metro, la cual se basaba en el prototipo de platino- iridio, fue reemplazada en la 11° CGPM puesto que la definición de un patrón en términos de una única pieza de metal no era satisfactoria, ya que su estabilidad no podía garantizarse a lo largo de los años por mucho cuidado que se tuviese en su conservación. Debido al avance de la ciencia el que permitió la identificación de las líneas espectrales de los átomos, y considerando que la velocidad de la luz en el vacío es constante, midiendo la frecuencia y la longitud de onda de alguna radiación de alta frecuencia se redefinió la unidad de metro utilizando una definición basada en una longitud de onda de la radiación del kriptón- 86. Se adoptó esta definición con el objetivo de mejorar la precisión con la cual puede definirse el metro. Asimismo, fue nuevamente redefinida en la 17° CGPM de 1983:

El metro (m) es la longitud del trayecto recorrido por la luz en el vacío durante un intervalo de tiempo equivalente a 1/ 299.792.458 segundo.

Es de destacar que esta definición fija la velocidad de la luz en el valor de 299.792.458 m/s

Unidad de masa: KILOGRAMO

El prototipo internacional del kilogramo, construido en aleación de platino- iridio, se encuentra actualmente en la Oficina Internacional de Pesos y Medidas (Sèvres, Francia), bajo las condiciones especificadas en la 1° CGPM de 1889. Este prototipo es aún considerado como la unidad de masa:

El kilogramo (kg) es la unidad de masa, la cual es igual a la masa del prototipo internacional de kilogramo.

Unidad de tiempo: SEGUNDO

La unidad de tiempo, el segundo, una vez fue considerada como la 1/86400 parte del día solar promedio, definición basada en teorías astronómicas. Sin embargo posteriormente las mediciones han mostrado que las irregularidades presentes en la rotación de la Tierra no eran tenidas en cuenta por la teoría y que el efecto es que esta definición no permitía la precisión requerida para ser utilizada como unidad de medida.En 1960, en común acuerdo con la International Astronomical Union , la CGPM adoptó la utilización de la definición del segundo basándose en el año tropical. Sin embargo, los trabajos experimentales posteriormente mostraron que los estándares atómicos de intervalos de tiempo, basados en la transición entre dos niveles de energía de un átomo o molécula, podrían ser utilizados y reproducidos en forma mucho más precisa.

Considerando la necesidad de utilizar una definición precisa para la unidad de tiempo, en 1968 la definición de segundo fue reemplazada:

El segundo (s) es la duración de 9.192.631.770 periodos de la radiación correspondiente a la transición entre dos niveles hiperfinos del estado basal del átomo de cesio 133 a una temperatura de 0 K.

Unidad de intensidad de corriente eléctrica: AMPERE

El ampere (A) es la intensidad de una corriente constante que manteniéndose en dos conductores paralelos, rectilíneos, de longitud infinita, de sección circular despreciable y distanciados a una distancia de un metro entre sí en el vacío, produce una fuerza igual a 2 x 10 - 7 N/m

Química 1 - Medidas y unidades - 22

Unidad de temperatura termodinámica: KELVIN

La definición de unidad termodinámica de temperatura para una sustancia dada fue elegida durante la 10° CGPM en 1954, seleccionándose el punto triple del agua como punto de referencia asignándole el valor de 273,16 K

El kelvin (K), unidad de temperatura termodinámica, es la 1/ 273,16 fracción de la temperatura termodinámica del punto triple del agua.

Unidad de cantidad de sustancia: MOL

Mediante un acuerdo entre la International Union of Pure and Applied Physics (IUPAP) y la International Union of Pure and Applied Chemistry (IUPAC) en 1960, acordaron asignar el valor 12 como la masa atómica relativa, del isótopo de carbono con número de masa 12 (12C) para ser utilizada como escala para la obtención de los valores de masas atómicas relativas.Por otro lado, era necesario definir la unidad de cantidad de sustancia relacionándose con la unidad de masa atómica relativa. Mediante acuerdo internacional se fijó la unidad de cantidad de sustancia (mol) para un valor de 0,012 kg.

1. El mol (mol) es la cantidad de sustancia de un sistema el cual contiene tantas entidades elementales como átomos presentes en 0,012 kilogramos de carbono 12.

2. Cuando se utiliza la definición de mol, deben especificarse las unidades elementales, éstas pueden ser átomos, moléculas, iones, otras partículas o grupos específicos de tales partículas.

Unidad de intensidad luminosa: CANDELA

La candela (cd) es la intensidad luminosa, en una dirección dada, que produce una fuente de radiación monocromática de frecuencia equivalente a 540 x 10 12 hertz y cuya intensidad energética en dicha dirección es 1/683 watt por esteroradián .

Unidades Fundamentales del Sistema Internacional

Magnitud física Unidad Símbolo Definición de la unidadLongitud metro m 1.650.763,73 longitudes de onda en el vacío

correspondiente a la transición entre los niveles 2p10 y 5d5 del átomo del krypton- 86

Masa kilogramo kg Masa del prototipo internacional, que se encuentra en la Oficina del Comité Internacional de Pesos y Medidas (Sevrès, Francia)

Tiempo segundo s La duración de 9.192.631.770 períodos de la radiación correspondiente a la transición entre los dos niveles hiperfinos del estado basal del átomo de cesio- 133

Corriente eléctrica ampere A La magnitud de la corriente que fluye en dos conductores paralelos, distanciados entre sí a un metro, en el vacío, que produce una fuerza entre ambos conductores (a causa de sus campos magnéticos) de 2 x 10- 7 N/m

Temperatura kelvin K La fracción 1/ 273,16 de la temperatura termodinámica del punto triple del agua

Intensidad luminosa candela cd La intensidad luminosa, en dirección perpendicular, de una superficie de 1/600.000 m2 de un cuerpo negro a la temperatura de congelamiento del platino (2,042 K), bajo una presión de 101,325 N/m2

Cantidad de sustancia mol mol La cantidad de sustancia de un sistema que contiene un número de entidades elementales igual al número de átomos presentes en 0,012 kg de carbono- 12

Química 1 - Medidas y unidades - 23

Unidades del Sistema Internacional derivadas expresadas en términos de las unidades fundamentales

Magnitud física Unidad Símbolo

ÁreaMetro cuadrado

m2

VolumenMetro cúbico

m3

Velocidad Metro por segundo m / s

Aceleración Metro por segundo cuadrado m / s2

Número de onda Recíproco del metro m - 1

Densidad Kilogramo por metro cúbico Kg / m3

Volumen específico Metro cúbico por kilogramo m3 / kg

Densidad de corriente Ampere por metro cuadrado A / m2

Fuerza del campo magnético Ampere por metro A / m

Concentración Mol por metro cúbico mol / m3

Luminosidad Candela por metro cuadrado Cd / m2

Unidades derivadas sin dimensión

Unidad de ángulo plano: El radián (rad) es el ángulo plano comprendido entre dos radios de un círculo que, sobre la circunferencia de dicho círculo, interceptan un arco de longitud igual a la del radio.

Unidad de ángulo sólido: El estereorradián (sr) es el ángulo sólido que, teniendo su vértice en el centro de una esfera, intercepta sobre la superficie de dicha esfera un área igual a la de un cuadrado que tenga por lado el radio de la esfera.

Magnitud física Unidad Símbolo Equivalencia Expresión de términos SI

Angulo plano radian Rad m . m - 1

Angulo sólido Estereo - radian Sr m2 . m - 2

Química 1 - Medidas y unidades - 24

Unidades derivadas con nombres y símbolos especiales

Magnitud física Unidad Símbolo Equivalencia Expresión de términos SI

Frecuencia hertz Hz s- 1

Fuerza newton N kg . m . s- 2

Presión Pascal Pa N / m2 kg . m - 1 . s- 2

Energía, trabajo, cantidad de calor

joule J N . m kg . m2 . s- 2

Potencia watt W J / s kg . m2 . s- 3

Carga eléctrica, cantidad de electricidad coulomb C s. ADiferencia potencial eléctrico, fuerza electromotriz

Volt V W / A kg .m2 . s- 3. A- 1

Capacitancia Faraday F C / V kg - 1 . m - 2 . s4 . A2

Resistencia eléctrica Ohm Ω V / A kg.m 2.s- 3. A- 2

Conductancia eléctrica siemens S A / V kg - 1.m - 2.s3.A2

Flujo magnético weber Wb V. s kg.m 2.s- 2.A- 1

Densidad de flujo magnético

Tesla T Wb / m2 kg.s - 2.A- 1

Inductancia henry H Wb / A kg.m 2.s- 2.A- 2

Flujo luminoso lumen Lm cd.sr m2.m - 2.cd

Iluminancia lux Lx lm / m2 m2.m - 4.cd

Actividad radioactiva Becquerel Bq s- 1

Química 1 - Medidas y unidades - 25

Unidad de frecuencia Un hertz (Hz) es la frecuencia de un fenómeno periódico cuyo periodo es 1 segundo.

Unidad de fuerza Un newton (N) es la fuerza que, aplicada a un cuerpo que tiene una masa de 1 kilogramo, le comunica una aceleración de 1 metro por segundo cuadrado.

Unidad de presión Un pascal (Pa) es la presión uniforme que, actuando sobre una superficie plana de 1 metro cuadrado, ejerce perpendicularmente a esta superficie una fuerza total de 1 newton.

Unidad de energía, trabajo, cantidad de calor

Un joule (J) es el trabajo producido por una fuerza de 1 newton, cuyo punto de aplicación se desplaza 1 metro en la dirección de la fuerza.

Unidad de potencia, flujo radiante

Un watt (W) es la potencia que da lugar a una producción de energía igual a 1 joule por segundo.

Unidad de cantidad de electricidad, carga eléctrica

Un coulomb (C) es la cantidad de electricidad transportada en 1 segundo por una corriente de intensidad 1 ampere.

Unidad de potencial eléctrico, fuerza electromotriz

Un volt (V) es la diferencia de potencial eléctrico que existe entre dos puntos de un hilo conductor que transporta una corriente de intensidad constante de 1 ampere cuando la potencia disipada entre estos puntos es igual a 1 watt.

Unidad de resistencia eléctrica

Un ohm (Ω) es la resistencia eléctrica que existe entre dos puntos de un conductor cuando una diferencia de potencial constante de 1 volt aplicada entre estos dos puntos produce, en dicho conductor, una corriente de intensidad 1 ampere, cuando no haya fuerza electromotriz en el conductor.

Unidad de capacidad eléctrica

Un farad (F) es la capacidad de un condensador eléctrico que entre sus armaduras aparece una diferencia de potencial eléctrico de 1 volt, cuando está cargado con una cantidad de electricidad igual a 1 coulomb.

Unidad de flujo magnético

Un weber (Wb) es el flujo magnético que, al atravesar un circuito de una sola espira produce en la misma una fuerza electromotriz de 1 volt si se anula dicho flujo en un segundo por decaimiento uniforme.

Unidad de inducción magnética

Una tesla (T) es la inducción magnética uniforme que, repartida normalmente sobre una superficie de 1 metro cuadrado, produce a través de esta superficie un flujo magnético total de 1 weber.

Unidad de inductancia Un henry (H) es la inductancia eléctrica de un circuito cerrado en el que se produce una fuerza electromotriz de 1 volt, cuando la corriente eléctrica que recorre el circuito varía uniformemente a razón de un ampere por segundo.

Química 1 - Medidas y unidades - 26

Unidades derivadas cuyos nombres y símbolos incluyen unidades derivadas con nombres y símbolos especiales

Magnitud física Unidad Símbolo Expresión de términos SI

Viscosidad dinámica Pascal segundo Pa.s kg.m - 1.s- 1

Capacidad calorífica, entropía

Joule por Kelvin J / K m2. kg.s - 2.K- 1

Capacidad calor específico, entropía específica

Joule por kilogramo kelvin J / (kg.K) m2.s- 2.K- 1

Conductividad térmica Watt por metro kelvin W /(m.K) kg.m.s - 3.K- 1

Intensidad del campo eléctrico

Volt por metro V / m kg.m.s - 3.A- 1

Unidad de viscosidad dinámica Un pascal segundo (Pa·s) es la viscosidad dinámica de un fluido homogéneo, en el cual, el movimiento rectilíneo y uniforme de una superficie plana de 1 metro cuadrado, da lugar a una fuerza retardatriz de 1 newton, cuando hay una diferencia de velocidad de 1 metro por segundo entre dos planos paralelos separados por 1 metro de distancia.

Unidad de entropía Un joule por kelvin (J/K) es el aumento de entropía de un sistema que recibe una cantidad de calor de 1 joule, a la temperatura termodinámica constante de 1 kelvin, siempre que en el sistema no tenga lugar ninguna transformación irreversible.

Unidad de capacidad térmica másica

Un joule por kilogramo kelvin (J/(kg·K) es la capacidad térmica másica de un cuerpo homogéneo de una masa de 1 kilogramo, en el que el aporte de una cantidad de calor de un joule, produce una elevación de temperatura termodinámica de 1 kelvin.

Unidad de conductividad térmica

Un watt por metro kelvin W/(m·K) es la conductividad térmica de un cuerpo homogéneo isótropo, en la que una diferencia de temperatura de 1 kelvin entre dos planos paralelos, de área 1 metro cuadrado y distantes 1 metro, produce entre estos planos un flujo térmico de 1 watt.

Unidad de intensidad del campo eléctrico

Un volt por metro (V/m) es la intensidad de un campo eléctrico, que ejerce una fuerza de 1 newton sobre un cuerpo cargado con una cantidad de electricidad de 1 coulomb.

Química 1 - Medidas y unidades - 27

Unidades fuera del Sistema Internacional

Las unidades del Sistema Internacional están recomendadas para ser utilizadas en la ciencia, la tecnología y el comercio. Fueron aceptadas internacionalmente mediante las diferentes Conferencias Generales de Pesos y Medidas, y proporcionan un marco de referencia para el cual todas las otras medidas se pueden definir. Sin embargo, hay aún algunas unidades no- SI que se siguen utilizando ampliamente en la literatura científica, técnica y comercial, las que continuaran siendo usadas por muchos años. Otras, como las unidades de tiempo, son utilizadas en la vida cotidiana y están profundamente enraizadas en la cultura, las que probablemente se seguirán utilizando para siempre.

La CGPM en 1969, clasificó estas unidades no- SI en tres categorías: Unidades a ser mantenidas, unidades a ser toleradas temporalmente, y unidades a ser evitadas de utilizar.

Unidades aceptadas para ser utilizadas con el SIEstas contienen las unidades de uso cotidiano, en particular las tradicionales unidades de tiempo y ángulos, junto con otras que tienen importancia técnica.

Nombre Símbolo Valor en unidades SI

minuto min 1 min = 60 s

hora h 1 h = 3600 s

día d 1 d = 86.400 s

grado ° 1° = (π /180) rad

minuto ‘ 1’ = (1/60)° = (π /10800)rad

segundo “ 1” = (1/60)’ = (π / 648000)rad

litro l 1 l = 1 dm 3 = 10 - 3 m3

tonelada t 1 t = 10 3 kg

Unidades no- SI aceptadas para ser utilizadas con el SI cuyos valores en unidades SI fueron obtenidos experimentalmente

Nombre Símbolo Valor en unidades SI

Electronvolt eV 1 eV = 1,60217733 x 10 - 19 J

Unidad de masa atómica

u 1 u = 1,6605402 x 10 - 27 kg

Unidad astronómica ua 1 ua = 1,49597870691 x 10 11 m

Química 1 - Medidas y unidades - 28

Unidades no – SI las cuales son comúnmente utilizadas para uso con el SI las que satisfacen necesidades comerciales, legales o intereses científicos específicos.

Estas unidades deben ser definidas en relación con el SI en cada reporte técnico en el cual son utilizadas

Nombre Símbolo Valor en unidades SI

milla náutica 1 milla náutica = 1852 m

nudo 1 milla náutica por hora = (1852 /3600) m/s

area a 1 a = 1 dam2 = 10 2 m2

hectárea ha 1 ha = 1 hm 2 = 10 4 m2

bar bar 1 bar = 0,1 Mpa = 100 kPa = 1000 hPa = 10 5 Pa

Angstrom Å 1 Å = 0,1 nm = 10 - 10m

Otras unidades no - SI: Equivalencias del Sistema CGS y SI

En el campo de la mecánica, el sistema CGS (centímetro – gramo – segundo) de unidades fue creado bajo tres magnitudes que se correspondes con las unidades base centímetro, gramo y segundo. En el campo de la electricidad y magnetismo, las unidades fueron expresadas en términos de estas tres unidades base.

Nombre Símbolo Valores de unidades SI

ergio erg 1 erg = 10 - 7 J

dina dyn 1 dyn = 10 - 5 N

poise p 1 P = 1 dyn.s/cm 2 = 0,1 Pa.s

Stokes St 1 St = 1 cm2/s = 10 - 4 m2/s

Gauss G 1 G = 10 - 4 T

Oersted Oe 1 Oe = (1000/4 ) A/m

Maxwell Mx 1 Mx = 10 - 8 Wb

Química 1 - Medidas y unidades - 29

Otras unidades no – SI

Nombre Símbolo Valores de unidades SI

Curie Ci 1 Ci = 3,7 x 10 10 Bq

Röntgen R 1 R = 2,58 x 10- 4 C/kg

Unidad X 1 unidad X = 1,002 x 10 - 4 nm

Gamma g 1 γ = 1 nT = 10 - 9 T

Fermi 1 fermi = 1 fm = 10 - 15 m

Torr Torr 1 Torr = 101.325/760 Pa

Atmósfera atm 1 atm = 101.325 Pa

Caloría cal 1 cal = 4.184 J

Prefijos – Múltipos y submúltiplos decimales

La Conferencia General de Pesos y Medidas en 1960 adoptó una serie de símbolos y prefijos para formar los nombres y símbolos de los múltiplos y submúltiplos decimales del Sistema Internacional de medidas:

Factor Nombre Símbolo Factor Nombre Símbolo10 24 Yotta Y 10 - 1 deci d10 21 Zetta Z 10 - 2 centi c10 18 Exa E 10 - 3 mili m10 15 Peta P 10 - 6 micro µ10 12 Tera T 10 - 9 nano n109 Giga G 10 - 12 pico p106 Mega M 10 - 15 femto f103 kilo k 10 - 18 atto a102 hecto h 10 - 21 zepto z101 deca da 10 - 24 yocto y

Química 1 - Medidas y unidades - 30

Caso especial: Unidad de Fuerza (Newton)

La masa, es una medida de la cantidad de materia que posee un objeto; por lo tanto, la masa de un cuerpo es una propiedad intrínseca del mismo y no varía aunque cambien el lugar donde se encuentra. La masa de un objeto es constante.La masa se determina en una balanza. La medición consiste en comparar la masa de un objeto desconocido con la masa de un objeto cuya masa se conoce previamente. Para describir esta operación común, coloquialmente utilizamos el verbo “pesar”, y, como consecuencia de ello, nos hemos acostumbrado a utilizar la palabra “peso” para designar la cantidad de masa que posee un objeto.

Peso y masa se utiliza indistintamente para designar la cantidad de materia, pero debemos ser conscientes de que ambas magnitudes no son lo mismo y que la forma correcta de designar la cantidad de materia de un objeto es referirse a su masa.Para evitar la posible confusión que puede surgir entre los conceptos peso y masa basta con tener en cuenta que el peso de un cuerpo es la fuerza de atracción gravitatoriaque la Tierra ejerce sobre él. Así de esta manera, al contrario de lo que ocurre con la masa, el peso no es constante, puesto que la atracción gravitatoria no lo es.

La masa de un objeto se puede considerar como la resistencia que éste ofrece al ser acelerado; el peso es el resultado de la atracción de la gravedad o cualquier objeto de grandes dimensiones. De acuerdo al siguiente principio:

Si una fuerza constante (F) – en el vacío- empuja a una masa (M), ésta cobrará cada vez mayor velocidad - se acelerará- , y al cabo de cierto tiempo (t) medido en segundo [s], la velocidad final (v2) medida en metros por segundo [m/s] será mayor que la velocidad inicial (v1); ello se denomina aceleración (a) y su valor surge de la relación de dimensiones medibles entre la diferencia entre ambas velocidades y el tiempo transcurrido:

t

vva

12 −=

Dado que dicha aceleración fue consecuencia de la aplicación de la fuerza constante a la masa, y que el valor de la aceleración se verifica que es proporcional a la fuerza e inversamente proporcional al de la masa, el valor de la aceleración también vendrá dado por:

M

Fa =

o bien

aMF .=

Que representa la segunda ley fundamental de la dinámica formulada por Newton

Esta ley de la física surge de observaciones experimentales, lo que implica que se han hecho experimentos que han demostrado que una fuerza F actuando sobre una masa M le comunicó una aceleración a y cuando se midió dos cualesquiera de dichas magnitudes se verificó el resultado de la tercera.

Aquí encontramos tres magnitudes relacionadas entre sí, a las que un sistema de medidas debe asignar unidades.

Teniendo la aceleración [m/s 2] unidades iguales a las ya definidas por el Sistema Métrico Decimal y adoptadas por el Sistema Internacional, quedaban pendientes de definición una de las otras dos, fuerza (F) y masa (M). Definida una de ellas, la tercera surge como consecuencia, y resulta unidad derivada.

Química 1 - Medidas y unidades - 31

La masa (M) de un cuerpo es una propiedad invariante del mismo, independientemente de su velocidad (aunque la teoría de la relatividad demuestra que en velocidades próximas a la de la luz, la masa de un cuerpo se incrementa), de su aceleración, o de su posición y/o altura sobre la superficie terrestre.

La fuerza (F), con una definición posible como el peso de una masa determinada –tal como lo estableció en sus orígenes el Sistema Métrico Decimal- requiere de la aceleración de la gravedad como factor de definición, la que como se sabe varía según la altura o el lugar sobre la superficie terrestre donde se halle la masa.

Por estas últimas circunstancias y otras consideraciones científicas, surge evidente que de ambas, la masa es la magnitud cuya unidad de medida es más apropiada para considerarse básica, tal como lo establece el SI, y la de fuerza la unidad derivada.

Para unidad de masa el SI utiliza, como ya hemos mencionado, un patrón de platino-iridio, equivalente a aquel patrón de peso de platino de 1795 que correspondía al dm 3

de agua, y que se denomina igual 1 kilogramo.

Como unidad de fuerza el SI designa el Newton (N), que naturalmente se relaciona con los otros dos factores de la formula del siguiente modo:

1 N (fuerza) = 1 kg (masa) x 1 m/s 2 (aceleración)

2

11

s

kgmN =

Relación entre el kilogramo – fuerza y el Newton

Cuando se definió el Sistema Métrico Decimal, el gramo como unidad de fuerza, correspondiente a la milésima parte del kilogramo que era el peso de 1 dm 3 de agua en su estado de máxima densidad, cumpliéndose la ley de Newton, la fuerza era el peso (G) y la aceleración era la de la gravedad (g), quedando la masa (M) en la indeterminación evidenciada por los distintos textos de leyes.

De este modo la relación era la siguiente:

G = M . g (equivalente a F = M . a)

En unidades, llamando Kgf (kilogramo- fuerza) al kg del Sistema Métrico Decimal

1 Kgf = m. 9,80665 m/s 2

Y si el Sistema Internacional designa al Kg como unidades de masa:

1 Kgf = 1 kg . 9,80665 m/s 2

al ser 1 N = 1 kg m/s 2

Resultará que la equivalencia entre las unidades de fuerza del Sistema Métrico Decimal (kilogramo – fuerza) y la unidad de fuerza del Sistema Internacional (Newton) será:

1 kgf = 9,80665 N

Química 1 - Medidas y unidades - 32

7. Análisis Dimensional

La palabra dimensión tiene un significado especial en física y química. Por lo común denota la naturaleza física de una cantidad. Ya sea que la separación entre dos puntos se mida en unidades de pies o metros, es una distancia. Decimos entonces que su dimensión es la longitud. Los símbolos que utilizaremos para especificar por ejemplo la longitud, masa y el tiempo son L, M y T, respectivamente. Es frecuente el uso de corchetes [ ] para denotar las dimensiones de una cantidad física o química.

Por ejemplo: en esta notación las dimensiones de velocidad v se escriben [v] = L / T, y las de área A son [A] = L2

En muchas situaciones será necesario deducir o comprobar si una fórmula específica es correcta (expresión o ecuación matemática). Aun cuando el lector haya olvidado los detalles de la deducción, puede utilizar un procedimiento llamado análisis dimensional, el cual hace uso del hecho de que las dimensiones pueden ser tratadas como cantidades algebraicas, esto quiere decir que las cantidades se pueden sumar o restar sólo si tienen las mismas dimensiones y están expresadas en las mismas unidades. Además, los términos a ambos lados de la ecuación deben tener las mismas dimensiones. Si se siguen estas reglas sencillas, es posible usar el análisis dimesional como auxiliar para determinar si una expresión tiene o no la forma correcta. La relación puede ser correcta sólo si las dimensiones en ambos lados de la ecuación son las mismas.

Resolución de problemas - Método de análisis dimensional

Muchos principios físicos o químicos pueden ser expresados matemáticamente, es por ello que resulta necesario aprender a plantear y resolver problemas numéricos en forma sistemática (algo que resulta indispensable para estudiar física o química)

Un problema puede ser resuelto por varios métodos. Pero en todos ellos lo mejor - especialmente para los estudiantes principiantes- es utilizar un enfoque sistemático, prolijo y ordenado. En este caso hacemos énfasis en el método de análisis dimensional porque proporciona una forma sistemática y directa para plantear y resolver los problemas ofreciendo una comprensión clara de los principios teóricos que se verán durante la cursada.Por otro lado, permite desarrollar habilidades para organizar y evaluar datos. El análisis dimensional permite identificar errores, pues las unidades no deseadas no se pueden eliminar si el planteo del problema resulta incorrecto.

Los pasos básicos para resolver los problemas en física y química consisten en:

1. Leer cuidadosamente el enunciado del problema. Determinar qué es lo que debes resolver y escríbelo.

2. Tabula los datos del problema. Es importante identificar todos los factores y medidas con las unidades apropiadas.

3. Determina los principios involucrados en el enunciado del problema y las relaciones de unidades necesarias para resolver el problema. Puede que necesites tablas para obtener datos que no son suministrados en el planteo del problema.

4. Plantea el problema en forma clara, organizada y lógica, asegurándote de cancelar las unidades no deseadas. Guíate por los problemas resueltos que se encuentran en los libros de texto para poder aprender y revisar el tipo de planteamiento que realices.

5. Efectúa las operaciones matemáticas necesarias. Asegúrate de que tu respuesta contiene el número apropiado de cifras significativas.

6. Verifica siempre si la respuesta es razonable.

Respecto a la solución de problemas: No permitas que ningún método formal de resolución de problemas limite tu sentido común e intuición.

Química 1 - Medidas y unidades - 33

Si el problema te resulta claro y su solución parece más sencilla por otro método, no dudes en utilizarlo. Sin embargo, a la larga, deberás ser capaz de resolver problemas que sin el uso del análisis dimensional serían difíciles de resolver.

El análisis dimensional convierte una unidad en otra con los factores de conversión.

Unidad1 x factor de conversión = unidad2

Ejemplo: Se desea determinar cuantos miligramos hay en 3,6 gramos.

Es necesario convertir entonces los gramos (g) a miligramos (mg)

g x factor de conversión = mg

Este factor de conversión debe cumplir con dos aspectos: cancelar (o eliminar) la unidad gramos e introducir la unidad miligramos - la unidad que se desea en la respuesta- . Tal factor de conversión debe estar en forma fraccionaria, y tener gramos en el denominador y miligramos en el numerador:

g x g/mg = mg

Sabemos que 1 gramo equivale a mil miligramos (1 g = 1000 mg). A partir de esta relación podemos escribir dos factores de conversión - dividiendo ambos lados de la ecuación entre la misma cantidad:

1 g / 1000 mg o bien 1000 mg / 1 g

Al escoger el factor de conversión apropiado para nuestro problema, (1000 mg / g) podemos plantear el cálculo para la conversión de 3,6 gramos a miligramos:

2,6 g 1000 mg / g = 3600 mg ó 3,6 x 10 3 mg

Observa que, al hacer este tipo de cálculo, las unidades son tratadas como números; los gramos en el numerador se cancelan por gramos en el denominador.

Química 1 - Medidas y unidades - 34