Preguntas Frecuentes

Permite buscar en Preguntas y Respuestas
Metrología

La incertidumbre de medición comprende, en general, muchas componentes; algunas de ellas pueden evaluarse a partir de la distribución estadística de los resultados de series de medidas, y pueden caracterizarse por desviaciones típicas experimentales; otras componentes, que también pueden ser caracterizadas por desviaciones típicas, se evaluan a partir de la asunción de determinadas distribuciones de probabilidad basadas en la experiencia o en otras informaciones.

Las etapas a seguir para evaluar y expresar la incertidumbre del resultado de una medición, tal como se presentan en la Guía para la expresión de la incertidumbre de medida, pueden resumirse como sigue:
          1. Expresar matemáticamente la relación existente entre el mensurando Y y las magnitudes de entrada Xi de las que depende el mensurando, en la forma Y = f(X1, X2, ¿, XN), incluyendo correcciones y factores de corrección, que pueden contribuir significativamente a la incertidumbre del resultado.
          2. Determinar los valores estimados xi de las magnitudes de entrada Xi, a partir del análisis estadístico de series de observaciones, o por otros métodos.
          3. Evaluar las incertidumbres típicas u(xi) de cada valor estimado xi bien por análisis estadístico de series de observaciones (evaluación de tipo A), bien por otros medios (evaluación de tipo B).
          4. Evaluar, si es el caso, las covarianzas asociadas a todas las estimaciones de entrada que estén correlacionadas.
          5. Calcular el resultado de medición; esto es, la estimación y del mensurando Y, a partir de la relación funcional f utilizando para las magnitudes de entrada Xi las estimaciones xi obtenidas en el paso 2.
          6. Determinar la incertidumbre típica combinada uc(y) del resultado de medida y, a partir de las incertidumbres típicas y covarianzas asociadas a las estimaciones de entrada.
          7. Si debe obtenerse una incertidumbre expandida U, multiplicar la incertidumbre típica combinada uc(y) por un factor de cobertura k, normalmente comprendido entre los valores 2 y 3, para obtener U = k∙uc(y). Seleccionar k considerando el nivel de confianza (normalmente 95%) requerido para el intervalo y-U,y+U.
          8. Documentar el resultado de medición y, junto con su incertidumbre típica combinada uc(y), o su incertidumbre expandida U, describir cómo han sido obtenidos los valores de y, y de uc(y) o U.

También puede emplearse un método de Monte Carlo, como alternativa práctica al enfoque GUM sobre la incertidumbre, el cual es de aplicación cuando:

a)   la linealización del modelo proporciona una representación inadecuada, o bien cuando

b)   la función de densidad de probabilidad (FDP) para la magnitud de salida se aparta apreciablemente de una distribución normal o de una distribución t, por ejemplo, debido a una marcada asimetría.

El método de Monte Carlo permite obtener entonces una representación de la función de probabilidad (FDP) de la magnitud de salida, de la que puede obtenerse: a) una estimación de la magnitud de salida, b) la incertidumbre típica asociada a esta estimación, c) un intervalo de cobertura para dicha magnitud correspondiente a una probabilidad de cobertura determinada.

Calibración

Un transductor de fuerza se calibra siguiendo la norma UNE EN ISO 376 "Materiales metálicos. Calibración de los instrumentos de medida de fuerza utilizados para la verificación de las máquinas de ensayo uniaxial" y el de par siguiendo la recomendación EURAMET/cg-14/v.01 "Guidelines on the Calibration of Static Torque Measuring Devices" (antigua EA 10/14).
 

Calibración

No existe ningún método normalizado y genérico para la caracterización de medios isotermos. La caracterización debe diseñarse en función del uso del medio. Como bibliografía, es conveniente consultar la nota técnica editada por ENAC (Entidad Española de Acreditación): NT-04 "Caracterización de medios isotermos" (www.enac.es) y la guía de calibración editada por EURAMET para caracterización de hornos de tipo bloque seco EURAMET/cg-13/v.01 "Guidelines on the Calibration of Temperature Block Calibrators" (www.euramet.eu).

Metrología

El Sistema Metrológico Español (SME) está formado por el Centro Español de Metrología (CEM) y los laboratorios designados por éste como Asociados a él (ROA, IFA-CSIC, INTA, CIEMAT, LCOE, ISCIII). Todos ellos forman la cúspide de la pirámide metrológica nacional, donde se establecen y mantienen los patrones primarios de las unidades de medida correspondientes al Sistema Internacional de Unidades (Sistema SI), declarado de uso legal en España por Ley 3/1985, de 18 de marzo, de Metrología.

La diseminación de las unidades de medida por todo el país, desde el nivel primario hasta las mediciones realizadas en la industria, el comercio, la ciencia, la educación o los servicios, manteniendo una trazabilidad demostrable a los patrones nacionales, se realiza mediante el concurso de laboratorios de calibración, la mayoría de ellos acreditados por la Entidad Nacional de Acreditación (ENAC). Este conjunto de laboratorios, junto con la propia ENAC, constituye parte importante del SME.

El funcionamiento correcto del SME es vital para la interconexión de todas las capas de la sociedad, en las cuales se realizan diariamente multitud de mediciones de diversa índole, con distinta trascendencia para los ciudadanos. Puede decirse que el SME permite garantizar la validez de todas las mediciones realizadas en España, así como la compatibilidad de éstas con las realizadas fuera de nuestras fronteras, aspecto básico para el reconocimiento internacional de nuestros intercambios comerciales y de nuestras contribuciones científico-técnicas.

El SME no tiene una dependencia orgánica única, estando compuesto por Instituciones y Organismos dependientes de distintos Ministerios, los cuales trabajan coordinadamente para garantizar la misión que tienen encomendada de manera conjunta. Sin embargo, es el Centro Español de Metrología (CEM) el que por ley resulta último responsable de esta infraestructura y del éxito de la misma, ejercitando la iniciativa legislativa y la firma de los acuerdos de cooperación oportunos, tendentes a lograr el mayor desarrollo metrológico de nuestro país.

Metrología

Es un instrumento capaz de medir la temperatura de un cuerpo a partir de su energía radiada. Están habitualmente basados en detectores fotoeléctricos en los que la intensidad radiante es medida al producirse una señal eléctrica por la absorción de fotones en una transición electrónica que responde específicamente a la energía fotónica.

Los termómetros de radiación pueden clasificarse por las longitudes de onda que detectan en visibles y de infrarrojos y por su ancho de banda: de paso de banda estrecho o espectrales, a los que se les puede asignar una longitud de onda efectiva; y totales, donde todas las longitudes de onda son detectadas.

Cualquier sistema de medida de temperatura fotoeléctrica debe tener:
- Un sistema óptico para enfocar la energía radiante desde el blanco al detector.
- Filtros u otros medios para seleccionar las longitudes de onda.
- Detectores para transformar la intensidad de energía radiante en una señal eléctrica apropiada.
- Amplificadores u otros elementos para convertir la señal del detector en una señal utilizable.

Es importante destacar que en las medidas de temperatura con un termómetro de radiación, debe conocerse la emisividad del cuerpo del que se está midiendo la temperatura. Habitualmente los termómetros de radiación permiten seleccionar previamente la emisiviad de dicho cuerpo.

Metrología

En la determinación del valor de masa (real y convencional) existen una corrección, el empuje del aire, que depende de la densidad de la masa. En muchos casos basta saber el tipo de material de la que está hecha para hacer una estimación de su densidad, aunque la incertidumbre asociada será alta. Para el caso de las pesas la clase a la que pertenezcan establecerá unos límites de densidad establecidos en la OIML R111. Dicha recomendación recoge también los métodos factibles para la determinación de la densidad de una pesa de acuerdo a su clase.
 

Metrología

La presión sonora en un punto es la diferencia entre la presión instantánea y la presión media ambiente. El valor mínimo de presión sonora que una persona adulta puede oír es del orden de 20 mPa, mientras que la presión atmosférica normal es aproximadamente105 Pa.

El nivel de presión sonora es 20 log (p/20 mPa).La presión sonora y el nivel de presión sonora se refieren generalmente al valor cuadrático medio de la presión.

Metrología

La densidad del aire se calcula a partir de la ecuación recomendad por el CIPM (establecida por Giacomo y modificada por Davis) mediante la medida de la presión atmosférica, la temperatura de rocío (o humedad relativa) y la temperatura ambiente. Si se requiere gran exactitud se ha de incluir la fracción de CO2. Dicha ecuación y otras más simplificadas se incluyen en la recomendación OIML R111 (2004). En un futuro se prevé la modificación de dicha ecuación.

Metrología

Debido a la creciente necesidad de mejora en la exactitud de medida de la temperatura y ante la imposibilidad de alcanzarla mediante termómetros termodinámicos, a finales del siglo XIX se acordó una escala internacional de temperatura. En su primera reunión tras la "Convención del Metro", la Conferencia General de Pesas y Medidas (CGPM) en 1887 estableció la "Escala Normal de Hidrógeno". En 1927 la CGPM adoptó la primera Escala Internacional de Temperatura y en 1937 el Comité Internacional de Pesas y Medidas (CIPM) creó el Comité Consultivo de Termometría que debería preparar los borradores de las revisiones de las Escalas que adoptaría la CGPM. La última revisión y que está en vigor en la actualidad es la Escala Internacional de Temperatura de 1990 (EIT-90).

Como características generales de las Escalas Internacionales y su evolución se puede destacar:
- Mayor facilidad de realización y mantenimiento que la escala termodinámica.
- Mantenerse tan próximas a las temperaturas termodinámicas como fuese posible en el momento de su publicación.
- Mantener una reproduciblidad superior a la incertidumbre de la realización de la escala termodinámica correspondiente.
- Aumentar el campo de definición según las necesidades tecnológicas del momento.

La Escala Internacional de Temperatura de 1990 fue adoptada por el Comité Internacional de Pesas y Medidas en su sesión de 1989, de acuerdo con la invitación formulada en 1987 por la 18ª Conferencia General de Pesas y Medidas. Esta Escala reemplazó a la Escala Práctica Internacional de Temperatura de 1968 (edición corregida de 1975) y a la Escala Provisional de Temperatura de 1978 entre 0,5 K y 30 K.

La EIT-90 comprende rangos y sub-rangos de temperatura y, en cada una de ellos, existe una definición de T90. La EIT-90 ha sido concebida de tal manera que, en toda su extensión y para toda temperatura, T90 sea numéricamente tan próxima como sea posible a la temperatura termodinámica, siguiendo las mejores estimaciones efectuadas en el momento de adopción de la escala. En comparación con las medidas directas de la temperatura termodinámica, las medidas de T90 son fáciles, precisas y muy reproduciblesº1.

Entre 0,65 K y 5,0 K, la temperatura T90 se define por medio de las relaciones entre la presión de vapor de saturación y la temperatura del 3He y del 4He.

Entre 3,0 K y el punto triple del neón (24,556 1 K), la temperatura T90 se define mediante el termómetro de gas de helio calibrado a tres temperaturas realizables experimentalmente y que tienen valores numéricos asignados (puntos fijos de definición), utilizando fórmulas de interpolación especificadas.

Entre el punto triple del hidrógeno en equilibrio (13,803 3 K) y el punto de solidificación de la plata (961,78 °C), la temperatura T90 se define mediante un termómetro de resistencia de platino calibrado en series especificadas de puntos fijos de definición y utilizando fórmulas de interpolación especificadas.

Por encima del punto de solidificación de la plata, la temperatura T90 se define a partir de un punto fijo de definición y la Ley de Radiación de Planck.

Calibración

Un termómetro electrónico, o termómetro de lectura directa, está compuesto de un sensor (por ejemplo termopar, pt-100, termistor,...) y un equipo de lectura que ofrece la lectura comúnmente en unidades de temperatura. En general, existen dos formas de calibrar este tipo de termómetros:
- El conjunto completo: las calibraciones se hacen por comparación a termómetros patrón en medios isotermos. Habitualmente los certificados ofrecen los resultados del conjunto como "correciones" en unidades de temperatura junto con sus correspondientes incertidumbres.
- De forma independiente: el sensor se calibra por comparación a termómetros patrón en medios isotermos y en su certificado aparecerá la correspondencia entre la lectura del sensor (ohmios, microvoltios,...) y la temperatura, es habitual que este tipo de certificados también den una ecuación de ajuste que relacione su señal de medida con la temperatura. Por otro lado el equipo de lectura deberá también calibrarse, pero su calibración ya no es "térmica" sino "eléctrica" (normalmente con simuladores), de forma que se asegure una correcta conversión entre la respuesta del sensor y la lectura del equipo.

La ventaja del primer tipo de calibración es que con ella se obtienen las mejores incertidumbres de medida, pero "ata" al sensor y el equipo, la ventaja del segundo tipo es que permite la inter-cambiabilidad entre sensores y equipo de lectura.