Diccionario Nuclear

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

incertidumbre

uncertainty (inglés)

incertitude (francés)

En la medición de cantidades o en su determinación numérica por algún otro método, parámetro que se asocia al resultado para caracterizar un intervalo dentro del cual cualquier valor podría ser un resultado razonable. Dicho parámetro puede ser la desviación típica de una distribución estadística de valores dispersos, o un múltiplo de aquélla, o la semiamplitud de un intervalo al que puede atribuirse un nivel de confianza dado. 

 

 

Comentario :

En el mundo real toda medición se hace con instrumentos y métodos imperfectos. Las lecturas son en consecuencia erróneas pero pueden ser corregidas. Si los defectos pudiesen ser “perfectamente” conocidos, los resultados, o sea las lecturas corregidas, podrían ser perfectos también, pues una lectura perfectamente corregida estaría libre de error. Sin embargo, salvo en análisis extremadamente elementales, la presencia del error se considera inevitable, incluso para medidas corregidas con mucho cuidado.
Hay pocas ventajas en manejar el concepto de error para describir el resultado de una medida. Todos los intentos de hacerlo así, como un conjunto en el que por un lado se especifica el resultado y por otro su error, aunque sea el residual tras las correcciones, se estrellan en la imposibilidad de conocer este último. Para introducirlo en los cálculos o en las especificaciones de cualquier acción no sirve ninguna definición del error que lo considere como la “diferencia entre el resultado y el valor verdadero”, porque si se dispusiera de algún valor con esa propiedad, se podría usar para corregir el resultado y en adelante no habría que manejar más que el “valor verdadero”.
Hay que aceptar como única realidad que se conocen resultados de mediciones y que de ellos y de las condiciones y propiedades de las mediciones se puede obtener algo más de información que la contenida en un valor único del resultado. Esa información podría interpretarse como avance hacia el conocimiento de un valor verdadero, siempre que se admita que ese conocimiento no es nunca seguro, sino que está afectado de una incertidumbre. Si no se sale de esa línea conceptual dicha incertidumbre se puede cuantificar sin necesidad de manejar el error más que como causa admitida de las desviaciones forzosamente desconocidas de un valor desconocido.
En la definición, esto se expresa implícitamente porque se ha de entender que tras realizar todas las correcciones sugeridas por el conocimiento de los instrumentos y los métodos empleados, se dispone de un conjunto más o menos extenso de valores del mensurando, todos los cuales podrían ser el valor verdadero. No hace falta añadir que todavía podría haber otros que, sin que el operador lo sospeche, tuvieran tanto o más derecho a ser incluidos en la lista de posibles valores verdaderos.
Esta forma de expresión recuerda mucho a lo que se hace cuando se resumen los resultados de un experimento mediante una función de densidad de probabilidad y por eso, durante mucho tiempo, se ha intentado cuantificar el “error” con este recurso. Una vez más, la utilidad de este enfoque vuelve a estar limitada porque, para poder establecer una verdadera probabilidad experimental, se necesita hacer la estadística del número de veces que se obtiene el valor verdadero y cualquier otro que se separe de él en una cuantía conocida, lo que es imposible por principio.
Al introducir el concepto de incertidumbre se renuncia a establecerla mediante una probabilidad numérica rigurosa, si bien es indudable que se deben aprovechar todos los conocimientos teóricos y prácticos de que se disponga en materia de probabilidad y de su distribución.
Las distribuciones estadísticas de los resultados de una medida no tienen que ser forzosamente normales, pero disponen de desviaciones típicas y, naturalmente, siempre que en un resultado de medida se sepa que se combinan los efectos dispersores de la confluencia de numerosas causas de error, todas ellas de magnitud relativamente pequeña, se puede aplicar el teorema del límite central y admitir que la distribución subyacente de resultados posibles es normal.
En suma, se admite que todo resultado de una medida simple, un dato numérico obtenido de una tabla o de un certificado o calculado por una fórmula dada es un individuo de una población de valores posibles que habrá de tener alguna distribución y de la que se puede estimar de un modo u otro, mejor o peor, una desviación típica experimental o teórica. Con eso basta para construir una estimación de la incertidumbre de un resultado en que estos datos se combinen con una relación funcional conocida.
La herramienta es la ley de propagación de la varianza para las funciones de más de una variable y requiere disponer de un conocimiento sólido de la estructura de la función y de una estimación que, en cambio, puede ser sorprendentemente sencilla, del valor de una desviación típica que pueda ser atribuida “razonablemente” a cada una de las variables simples que intervienen en ella.
La ventaja de este planteamiento es que, estimada así, la incertidumbre compuesta puede presentarse a su vez como una desviación típica y de ese modo puede intervenir luego en cualquier cálculo posterior en que la variable compuesta en cuestión participe como componente elemental.
 

 

ciclotrón con enfoque por sectores (+)

sector focused cyclotron
cyclotron á focalisation par secteurs

mantenimiento

maintenance
maintenance

constante de Fermi (rev 2*)

Fermi constant
constante de Fermi
  • Calle Campoamor 17, 1º 28004 MADRID
  • Tel. 91 308 63 18
  • Email: sne.1974@sne.es
Entra a tu cuenta