TEORÍA DEL ERROR
TEORÍA DE LOS ERRORES DE MEDICIONES
FELIX CERNUSCHI - FRANCISCO GRECO
EUDEBA, BUENOS AIRES, 1968
ORIGINAL


Prólogo y parte del Capítulo I

La observación y la experimentación constituyen la base del conocimiento científico. Ellas suministran la información necesaria para crear, estructurar y verificar teorías científicas. Cuanto más precisa sea esta información, tanto más ajustadas a la realidad podrán ser las descripciones y predicciones de las correspondientes teorías. Dicha información está constituida por un conjunto de datos o mediciones. Consecuentemente, uno de los objetivos del proceso científico es proyectar experimentos e instrumentos que permitan medir, con la mayor aproximación posible, las constantes y las magnitudes implicadas en los procesos que se investigan. Las mediciones pueden estar afectadas por equivocaciones en las lecturas y por errores sistemáticos y accidentales. Estos últimos, llamados también errores azarosos, son inevitables, son inherentes a los procesos mismos de las mediciones.
        Al repetir la medición de una misma cantidad o magnitud (longitud, masa, velocidad, densidad, fuerza, calor específico, temperatura, viscosidad, resistencia eléctrica, etcétera) en iguales condiciones y por el mismo procedimiento, no se obtiene generalmente el mismo valor, sino una distribución estadística de valores. A veces, en las mediciones sucesivas se repite aparentemente el mismo valor. Esto se debe a que las imprecisiones o incertidumbres de las distintas medidas son más pequeñas que la menor apreciación de la escala de medidas que se emplea. Así, por ejemplo, cuando medimos la longitud de una mesa usando una regla graduada en centímetros, podemos encontrar en las sucesivas mediciones que la longitud medida está representada por el mismo número de centímetros. Esto significa que la incertidumbre de cada medición es menor de un centímetro. Si usásemos un instrumento más preciso que aproxima, por ejemplo, la centésima parte de un milímetro, encontraríamos una distribución estadística de las sucesivas mediciones de la longitud considerada.
        Vemos, pues, que no tiene sentido decir cuál es el valor absoluto o verdadero de una determinada magnitud física, sino que debemos decir, para ser más precisos, que midiendo una cierta cantidad o magnitud por un determinado procedimiento (el que explícita o implícitamente debe incluir una descripción detallada de los instrumentos empleados y de la forma de utilizarlos) se obtiene una distribución estadística de valores que, como veremos, nos permite calcular la mejor estimación de la cantidad medida y su error probable. La ciencia no nos acerca a los valores absolutos, sino que, por lo contrario, nos enseña a tratar los problemas prescindiendo de toda concepción absoluta.
        Los resultados de las observaciones de los experimentos son, como hemos indicado, distribuciones estadísticas de valores. En consecuencia, la base experimental de la ciencia está íntimamente relacionada con la teoría de probabilidad y la estadística matemática. Sólo mediante estas disciplinas se puede elaborar una teoría de los datos suministrados por la experimentación.
        También la teoría de probabilidad de gran importancia en fundamentales teorías físicas (teoría cinética de la materia, mecánica y termodinámica estadísticas, mecánica cuántica, procesos irreversibles). Quizá la teoría de probabilidad constituye el nexo de unificación más importante, no solamente entre las distintas partes de las ciencias físicas, sino también entre las diferentes ramas de la ciencia. La teoría de probabilidad es necesaria para desarrollar la teoría de errores de medición. Normalmente se enseña esta teoría de errores en los cursos generales de física a alumnos que no conocen los conceptos básicos de la teoría de probabilidades, y también en los cursos en los que, aunque se enseña esta teoría, no se explica la teoría de errores. Por eso sigue teniendo vigencia todavía la opinión de Lippman, que compartía Poincaré: «Todos creen en la ley de Gauss; los experimentadores se imaginan que es un teorema matemático y los matemáticos que es un hecho experimental».
        Como veremos, la teoría de errores es una teoría física, con características similares a los de cualquier otra teoría física; tiene, por lo tanto, hipótesis especiales, una estructura matemática y definiciones operacionales que conectan la teoría con los datos observacionales. La teoría de errores es la teoría física que todo experimentador debe conocer.
        Comenzamos este libro desarrollando algunas partes importantes de la teoría de probabilidades y de estadística matemática. La teoría de errores la tratamos como un caso particular de la teoría de las muestras de un determinado universo. Se desarrollan varias distribuciones que se relacionan con la de Gauss y que se necesitan para el estudio de la inferencia estadística, a fin de hacer aplicaciones concretas a la teoría de errores. Se estudian los errores correlacionados que trata la teoría de los mínimos cuadrados y la verificabilidad de las hipótesis estadísticas.
        Consideramos que el criterio general que nos ha guiado en la redacción de este libro y que hemos indicado anteriormente, le asigna algunas características propias que permiten, a nuestro entender, un enfoque didáctico más satisfactorio que el que se sigue en los textos usuales en la materia.
        Con objeto de facilitar la comprensión y la aplicación de las nociones, criterios, procedimientos y fórmulas explicados en este libro, hemos incluido una gran variedad de ejemplos, ejercicios numéricos y problemas.
Para iniciar la lectura y comprensión de este libro basta con los conocimientos de matemáticas que deben tener los estudiantes de primer año de una Facultad de ciencias o de ingeniería. Los capítulos I y III pueden estudiarse paralelamente al primer curso universitario de física. Los capítulos II, IV y V requieren conocimientos de cálculo infinitesimal y funciones de variable compleja.
        Queremos dejar expresado nuestro reconocimiento al profesor Sayd Codina por haber leído los primeros capítulos del manuscrito y sugerido útiles observaciones.

Buenos Aires-Montevideo, junio de 1968. Los autores.


CAPÍTULO I
I.1. Introducción

        Las mediciones de los distintos observables físicos, con «la máxima precisión posible», son de fundamentalísima importancia para las diferentes ramas de las ciencias físicas. Gracias a ellas y al empleo de las Matemáticas, a dichas ramas de las ciencias se las llama, con un poco de optimismo, «Ciencias Exactas».
        El resultado de una medición de una magnitud física es un número que depende de lo que se mide (la magnitud misma), del procedimiento de la medida, del instrumental usado en la misma, como así también del observador y de otros factores menores. Para que el número, atribuido a una cantidad física, tenga sentido, debe ir acompañado, explícita o implícitamente, del procedimiento seguido y de las características de los instrumentos utilizados en la obtención del correspondiente número.
        La medida de una determinada magnitud física debe implicar el procedimiento a seguirse, para hallar la mejor estimación de la magnitud medida. Es decir, debe darse la definición operacional de la magnitud considerada. La medida de una longitud o de un tiempo tiene significado físico cuando se ha descrito el conjunto de operaciones físicas que se deben realizar para asignar, en cada caso particular, un número a la magnitud considerada. Para medir una determinada magnitud física es necesario compararla con otra del mismo tipo que se toma como unidad. Por lo tanto, una definición operaciones de una determinada magnitud debe comprender, implícita o explícitamente, la definición precisa del patrón de medida utilizado. El proceso de medida de una cantidad física depende de las definiciones operaciones de otras magnitudes físicas, y éstas a su vez, de la estructura alcanzada por las teorías físicas. Así, por ejemplo, la longitud de una barra de hierro depende de los valores de varias cantidades físicas como la temperatura, tensión, carga eléctrica, velocidad con respecto al observador, aceleración de la gravedad, etcétera. Por lo tanto, la definición del proceso de medida de una longitud debe contener necesariamente los procedimientos para mantener constantes todos los parámetros físicos que influyen en el valor de la magnitud considerada y estos procedimientos resultan del conocimiento de varias leyes físicas. Consecuentemente, los procedimientos de medida se perfeccionan a medida que la Física progresa y, en cada momento, solamente pueden aplicarse definiciones operacionales aproximadas, aplicables a casos simplificados.
        De una misma magnitud física se pueden dar, por lo general, varias definiciones operaciones. Por ejemplo, un intervalo de tiempo puede medirse por el ángulo barrido, en dicho intervalo, por la Tierra en su rotación; por un determinado número de oscilaciones de un péndulo o de un resorte de características bien definidas; por el correspondiente número de vibraciones de un cristal de cuarzo de cierto espesor; por la distancia recorrida por un rayo de luz; por la cantidad de radium desintegrada; por un reloj atómico, etcétera. La Física constituye un edificio científico coherente debido especialmente a que, mediante las diferentes definiciones operaciones, basadas en leyes distintas, de una misma magnitud física, se obtienen, en cada caso, resultados que son aproximadamente iguales.
        Por lo expresado surge que los procedimientos de medida de las magnitudes físicas son evolutivos y que dependen del grado de desarrollo de la Física y de la precisión de los instrumentos de medida existentes. Existe, también, una recíproca influencia: todo progreso de la Física permite mejorar los procedimientos de medida y todo perfeccionamiento de estos procedimientos asegura nuevos adelantos de las teorías físicas.
        De lo expresado se deduce claramente que no es posible medir una determinada magnitud física con verdadera exactitud. Los distintos parámetros físicos que influyen en su determinación están sujetos, por rigurosas que sean las condiciones de control de su constancia, a inevitables fluctuaciones. No es posible, pues, la existencia de procedimientos de medida absolutamente perfectos, que puedan repetirse un número indefinido de veces de manera y condiciones rigurosamente iguales. Por otra parte, todo instrumento de medida permite efectuar lecturas dentro de los límites de apreciación del mismo y no es posible construir ningún aparato de medida que pueda efectuar mediciones con errores menores que un determinado valor.
        Además, debido a la naturaleza atómica de la materia, a sus vibraciones y a la cuantificación de la energía, no es posible, en general, atribuirle a la entidad física que se desea medir un «valor verdadero» absolutamente exacto. La suposición de la existencia de «valores verdaderos» absolutamente exactos e invariables, correspondientes a las cantidades físicas que se desean medir, es una hipótesis metafísica, resabio de un realismo filosófico ingenuo que todavía se encuentra en muchos libros de física. Una verdadera teoría Física de los errores de observación debe eliminar esta hipótesis metafísica.
        De lo anterior se infiere que en el proceso de medición de las distintas cantidades observables, a lo más que podemos aspirar es a determinar, de la mejor manera posible, el «valor más probable» o la «mejor estimación» que de dicha magnitud podemos hacer teniendo en cuenta el conjunto de resultados obtenidos, y a cuantificar las imprecisiones, o sea los límites probables de error de dicho valor, que podemos también determinar de las medidas correspondientes.

I.2 Objeto de la teoría de errores

        De acuerdo con lo expresado precedentemente, tenemos que cada vez que se efectúe el conjunto de operaciones requeridas para medir una determinada magnitud, de obtendrá un número que solamente en forma aproximada representa la medida buscada. Por lo tanto, cada resultado de una medición está afectado por un cierto error.
        Los errores de medición, clásicamente, se clasifican en sistemáticos y accidentales.
        Los errores sistemáticos son aquellos de valor constante o que responden a una ley conocida y son, por lo tanto, corregibles. A este tipo pertenecen, por ejemplo, los errores de calibración de escalas, el atraso o adelanto de un reloj de acuerdo con un ritmo conocido; y los motivados, en general, por otras causas medibles con precisión. La detección y corrección de estos errores se efectúa por comparación o contraste con instrumentos patrones. Por ellos adquieren enorme importancia los «standard» de los institutos de Pesas y Medidas para dicha comprobación.
        Los errores que dependen exclusivamente de las fluctuaciones inevitables e imprevisibles, dentro de ciertos límites, de los parámetros físicos que determinan la magnitud que se miden, se llaman errores al azar o accidentales.
        Los errores accidentales, o debidos al azar, son los provenientes de múltiples factores inapreciables cuya magnitud y signo es imposible predecir. Son estas interacciones las que provocan que múltiples medidas en «idénticas condiciones» no arrojen el mismo valor. Esas múltiples perturbaciones provienen de fuentes de error independientes, que individualmente dan desviaciones pequeñas, erráticas, positivas y negativas, imposibles de detectar. Cada uno de los errores accidentales es la suma algebraica que un gran número de pequeños errores, cuyas causas son numerosas y pueden actuar en un sentido o en el opuesto con igual frecuencia media.
        Por supuesto que la división entre errores sistemáticos y accidentales no es tajante y debe ser sometida a revisión crítica constantemente. Un perfeccionamiento en el proceso de medida puede poner de manifiesto la existencia de nuevos errores sistemáticos que anteriormente se incluían dentro de los accidentales.
        Por otra parte, como veremos más adelante, deben también eliminarse, de los errores accidentales, aquellos errores groseros motivados por distracción del observador, como, por ejemplo, el confundir un número por otro en una escala o el valor de una determinada pesa, etcétera. Estos errores son ocasionados por equivocaciones detectables y se pueden evitar aumentando el cuidado y la atención del observador al efectuar las mediciones.
        Los errores accidentales pueden ser debidos al observador, al instrumento de medida, a la magnitud a medir, a la variación del medio ambiente, etcétera. Sus características son la cantidad heterogénea de factores intervinientes, cada uno de los cuales presenta fluctuaciones en sus valores indeterminados, dentro de ciertos límites; es decir, que dichas variaciones se deben al azar. Por consiguiente, las fluctuaciones de los parámetros determinantes de la medida buscada pueden ser positivos o negativos y, en general, en cada medida influirán de manera distinta en los resultados. Si se efectúa, en cada caso, un conjunto grande de medidas se tendrá que, en promedio, los efectos de las distintas fluctuaciones se compensarán.
        La teoría de errores estudia fundamentalmente el tratamiento matemático que debe efectuarse, con los diferentes resultados obtenidos al medir una determinada magnitud, para determinar la mejor aproximación de la medida buscada y su límite probable de error.
        De lo anterior se puede inferir cuál es el objeto de la teoría de errores en las mediciones.
        En primer lugar, no se busca el valor exacto de la magnitud a medir, o cuanto el mismo no tiene sentido físico, sino que, dentro del entorno en el cual están acotadas todas las mediciones, se trata de hallar el «valor más probable» de la misma, o sea la mejor estimación de la medida deseada.
        Dado el carácter azaroso de las perturbaciones que intervienen, una sola medida, aun acotando los límites de errores posibles, no puede proporcionar una estimación aceptable de la cantidad medida. Para hallar una buena estimación es necesario hacer múltiples medidas y de ellas deducir el valor más probable. Dichas mediciones constituyen un conjunto estadístico del cual se puede determinar el valor más probable que surge del conjunto de medidas dado.
        Debemos recalcar que cada una de las diferentes mediciones de una determinada cantidad deben ser efectuadas en condiciones físicas similares; es decir, por el mismo observador en igualdad de condiciones, utilizando los mismos instrumentos y procedimientos de medidas. En caso contrario, el conjunto que se obtenga no podrá ser considerado como una muestra representativa del universo de medidas correspondiente a la cantidad física considerada.
        En segundo lugar, la teoría de los errores permite calcular el error probable que le corresponde al valor más probable obtenido de un conjunto de medidas. El valor más probable no tendrá valor si no se puede saber la cota de su error.