domingo, 15 de septiembre de 2019

La articulación entre teorías


La articulación entre teorías
Un aspecto relacionado con la puesta a prueba (contrastación) de teorías es el relativo a cómo se articula lo que sostiene una teoría con lo que sostienen las demás.
En el marco de una ciencia que presupone el orden en la naturaleza, al menos en lo referente a poder dar cuenta de los fenómenos naturales mediante regularidades, suele esconderse un presupuesto de mucha importancia. Se trata de la presuposición de que la naturaleza no tiene inconsistencias. Los fenómenos naturales pueden presentar diferentes aspectos que pueden ser abordados por las distintas disciplinas, pero de ninguna manera se espera que desde una disciplina se afirme algo que se niega desde otra. Es cierto que cuando observamos el movimiento aparente del sol podemos asociarlo con el movimiento de los girasoles “mirando” al sol, o bien podemos tomar detalle del mismo movimiento aparente del sol para decidir cuestiones sobre astronomía y así calcular otros aspectos relativos al movimiento de rotación terrestre. Lo que no puede ocurrir es que el estudio de los girasoles nos permita afirmar que el movimiento del sol es de 15 grados en cada hora y que el estudio de la rotación terrestre nos arroje una cifra diferente.
En esto tan sencillo consiste la suposición de que la naturaleza es una sola, más allá de que las distintas disciplinas enfoquen diferentes aspectos de los fenómenos.
Dicho de este modo se hace evidente que las teorías sobre girasoles y las teorías sobre rotación terrestre tendrán necesariamente algunos puntos de contacto, al menos en cuanto al movimiento del sol a lo largo del día. Una teoría no puede dar como consecuencia una afirmación diferente que la otra al tratar sobre un mismo aspecto del mundo. Esta restricción hace que cada teoría nueva no solamente enfrente los datos disponibles como marco de contrastación sino también que enfrente al resto de las afirmaciones aceptadas hasta el momento, afirmaciones que provienen de otras teorías.
En el ejemplo que hemos elegido se muestra algo muy sencillo y, a su vez, algo que no es del todo proveniente de una teoría o de otra ya que la velocidad del movimiento del sol durante el día puede ser medido y de ese modo se constituye en un dato y no una predicción de alguna de las teorías.
Pasemos entonces a un caso más sofisticado, y además, real. En ocasión de presentar su teoría sobre la evolución biológica, tanto Darwin como Wallace proponían que las especies no habían sido creadas por Dios sino que unas provenían de otras por medio del mecanismo de variedad y selección natural. En cada generación aparecía un rango de variación para cada característica (por ejemplo, diferente largo de cuello en los antecesores de las jirafas). Dada esta variedad y las condiciones ambientales en las que esos animales vivían (hábitat) algunas de las variedades de ciertas características estarían favorecidas frente a otras que estaban en inferioridad de condiciones (los animales de cuello más largo alcanzarían más alimento de los árboles que las de cuello corto). Así, algunos individuos de cada generación estaban favorecidos en ése ambiente y otros estaban relativamente en problemas. De este modo los más favorecidos vivirían más, tendrían más prole y al cabo de varias generaciones era esperable que la población tuviera mayor frecuencia del rasgo favorecido. Al cabo de mucho tiempo, incluso era esperable que los individuos ya no pudieran asociarse con la especie original. En ese caso el proceso de selección natural había dado como resultado una evolución de una especie a otra (una especiación).
Claro está que esto no ocurría en poco tiempo sino a lo largo de miles o millones de años. Y allí estaba la clave de la teoría evolutiva. Una vez que la vida aparece en el planeta, el proceso de selección natural mediante la presión de selección en cada generación con una variedad de rasgos daría como resultado cambios aparentemente drásticos que vistos en detalle, podrían mostrar un registro gradual (aunque hoy en día no hay consenso sobre el gradualismo, era parte de las propuestas originales).
Ahora bien, la pregunta crucial no se hizo esperar: ¿cuántos miles o millones de años habían sido necesarios para que, partiendo de unos seres vivos muy primitivos, hubiésemos llegado a tener en el planeta la diversidad que hoy encontramos?
La respuesta evolutiva era que aproximadamente el proceso había llevado entre 4 y 5 millones de años.
Bien, tenemos el panorama biológico completo. Ahora consultemos a los geólogos para saber cuál es la edad de la Tierra.
La geología de la época de Darwin y Wallace tenía las siguientes herramientas para decidir sobre la cuestión. La Tierra se había formado con el sistema solar como un cuerpo incandescente y desde su formación se había comenzado a enfriar. Para calcular desde hacía cuánto tiempo se había estado enfriando, el cálculo era sencillo. Sabiendo que toda esta masa incandescente había llegado a unos 23 grados centígrados de temperatura global, podían calcular que el proceso había llevado menos que 3,5 millones de años. Así como podemos saber hace cuánto tiempo se apagó una hoguera si al acercar la mano a las piedras que la rodean las sentimos tibias, así mismo los físicos y los geólogos hacían la cuenta de cuánto tiempo la Tierra llevaba enfriándose. Se debe agregar, claro está, que el sol agrega una cantidad de energía por día y que la Tierra absorbe parte de esa energía y la vuelve a irradiar al espacio. Con todos los cálculos la teoría física le daba a los geólogos el dato de la edad de la Tierra.
Malas noticias para Darwin y para Wallace. No había habido tiempo para que la vida evolucionara de acuerdo con los procesos que ellos proponían. La teoría de la evolución ya tenía un problema con el registro fósil porque que no se encontraban los fósiles que según la teoría deberían haber estado allí. Pero esta dificultad podía sobrellevarse con argumentos adicionales. Si no encontramos fósiles de las especies intermedias que se supone que existieron entre unas y otras ya conocidas, esto se debe a que en los procesos de especiación las especies intermedias no están bien adaptadas y son pocos los individuos que componen esas poblaciones. Una vez que los individuos comienzan a tener los rasgos de la nueva especie bien adaptada entonces la población crece en número y vuelve a haber una gran cantidad de fósiles de la nueva especie. De este modo los peldaños faltantes (incluido el famoso “eslabón perdido”) pueden ser explicados por los mismos procesos que la teoría propone. Sin embargo ahora enfrentaba un problema diferente. Según la teoría biológica la tierra era más antigua de lo que los propios geólogos sostenían. Pues bien, los geólogos podían equivocarse, pero sobre la base de cuáles argumentos podemos afirmar que se equivocan si solo están utilizando las fórmulas bien conocidas del enfriamiento de sólidos, líquidos y gases (contando los océanos y el aire). La teoría evolutiva se enfrentaba entonces a las teorías físicas del calor y a las teorías geológicas sobre la edad del planeta. El resultado fue sencillo, la biología perdió la batalla en ese momento y sumado a otras dificultades (relativas a no poder dar cuenta de los rasgos novedosos), sobrevino lo que algunos autores han llamado “el eclipse del darwinismo”.
La articulación de teorías le cerró el paso a la teoría evolutiva.
En realidad la física o la geología no ofrecía un dato sino que arrojaba como consecuencia una afirmación. Esta afirmación se obtenía de todos los cálculos y conjeturas utilizadas para comprender el proceso de enfriamiento del planeta. Si algo estaba mal, el resultado no sería confiable.
Hubo que esperar al descubrimiento de la radiactividad para darse cuenta de que aquellos cálculos que le cerraron el paso a la teoría evolutiva, estaban mal. La tierra contiene suficiente material radiactivo como para que el proceso de enfriamiento sea mucho más lento que lo que se espera de un cuerpo que solo cede calor sin generarlo. Los elementos radiactivos son una fuente de calor adicional de modo que si la tierra comenzó como un cuerpo incandescente y al cabo de cierto tiempo debería haberse enfriado hasta tener la temperatura que registramos hoy, al tener en cuenta que la radiactividad agrega energía, caemos en la cuenta de que la tierra lleva muchos más años enfriándose. De no haber tenido esta fuente extra de calor, el cálculo estaba muy bien. Pero no conocíamos un factor crucial para el cálculo. Imagine por un momento que las piedras de la hoguera tienen una batería interior que las mantiene caliente durante días y días a pesar de que la hoguera se apagó. Esta situación haría confundir a cualquiera que quisiera evaluar el momento en que se apagó la hoguera.
La moraleja de este episodio histórico es doble. Por un lado la articulación teórica es una barrera tan difícil de franquear que las nuevas teorías podrían fracasar incluso a pesar de tener mejores predicciones que las teorías con las que se enfrentan. El problema es que la edad del planeta no se estaba calculando sobre la base de la evolución sino sobre la base de conocimientos más afianzados en la comunidad. La teoría de la evolución no fue diseñada para evaluar la edad del planeta, aunque podría haberse usado para fijar una edad mínima, en cambio parecía que la geología y la física del calor eran las disciplinas más adecuadas para la tarea. Por otra parte la articulación de teorías podría muy bien ser un arma de doble filo y mostrar que el conocimiento aceptado hasta el momento debe ser puesto en duda. En este sentido la articulación no solo amenaza a las teorías nuevas sino al conocimiento anterior. En nuestro caso histórico solo se mostró la primera consecuencia, pero puede darse la otra en caso en que la nueva teoría arremeta con tantos éxitos que la articulación teórica apunte su amenaza hacia el conocimiento anterior.

La diferencia entre sensibilidad y precisión.


"Sensibilidad" y "precisión" son dos conceptos muy distintos que toda persona con una formación científica básica debería tener claros, pero que, sin embargo, se encuentran mezclados y confundidos en el lenguaje cotidiano y en muchos textos formales.
Imaginemos que queremos conocer el tiempo que tarda un objeto, si lo soltamos desde cierta altura, en llegar al suelo. El problema es sencillo, ya que, para ello, sólo necesitamos realizar una medición directa con un cronómetro, es decir, una comparación directa entre el tiempo que tarda el objeto en caer y lo que dura un segundo. Pulsamos el cronómetro en el momento en el que soltamos el objeto, y volvemos a pulsar cuando llega al suelo. Obtenemos:
3,31 s
Lo primero en lo que tenemos que fijarnos es ¿qué habría ocurrido si, por el hecho de estar en la cima de una montaña, en vez de a nivel del mar, repetimos el experimento? La intensidad del campo gravitatorio allí es menor, con lo que el objeto tardará más en caer. Pongamos por ejemplo que ese tiempo extra es de 0,002 s ¿Notaría nuestro cronómetro la diferencia? Es evidente que no. No es lo suficientemente sensible para detectar una variación tan pequeña. La sensibilidad de un aparato de medida es la mínima variación que es capaz de detectar, 0,01 s en el caso de nuestro cronómetro. Hay quien prefiere dividir esta cantidad entre dos, ya que uno en principio puede darse cuenta de que hemos parado el cronómetro más cerca del 3,31 s que del 3,32 s. Por ello, registramos el resultado de nuestra medida de la siguiente forma:
(3,31±0,01) s
En segundo lugar ¿nos fiamos de esta medida? ¿Tarda el objeto realmente 3,31 s en caer? Es evidente que no nos fiamos. El sistema utilizado no es  lo suficientemente preciso, ya que no nos creemos que la persona encargada de poner en marcha y parar el cronómetro lo haya hecho exactamente en los instantes adecuados. Esta falta de confianza en el resultado obtenido se puede cuantificar, ya que podemos repetir el proceso de medida varias veces en las mismas condiciones. Si el método utilizado es tan preciso que el error aleatorio que cometemos por no pulsar el cronómetro en el instante adecuado está por debajo de la sensibilidad del cronómetro, entonces debería obtenerse siempre el mismo resultado, ya que el cronómetro no notaría la diferencia. Repetimos la medida dos veces más y obtenemos:
3,31 s;  3,61 s;  3,09 s
Los resultados obtenidos son tan distintos (el método utilizado es tan poco preciso) que el número de medidas que deberíamos tomar es mucho mayor de tres. No obstante, como lo que nos interesa aquí es aclarar los conceptos, nos vamos a conformar con estas tres medidas. Tomando la media obtenemos
3,3367 s
Teniendo en cuenta que la sensibilidad del aparato utilizado es 0,01 s, es claro que no tiene sentido dar como respuesta tantas cifras significativas. Redondeando a las centésimas, teniendo en cuenta que el 6 está más cerca del 10 que del 0, se tiene
(3,34±0,01) s
No obstante, la incertidumbre experimental que estamos indicando aquí (0,01 s) no es correcta. El método utilizado no es lo suficientemente preciso como para asegurar que la incertidumbre experimental se debe sólo a la sensibilidad de nuestro aparato. En este caso deberíamos poner como incertidumbre experimental una cantidad que nos dé una idea de lo dispersos que han estado los resultados al repetir la medida. Esta cantidad es la desviación típica con la corrección de Bessel. No obstante, en la discusión simplificada de este artículo nos vamos a conformar con tomar la diferencia entre el mayor y el menor resultado dividida entre dos:
(3,61-3,09)/2=0,26 s
Por tanto, escribimos el resultado de nuestra medición como
(3,34±0,26) s
Es habitual redondear la incertidumbre experimental con sólo una cifra significativa y, además, siempre hacia arriba (siempre que sea mayor que 25, si no, se redondea con dos cifras significativas). Por tanto:
(3,34±0,3) s
Por otro lado, el resultado de la medición se redondea en el mismo decimal que la incertidumbre experimental, es decir, el 4 aquí no tiene sentido porque es una cifra que entra dentro del intervalo de error experimental. Por tanto:
(3,3±0,3) s
A la cantidad 100*0,3/3,3=9% se la denomina error relativo. Es el cociente entre el error absoluto (la incertidumbre experimental) y el valor estimado de la magnitud, puesto en tantos por cien. El error relativo obtenido en este ejemplo es grande, y se debe a que el método utilizado era poco preciso.
Una persona que no tenga clara la diferencia entre los conceptos de sensibilidad y precisión podría cometer el error de proponer, para disminuir la incertidumbre experimental del resultado obtenido, comprar un cronómetro mucho más sensible, por ejemplo, uno cuya sensibilidad sea de una milésima de segundo, en vez de una centésima:
3,308 s;  3,614 s;  3,088 s
Esto nos da una media de:
3,3367 s
La incertidumbre que viene de la sensibilidad del aparato utilizado es en este caso
0,001 s
Y la incertidumbre que viene de la precisión del método utilizado es
(3,614-3,088)/2=0,263 s
Como hay que tomar siempre la mayor de las dos incertidumbres, tenemos
(3,3367±0,263) s
Redondeando la incertidumbre experimental con sólo una cifra significativa y hacia arriba:
0,3 s
y redondeando el resultado en la cifra donde nos indica la incertidumbre, se tiene:
(3,3±0,3) s
Es decir, obtenemos lo mismo. En conclusión, no sirve de nada mejorar la sensibilidad del aparato de medida si el método de medida que estamos utilizando es tan impreciso que posee errores aleatorios por encima de la sensibilidad del aparato.
En cambio, en este caso sí que sería útil cambiar el método de medida por otro más preciso, por ejemplo, mediante la utilización de puertas fotoeléctricas que indiquen automáticamente al cronómetro cuando arrancar y parar. Si al hacer esto obtenemos:
3,34 s;  3,34 s; 3,34 s
Entonces estamos seguros de que los errores aleatorios debidos a que el sistema no es totalmente preciso están por debajo de la sensibilidad del cronómetro y, por tanto, no pueden ser detectados. En este caso, la incertidumbre experimental no viene de la falta de precisión del método, sino de la sensibilidad del aparato utilizado
(3,34±0,01) s
y sí que ahora sería útil, por tanto, comprar el cronómetro que es capaz de "ver" las milésimas de segundo.

Nótese que, sea cual sea el caso, es siempre imposible conseguir una incertidumbre experimental de valor cero, es decir, nunca podemos estar totalmente seguros de que hemos obtenido, al medir, el valor verdadero. Lo único que podemos hacer es dar un intervalo el cual tenemos mucha confianza incluye al valor correcto
Un método de medida es más preciso cuanto menores son los errores aleatorios que posee, y el grado de precisión de un método se puede cuantificar midiendo varias veces y estudiando la dispersión de los datos obtenidos al repetir la misma medición.
Dado que los errores aleatorios producen desviaciones, a veces por arriba, a veces por debajo, cuando calculamos la media aritmética de alguna forma estamos "compensando" los errores cometidos, con lo que esperamos obtener un valor cercano al verdadero. No obstante, hemos explicado que en el caso particular de que esos datos obtenidos estén más dispersos que la sensibilidad del aparato utilizado, entonces no podemos tomar como incertidumbre experimental la sensibilidad del aparato, ésta tiene que ser más grande.
Existen  otro tipo de errores que pueden producirse al medir una magnitud. Se trata de los errores sistemáticos. Se denominan así porque, al contrario que los aleatorios, ocurren siempre en el mismo sentido, con lo que ya no nos vale tomar muchas medidas y hacer la media para compensar las desviaciones. Otro problema que tienen es que son mucho más difíciles de detectar que los errores aleatorios. Para detectar estos últimos sólo tenemos que repetir la medición para ver si obtenemos siempre el mismo valor. En cambio, podría ocurrir que en cada repetición estemos cometiendo sistemáticamente la misma equivocación, el mismo error sistemático.
Un ejemplo sería medir una distancia entre dos puntos no siguiendo el camino más corto. Siempre mediríamos de más. Otro, medir con una regla que se haya dilatado, con lo que siempre mediríamos de menos. Cualquier aparato mal calibrado nos da lugar a errores sistemáticos. Parar un cronómetro más tarde porque no hemos tenido en cuenta que el sonido que nos avisa de que tenemos que para el cronómetro se propaga a velocidad finita también daría lugar a un error sistemático. Mediríamos de más todos los intervalos de tiempo.
Todos los métodos descritos en el párrafo anterior podrían ser muy precisos, pero no dan como resultado un valor correcto. Están sujetos a errores sistemáticos, con lo que se dice que no son métodos exactos. En cambio, un método que sea a la vez preciso y sin errores sistemáticos se dice que es exacto .
Es evidente que cuando un equipo de investigación comete errores sistemáticos importantes es porque lo está haciendo mal. Sin embargo, no debe pensarse que sólo los malos profesionales comenten errores sistemáticos, por dos motivos.
En primer lugar, en muchas ocasiones los científicos son conscientes de que pueden estar cometiendo errores sistemáticos en las medidas, pero poseen los mecanismos para poder "cazarlos". Un ejemplo típico es el de un conjunto de puntos experimentales que deben ajustarse a una recta de ordenada en el origen cero, pero que, aunque sí se ajustan muy bien a una recta, ésta no pasa por el origen. Uno entonces se da cuenta de que todos los puntos están más altos o más bajos de lo que deberían estar.
En segundo lugar, incluso los equipos formados por los mejores profesionales pueden cometer errores sistemáticos importantes y no darse cuenta de ello o tardar mucho tiempo en darse cuenta. Uno de los casos más famosos es la anomalía de los neutrinos superlumínicos de OPERA.
En septiembre de 2011, los científicos que llevaban a cabo el experimento OPERA informaron que los neutrinos que habían detectado viajaban más rápido que la luz en el vacío. Este resultado era más que sorprendente, porque velocidades superiores a la de la luz en el vacío son imposibles de acuerdo con la teoría especial de la relatividad de Einstein, teoría sobradamente comprobada y que constituye la base de la física de los últimos 100 años.  Este anuncio provocó una oleada de discusiones, análisis y comprobaciones en el mundo científico.
Sin embargo, unos cuantos meses más tarde el equipo responsable de OPERA, tras un gran número de comprobaciones, informó de dos defectos en el dispositivo experimental que habían causado dos errores sistemáticos más allá del intervalo de incertidumbre experimental que habían dado inicialmente:
v  un cable de fibra óptica mal conectado, que hacía que el tiempo medido fuera más pequeño.
v  un oscilador de un reloj que iba demasiado rápido, cuyo efecto era el contrario
La eliminación de estos dos errores sistemáticos dio como resultado que la anomalía de los neutrinos superlumínicos desapareció. El intervalo de error final obtenido incluía en su interior el valor de la velocidad de la luz en el vacío, con lo que no se puede concluir que los neutrinos vayan más rápido que la luz.
Nótese que el equipo de OPERA tardó varios meses en encontrar y eliminar estos errores sistemáticos, y esto a pesar que, desde el primer momento, eran conscientes de que muy probablemente se estaban equivocando y se pusieron manos a la obra a buscar el error. Cabría preguntarse cuánto tiempo habrían tardado en darse cuenta de estos errores sistemáticos si su resultado no hubiera sido tan disparatado.

En conclusión, otro de los motivos por los que el conocimiento científico no es infalible se debe a que, a pesar de que los errores aleatorios se pueden estimar y acotar, uno nunca está totalmente seguro de que no se estén cometiendo errores sistemáticos importantes. No obstante la Ciencia, fundamentalmente por su carácter activo y público, va saliendo victoriosa de todos los problemas que hemos descrito.
 Sergio Montañez Naz 

No hay comentarios.:

Publicar un comentario

Los comentarios son moderados por los administradores del blog antes de mostrarse en este espacio.