Cuadro comparativo entre Mitosis y Meiosis
Blog destinado al intercambio entre docentes y alumnos del Colegio Durham cito en Lanús, Buenos Aires, Argentina.
martes, 17 de septiembre de 2019
domingo, 15 de septiembre de 2019
La articulación entre teorías
La articulación entre teorías
Un aspecto relacionado con la puesta a prueba (contrastación) de teorías
es el relativo a cómo se articula lo que sostiene una teoría con lo que
sostienen las demás.
En el marco de una ciencia que presupone el orden en la naturaleza, al
menos en lo referente a poder dar cuenta de los fenómenos naturales mediante
regularidades, suele esconderse un presupuesto de mucha importancia. Se trata
de la presuposición de que la naturaleza no tiene inconsistencias. Los
fenómenos naturales pueden presentar diferentes aspectos que pueden ser
abordados por las distintas disciplinas, pero de ninguna manera se espera que
desde una disciplina se afirme algo que se niega desde otra. Es cierto que
cuando observamos el movimiento aparente del sol podemos asociarlo con el
movimiento de los girasoles “mirando” al sol, o bien podemos tomar detalle del
mismo movimiento aparente del sol para decidir cuestiones sobre astronomía y
así calcular otros aspectos relativos al movimiento de rotación terrestre. Lo
que no puede ocurrir es que el estudio de los girasoles nos permita afirmar que
el movimiento del sol es de 15 grados en cada hora y que el estudio de la
rotación terrestre nos arroje una cifra diferente.
En esto tan sencillo consiste la suposición de que la naturaleza es una
sola, más allá de que las distintas disciplinas enfoquen diferentes aspectos de
los fenómenos.
Dicho de este modo se hace evidente que las teorías sobre girasoles y
las teorías sobre rotación terrestre tendrán necesariamente algunos puntos de
contacto, al menos en cuanto al movimiento del sol a lo largo del día. Una
teoría no puede dar como consecuencia una afirmación diferente que la otra al
tratar sobre un mismo aspecto del mundo. Esta restricción hace que cada teoría
nueva no solamente enfrente los datos disponibles como marco de contrastación
sino también que enfrente al resto de las afirmaciones aceptadas hasta el
momento, afirmaciones que provienen de otras teorías.
En el ejemplo que hemos elegido se muestra algo muy sencillo y, a su
vez, algo que no es del todo proveniente de una teoría o de otra ya que la
velocidad del movimiento del sol durante el día puede ser medido y de ese modo
se constituye en un dato y no una predicción de alguna de las teorías.
Pasemos entonces a un caso más sofisticado, y además, real. En ocasión
de presentar su teoría sobre la evolución biológica, tanto Darwin como Wallace
proponían que las especies no habían sido creadas por Dios sino que unas
provenían de otras por medio del mecanismo de variedad y selección natural. En
cada generación aparecía un rango de variación para cada característica (por
ejemplo, diferente largo de cuello en los antecesores de las jirafas). Dada
esta variedad y las condiciones ambientales en las que esos animales vivían
(hábitat) algunas de las variedades de ciertas características estarían
favorecidas frente a otras que estaban en inferioridad de condiciones (los
animales de cuello más largo alcanzarían más alimento de los árboles que las de
cuello corto). Así, algunos individuos de cada generación estaban favorecidos
en ése ambiente y otros estaban relativamente en problemas. De este modo los
más favorecidos vivirían más, tendrían más prole y al cabo de varias generaciones
era esperable que la población tuviera mayor frecuencia del rasgo favorecido.
Al cabo de mucho tiempo, incluso era esperable que los individuos ya no
pudieran asociarse con la especie original. En ese caso el proceso de selección
natural había dado como resultado una evolución de una especie a otra (una
especiación).
Claro está que esto no ocurría en poco tiempo sino a lo largo de miles o
millones de años. Y allí estaba la clave de la teoría evolutiva. Una vez que la
vida aparece en el planeta, el proceso de selección natural mediante la presión
de selección en cada generación con una variedad de rasgos daría como resultado
cambios aparentemente drásticos que vistos en detalle, podrían mostrar un
registro gradual (aunque hoy en día no hay consenso sobre el gradualismo, era
parte de las propuestas originales).
Ahora bien, la pregunta crucial no se hizo esperar: ¿cuántos miles o
millones de años habían sido necesarios para que, partiendo de unos seres vivos
muy primitivos, hubiésemos llegado a tener en el planeta la diversidad que hoy
encontramos?
La respuesta evolutiva era que aproximadamente el proceso había llevado
entre 4 y 5 millones de años.
Bien, tenemos el panorama biológico completo. Ahora consultemos a los
geólogos para saber cuál es la edad de la Tierra.
La geología de la época de Darwin y Wallace tenía las siguientes
herramientas para decidir sobre la cuestión. La Tierra se había formado con el
sistema solar como un cuerpo incandescente y desde su formación se había
comenzado a enfriar. Para calcular desde hacía cuánto tiempo se había estado
enfriando, el cálculo era sencillo. Sabiendo que toda esta masa incandescente
había llegado a unos 23 grados centígrados de temperatura global, podían
calcular que el proceso había llevado menos que 3,5 millones de años. Así como
podemos saber hace cuánto tiempo se apagó una hoguera si al acercar la mano a
las piedras que la rodean las sentimos tibias, así mismo los físicos y los
geólogos hacían la cuenta de cuánto tiempo la Tierra llevaba enfriándose. Se
debe agregar, claro está, que el sol agrega una cantidad de energía por día y
que la Tierra absorbe parte de esa energía y la vuelve a irradiar al espacio.
Con todos los cálculos la teoría física le daba a los geólogos el dato de la
edad de la Tierra.
Malas noticias para Darwin y para Wallace. No había habido tiempo para
que la vida evolucionara de acuerdo con los procesos que ellos proponían. La
teoría de la evolución ya tenía un problema con el registro fósil porque que no
se encontraban los fósiles que según la teoría deberían haber estado allí. Pero
esta dificultad podía sobrellevarse con argumentos adicionales. Si no
encontramos fósiles de las especies intermedias que se supone que existieron
entre unas y otras ya conocidas, esto se debe a que en los procesos de
especiación las especies intermedias no están bien adaptadas y son pocos los
individuos que componen esas poblaciones. Una vez que los individuos comienzan
a tener los rasgos de la nueva especie bien adaptada entonces la población
crece en número y vuelve a haber una gran cantidad de fósiles de la nueva
especie. De este modo los peldaños faltantes (incluido el famoso “eslabón
perdido”) pueden ser explicados por los mismos procesos que la teoría propone.
Sin embargo ahora enfrentaba un problema diferente. Según la teoría biológica
la tierra era más antigua de lo que los propios geólogos sostenían. Pues bien,
los geólogos podían equivocarse, pero sobre la base de cuáles argumentos
podemos afirmar que se equivocan si solo están utilizando las fórmulas bien
conocidas del enfriamiento de sólidos, líquidos y gases (contando los océanos y
el aire). La teoría evolutiva se enfrentaba entonces a las teorías físicas del
calor y a las teorías geológicas sobre la edad del planeta. El resultado fue
sencillo, la biología perdió la batalla en ese momento y sumado a otras
dificultades (relativas a no poder dar cuenta de los rasgos novedosos),
sobrevino lo que algunos autores han llamado “el eclipse del darwinismo”.
La articulación de teorías le cerró el paso a la teoría evolutiva.
En realidad la física o la geología no ofrecía un dato sino que arrojaba
como consecuencia una afirmación. Esta afirmación se obtenía de todos los
cálculos y conjeturas utilizadas para comprender el proceso de enfriamiento del
planeta. Si algo estaba mal, el resultado no sería confiable.
Hubo que esperar al descubrimiento de la radiactividad para darse cuenta
de que aquellos cálculos que le cerraron el paso a la teoría evolutiva, estaban
mal. La tierra contiene suficiente material radiactivo como para que el proceso
de enfriamiento sea mucho más lento que lo que se espera de un cuerpo que solo
cede calor sin generarlo. Los elementos radiactivos son una fuente de calor
adicional de modo que si la tierra comenzó como un cuerpo incandescente y al cabo
de cierto tiempo debería haberse enfriado hasta tener la temperatura que
registramos hoy, al tener en cuenta que la radiactividad agrega energía, caemos
en la cuenta de que la tierra lleva muchos más años enfriándose. De no haber
tenido esta fuente extra de calor, el cálculo estaba muy bien. Pero no
conocíamos un factor crucial para el cálculo. Imagine por un momento que las
piedras de la hoguera tienen una batería interior que las mantiene caliente
durante días y días a pesar de que la hoguera se apagó. Esta situación haría
confundir a cualquiera que quisiera evaluar el momento en que se apagó la
hoguera.
La moraleja de este episodio histórico es doble. Por un lado la
articulación teórica es una barrera tan difícil de franquear que las nuevas
teorías podrían fracasar incluso a pesar de tener mejores predicciones que las
teorías con las que se enfrentan. El problema es que la edad del planeta no se
estaba calculando sobre la base de la evolución sino sobre la base de
conocimientos más afianzados en la comunidad. La teoría de la evolución no fue
diseñada para evaluar la edad del planeta, aunque podría haberse usado para
fijar una edad mínima, en cambio parecía que la geología y la física del calor
eran las disciplinas más adecuadas para la tarea. Por otra parte la
articulación de teorías podría muy bien ser un arma de doble filo y mostrar que
el conocimiento aceptado hasta el momento debe ser puesto en duda. En este
sentido la articulación no solo amenaza a las teorías nuevas sino al
conocimiento anterior. En nuestro caso histórico solo se mostró la primera
consecuencia, pero puede darse la otra en caso en que la nueva teoría arremeta
con tantos éxitos que la articulación teórica apunte su amenaza hacia el
conocimiento anterior.
La diferencia entre sensibilidad y precisión.
"Sensibilidad" y "precisión" son dos
conceptos muy distintos que toda persona con una formación científica básica
debería tener claros, pero que, sin embargo, se encuentran mezclados y
confundidos en el lenguaje cotidiano y en muchos textos formales.
Imaginemos que queremos conocer el tiempo que tarda un
objeto, si lo soltamos desde cierta altura, en llegar al suelo. El problema es
sencillo, ya que, para ello, sólo necesitamos realizar una medición
directa con un cronómetro, es decir, una comparación directa
entre el tiempo que tarda el objeto en caer y lo que dura un segundo.
Pulsamos el cronómetro en el momento en el que soltamos el objeto, y volvemos a
pulsar cuando llega al suelo. Obtenemos:
3,31 s
Lo primero en lo que tenemos que fijarnos es ¿qué habría
ocurrido si, por el hecho de estar en la cima de una montaña, en vez de a nivel
del mar, repetimos el experimento? La intensidad del campo gravitatorio allí es
menor, con lo que el objeto tardará más en caer. Pongamos por ejemplo que ese
tiempo extra es de 0,002 s ¿Notaría nuestro cronómetro la diferencia? Es
evidente que no. No es lo suficientemente sensible para detectar una variación
tan pequeña. La sensibilidad de un aparato de medida es la mínima
variación que es capaz de detectar, 0,01 s en el caso de nuestro
cronómetro. Hay quien prefiere dividir esta cantidad entre dos, ya que uno en
principio puede darse cuenta de que hemos parado el cronómetro más cerca del
3,31 s que del 3,32 s. Por ello, registramos el resultado de nuestra medida de
la siguiente forma:
(3,31±0,01) s
En segundo lugar ¿nos fiamos de esta medida? ¿Tarda el objeto
realmente 3,31 s en caer? Es evidente que no nos fiamos. El sistema utilizado
no es lo suficientemente preciso, ya que no nos creemos que la
persona encargada de poner en marcha y parar el cronómetro lo haya hecho
exactamente en los instantes adecuados. Esta falta de confianza en el resultado
obtenido se puede cuantificar, ya que podemos repetir el proceso de medida
varias veces en las mismas condiciones. Si el método utilizado es tan preciso que
el error aleatorio que cometemos por no pulsar el cronómetro en el instante
adecuado está por debajo de la sensibilidad del cronómetro, entonces debería
obtenerse siempre el mismo resultado, ya que el cronómetro no notaría la
diferencia. Repetimos la medida dos veces más y obtenemos:
3,31 s; 3,61 s; 3,09 s
Los resultados obtenidos son tan distintos (el método
utilizado es tan poco preciso) que el número de medidas que deberíamos tomar es
mucho mayor de tres. No obstante, como lo que nos interesa aquí es aclarar los
conceptos, nos vamos a conformar con estas tres medidas. Tomando la media
obtenemos
3,3367 s
Teniendo en cuenta que la sensibilidad del aparato utilizado
es 0,01 s, es claro que no tiene sentido dar como respuesta tantas cifras
significativas. Redondeando a las centésimas, teniendo en cuenta que el 6 está
más cerca del 10 que del 0, se tiene
(3,34±0,01) s
No obstante, la incertidumbre experimental que estamos
indicando aquí (0,01 s) no es correcta. El método utilizado no es lo
suficientemente preciso como para asegurar que la incertidumbre experimental se
debe sólo a la sensibilidad de nuestro aparato. En este caso deberíamos poner
como incertidumbre experimental una cantidad que nos dé una idea de lo
dispersos que han estado los resultados al repetir la medida. Esta cantidad es
la desviación típica con la corrección de Bessel. No obstante, en la
discusión simplificada de este artículo nos vamos a conformar con tomar la
diferencia entre el mayor y el menor resultado dividida entre dos:
(3,61-3,09)/2=0,26 s
Por tanto, escribimos el resultado de nuestra medición como
(3,34±0,26) s
Es habitual redondear la incertidumbre experimental
con sólo una cifra significativa y, además, siempre hacia arriba (siempre
que sea mayor que 25, si no, se redondea con dos cifras significativas). Por
tanto:
(3,34±0,3) s
Por otro lado, el resultado de la medición se
redondea en el mismo decimal que la incertidumbre experimental, es decir,
el 4 aquí no tiene sentido porque es una cifra que entra dentro del intervalo
de error experimental. Por tanto:
(3,3±0,3) s
A la cantidad 100*0,3/3,3=9% se la denomina error
relativo. Es el cociente entre el error absoluto (la incertidumbre
experimental) y el valor estimado de la magnitud, puesto en tantos por cien.
El error relativo obtenido en este ejemplo es grande, y se debe a que el método
utilizado era poco preciso.
Una persona que no tenga clara la diferencia entre los
conceptos de sensibilidad y precisión podría cometer el error de proponer, para
disminuir la incertidumbre experimental del resultado obtenido, comprar un
cronómetro mucho más sensible, por ejemplo, uno cuya sensibilidad sea de una
milésima de segundo, en vez de una centésima:
3,308 s; 3,614 s; 3,088 s
Esto nos da una media de:
3,3367 s
La incertidumbre que viene de la sensibilidad del aparato
utilizado es en este caso
0,001 s
Y la incertidumbre que viene de la precisión del método
utilizado es
(3,614-3,088)/2=0,263 s
Como hay que tomar siempre la mayor de las dos
incertidumbres, tenemos
(3,3367±0,263) s
Redondeando la incertidumbre experimental con sólo una cifra
significativa y hacia arriba:
0,3 s
y redondeando el resultado en la cifra donde nos indica la
incertidumbre, se tiene:
(3,3±0,3) s
Es decir, obtenemos lo mismo. En conclusión, no sirve
de nada mejorar la sensibilidad del aparato de medida si el método de medida
que estamos utilizando es tan impreciso que posee errores aleatorios por encima
de la sensibilidad del aparato.
En cambio, en este caso sí que sería útil cambiar el método
de medida por otro más preciso, por ejemplo, mediante la utilización de puertas
fotoeléctricas que indiquen automáticamente al cronómetro cuando arrancar y
parar. Si al hacer esto obtenemos:
3,34 s; 3,34 s; 3,34 s
Entonces estamos seguros de que los errores aleatorios
debidos a que el sistema no es totalmente preciso están por debajo de la
sensibilidad del cronómetro y, por tanto, no pueden ser detectados. En este
caso, la incertidumbre experimental no viene de la falta de precisión del
método, sino de la sensibilidad del aparato utilizado
(3,34±0,01) s
y sí que ahora sería útil, por tanto, comprar el cronómetro
que es capaz de "ver" las milésimas de segundo.
Nótese que, sea cual sea el caso, es siempre imposible
conseguir una incertidumbre experimental de valor cero, es decir, nunca
podemos estar totalmente seguros de que hemos obtenido, al medir, el valor
verdadero. Lo único que podemos hacer es dar un intervalo el cual tenemos mucha
confianza incluye al valor correcto.
Un
método de medida es más preciso cuanto menores son los errores aleatorios que
posee, y el grado de precisión de un método se puede cuantificar midiendo
varias veces y estudiando la dispersión de los datos obtenidos al repetir la
misma medición.
Dado
que los errores aleatorios producen desviaciones, a veces por arriba, a veces
por debajo, cuando calculamos la media aritmética de alguna forma estamos
"compensando" los errores cometidos, con lo que esperamos obtener un
valor cercano al verdadero. No obstante, hemos explicado que en el caso
particular de que esos datos obtenidos estén más dispersos que la sensibilidad
del aparato utilizado, entonces no podemos tomar como incertidumbre
experimental la sensibilidad del aparato, ésta tiene que ser más grande.
Existen
otro tipo de errores que pueden
producirse al medir una magnitud. Se trata de los errores sistemáticos.
Se denominan así porque, al contrario que los aleatorios, ocurren siempre en el
mismo sentido, con lo que ya no nos vale tomar muchas medidas y hacer la media
para compensar las desviaciones. Otro problema que tienen es que son mucho más
difíciles de detectar que los errores aleatorios. Para detectar estos últimos
sólo tenemos que repetir la medición para ver si obtenemos siempre el mismo
valor. En cambio, podría ocurrir que en cada repetición estemos cometiendo
sistemáticamente la misma equivocación, el mismo error sistemático.
Un
ejemplo sería medir una distancia entre dos puntos no siguiendo el camino más
corto. Siempre mediríamos de más. Otro, medir con una regla que se haya
dilatado, con lo que siempre mediríamos de menos. Cualquier aparato mal
calibrado nos da lugar a errores sistemáticos. Parar un cronómetro más tarde
porque no hemos tenido en cuenta que el sonido que nos avisa de que tenemos que
para el cronómetro se propaga a velocidad finita también daría lugar a un error
sistemático. Mediríamos de más todos los intervalos de tiempo.
Todos
los métodos descritos en el párrafo anterior podrían ser muy precisos, pero no
dan como resultado un valor correcto. Están sujetos a errores sistemáticos, con
lo que se dice que no son métodos exactos. En cambio, un método que sea a la
vez preciso y sin errores sistemáticos se dice que es exacto .
Es
evidente que cuando un equipo de investigación comete errores sistemáticos
importantes es porque lo está haciendo mal. Sin embargo, no debe pensarse que
sólo los malos profesionales comenten errores sistemáticos, por dos motivos.
En
primer lugar, en muchas ocasiones los científicos son conscientes de que pueden
estar cometiendo errores sistemáticos en las medidas, pero poseen los
mecanismos para poder "cazarlos". Un ejemplo típico es el de un
conjunto de puntos experimentales que deben ajustarse a una recta de ordenada
en el origen cero, pero que, aunque sí se ajustan muy bien a una recta, ésta no
pasa por el origen. Uno entonces se da cuenta de que todos los puntos están más
altos o más bajos de lo que deberían estar.
En
segundo lugar, incluso los equipos formados por los mejores profesionales
pueden cometer errores sistemáticos importantes y no darse cuenta de ello o
tardar mucho tiempo en darse cuenta. Uno de los casos más famosos es la anomalía
de los neutrinos superlumínicos de OPERA.
En
septiembre de 2011, los científicos que llevaban a cabo el experimento OPERA
informaron que los neutrinos que habían detectado viajaban más rápido que la
luz en el vacío. Este resultado era más que sorprendente, porque velocidades
superiores a la de la luz en el vacío son imposibles de acuerdo con la teoría
especial de la relatividad de Einstein, teoría sobradamente comprobada y que
constituye la base de la física de los últimos 100 años. Este anuncio
provocó una oleada de discusiones, análisis y comprobaciones en el mundo
científico.
Sin
embargo, unos cuantos meses más tarde el equipo responsable de OPERA, tras un
gran número de comprobaciones, informó de dos defectos en el dispositivo
experimental que habían causado dos errores sistemáticos más allá del intervalo
de incertidumbre experimental que habían dado inicialmente:
v un
cable de fibra óptica mal conectado, que hacía que el tiempo medido fuera más
pequeño.
v un
oscilador de un reloj que iba demasiado rápido, cuyo efecto era el contrario
La
eliminación de estos dos errores sistemáticos dio como resultado que la
anomalía de los neutrinos superlumínicos desapareció. El intervalo de error
final obtenido incluía en su interior el valor de la velocidad de la luz en el
vacío, con lo que no se puede concluir que los neutrinos vayan más rápido que
la luz.
Nótese
que el equipo de OPERA tardó varios meses en encontrar y eliminar estos errores
sistemáticos, y esto a pesar que, desde el primer momento, eran conscientes de
que muy probablemente se estaban equivocando y se pusieron manos a la obra a
buscar el error. Cabría preguntarse cuánto tiempo habrían tardado en darse
cuenta de estos errores sistemáticos si su resultado no hubiera sido tan
disparatado.
En
conclusión, otro de los motivos por los que el conocimiento científico no es
infalible se debe a que, a pesar de que los errores aleatorios se pueden
estimar y acotar, uno nunca está totalmente seguro de que no se estén
cometiendo errores sistemáticos importantes. No obstante la Ciencia, fundamentalmente
por su carácter activo y público, va saliendo victoriosa de todos los problemas
que hemos descrito.
Sergio
Montañez Naz
Suscribirse a:
Entradas (Atom)