lunes, 15 de noviembre de 2010

Nuevo domicilio

Cual transposón, salto de un sitio a otro llevandome lo que hay a mi alrededor. Nuevo locus:

http://hombredelgorrocoptero.wordpress.com/

domingo, 10 de octubre de 2010

El lado oscuro de la evolución: guerra biológica (II)

En 1997 sucedió algo que los científicos hace tiempo que temían, especialmente los médicos. En los casos de tres pacientes geográficamente distantes, una bacteria a menudo letal, Staphylococcus aureus, se vio poco afectada por un antídoto en el que hasta la fecha se podía confiar: la vancomicina, un antibiótico. Afortunadamente, en esos pacientes el microorganismo sí era sensible a otros fármacos y se logró su erradiración. Pero la aparición de S. aureus que no sean susceptibles de un tratamiento óptimo con vancomicina presagia problemas, una pesadilla sanitaria internacional: el aumento de las resistencias bacterianas contra muchos antibióticos que hasta ahora nos ayudaban a controlar las infecciones bacterianas.

Desde los años cuarenta, cuando se empezó a disponer de ellos, se ha venerado su carácter de fármacos milagrosos: proyectiles mágicos capaces de eliminar las bacterias sin dañar en exceso a las células de la persona infectada. Cada nueva década ha traído un aumento de la frecuencia de bacterias que plantan cara no sólo a uno sino a varios antibióticos y cuyo control resulta extremadamente complicado. De hecho, existen cepas de al menos tres especies bacterianas (Enterococcus faecalis, Mycobacterium tuberculosis y Pseudomonas aureginosa), capaces de producir enfermedades potencialmente letales, que escapan ya a la acción de todos los antibióticos del arsenal del que dispone el clínico, un lote de más de cien fármacos.

Pero, ¿cómo se ha llegado a una situación así? Varios procesos interrelacionados son los responsables. Para entenderlos mejor, es necesario comprender los mecanismos por los que los genes capacitan a las bacterias para resistir el ataque de un antibiótico, cuál es la naturaleza de un antibiótico y los daños que éstos ocasionan en los microorganismos.

En sentido estricto, un antibiótico se define como una sustancia natural (esto es, producida originalmente por seres vivos) que inhibe el crecimiento o la proliferación de las bacterias o, directamente, las matan. Cuando la diana son virus se conocen como antivirales y cuando son hongos, antifúngicos (a los científicos nos gusta mucho ponerle nombre a todo, teniendo en cuenta que antibiótico significa etimológicamente antivida -bacteriana o no-). En la práctica, éstas sustancias son mejoradas artificialmente por los humanos con el fin de mejorar su actividad o incluso ampliar el espectro de las especies a las que afectan. Funcionan, de forma general, interfiriendo en procesos vitales. La tetraciclina, por ejemplo, se une a los ribosomas e impide a la bacteria sintetizar nuevas proteínas. La penicilina y la vancomicina impiden la síntesis de la pared celular bacteriana.

Las bacterias disponen de varios mecanismos por los que adquieren genes de resistencia. Muchas heredan los genes de sus predecesores; otras veces son mutaciones genéticas, muy frecuente en bacterias ( 1 ó 2) las que producirán de forma espontánea un gen de resistencia o perfeccionarán uno existente. No en pocas ocasiones reciben los genes de resistencia de otras bacterias vecinas. De hecho, el intercambio de genes está tan difundido en el mundo bacteriano que podríamos considerarlo un gigantesco organismo multicelular, único, en el que las células intercambiasen con facilidad su material genético. Es común que los genes de resistencia se integren en plásmidos, minúsculos anillos de ADN que permiten a las bacterias superar los contratiempos que les depara el medio; aunque los genes también pueden estar integrados en el cromosoma bacteriano, gran molécula de ADN que almacena la información necesaria para la reproducción y el mantenimiento de rutina de la bacteria. A menudo una bacteria transfiere sus características de resistencia a otras mediante la donación de un plásmido. Los virus movilizan, a su vez, genes de resistencia en las ocasiones en las que extraen un gen de una bacteria y lo inyectan en otra. Además, cuando una bacteria muere y se lisa, se rompe, libera su contenido al medio externo y otra bacteria cualquiera puede apropiarse de algún gen liberado (en éstos dos últimos casos, sólo si el gen llega a integrarse en el cromosoma o en el plásmido de la bacteria receptora logrará ejercer su función). Ésta integración es rfecuente, porque los genes de resistencia van frecuentemente junto a transposones, prestos a saltar a otras moléculas de ADN.

El proceso de selección es bastante directo. Cuando un antibiótico ataca a una población bacteriana, destruye a las que son muy sensibles. Pero las células que presentaban la resistencia desde el principio o que la han desarrollado luego (bien por mutación o por transferencia horizontal) pueden sobrevivir, más aún si se administran cantidades insuficientes de antibiótico. La reducción de la competencia por bacterias susceptibles facilita la proliferación de las otras. Cuando un grupo de bacterias se enfrenta a un antibiótico, las más resistentes desplazan sin remisión al resto, patógenos o no. Éste tipo de bacterias, no patógenas pero resistentes, actúan como reservorio de la resistencia a antibióticos, la cual se extiende por transferencia horizontal. Éste efecto de colaboración a favorecido la aparición de cepas multirresistentes de Acinetobacter y de Xanthomonas, productiras de sepsis potencialmente letales en pacientes hospitalizados. Hace 10-15 años de éste tipo de organismos multirresistentes.

Por último, falta la última razón de que se haya llegado a esta situación: su uso. Se ha demostrado que si un miembro de una familia utiliza de forma crónica un antibiótico para combatir el acné, la concentración de bacterias resistentes al tratamiento en la piel aumenta para todos los miembros de la familia. Del mismo modo, un empleo muy elevado de antibiótico en hospitales, guarderías y granjas (donde con frecuencia se administran fármacos a los animales) incrementa los niveles de bacterias resistentes en personas y otros organismos que no reciben el tratamiento; entre ellos debe contarse a quienes vivan en las proximidades de estos epicentros de consumo elevado o siquiera pasen por ellos. Dada la intensificación de los viajes internacionales, no sólo se puede importar/exportar resistencias a antibióticos sino que también se pueden importar/exportar cepas multirresistentes. Por ejemplo, se ha documentado la migración de una cepa multirresistente de Streptococcus pneumoniae desde España hasta Gran Bretaña, Estados Unidos, Sudáfrica y otros países. Esta bacteria, también conocida como pneumococo, produce neumonía, meningitis y otras enfermedades.

La solución a la resistencia bacteriana es modificar químicamente los antibióticos para que sean irreconocibles por sus sistemas de resistencia. Son modificaciones complejas y que cuestan mucho dinero, algo que posteriormente redunda en el precio del producto final y causa malestar de parte de la población. Por ello resulta sorprendende que muchos médicos satisfagan la petición de antibióticos de personas desinformadas en lo que se refiere al tratamiento de catarros y otras infecciones víricas que los antibióticos no pueden curar, muchas veces incluso en contra de su propia opinión médica. Se ha calculado que, en EEUU, alrededor de 50 millones de prescripciones anuales, de un total de 150 millones, son innecesarias. Además, hay pacientes que no terminan el tratamiento y almacenan las dosis sobrantes para automedicarse, o medicar a familiares y amigos, en cantidades menores a las terápicas, lo que supone un caldo de cultivo perfecto a la aparición de resistencias en bacterias que luego podrán producir trastornos de dificil tratamiento.

Algunos ejemplos de bacterias patógenas multirresistentes:

  • Staphylococcus aureus: Causa septicemia, infección de heridas y neumonía; en algunos hospitales más del 60% son resistentes a meticilina; algunas amenazan con presentar a todos los antibióticos (H/C; 1950).
  • Acinetobacter: Causa septicemia en pacientes con afectación del sistema inmune (H; 1990).
  • Enterococcus faecalis: Causa septicemia e infecciones del tracto urinario y de heridas en pacientes inmunocomprometidos; no existe tratamiento para ciertas cepas multirresistentes (H; 1980).
  • Neisseria gonorrhoeae: Causa gonorrea; la presencia de resistencia a varios fármacos limita el tratamiento, esencialmente a cefalosporinas (C; 1970).
  • Haemophilus influenzae: Causa neumonía, otitis y meningitis, sobretodo en niños; se puede prevenir mediante vacunas.
  • Mycobacterium tuberculosis: Causa tuberculosis; no existe tratamiento para ciertas cepas multirresistentes (H/C; 1970)
  • Escherichia coli: Causa infecciones del tracto urinario, septicemia, diarrea e insuficiencia renal aguda; algunas cepas productoras de infecciones urinarias presentan resistencia a varios antibióticos (H/C; 1960).
  • Pseudomonas aureginosa: Causa septicemia y neumonía, sobretodo en pacientes afectados de fibrosis quíscita o con el sistema inmune debilitado; no existe tratamiento para ciertas cepas multirresistentes (H/C; 1960).
  • Shigella dysenteriae: Causa disentería (diarrea hemorrágica); se han descrito epidemias por cepas resistentes y sólo algunas se pueden tratar con fluoroquinolonas, caras y no disponibles, con frecuencia, en países en desarrollo (C; 1960).
  • Streptococcus pneumoniae: Causa septicemia, infección del oído medio, neumonía y meningitis (C; 1970).



El empleo extensivo a escala mundial de antibióticos en medicina, ganadería y agricultura produce la selección de cepas resistentes a éstos fármacos. ¿Cabe deducir que hay que abstenerse de utilizar antibióticos y así detener el avance de éstas bacterias para las que no existiría tratamiento? No, pero casi. Si se quiere que estos fármacos conserven su eficacia contra los patógenos, se deberá hacer un uso más responsable. La sociedad puede aceptar un aumento de la proporción de bacterias resistentes cuando sea necesario tratar una enfermedad, pero este mismo aumento es inaceptable si el recurso de los antibióticos es prescindible. Piensos e insecticidas que carezcan de antibióticos, mejora de las medidas higiénicas en hogares, agricultura y ganadería; se pueden lavar frutas y verduras crudas para eliminar no sólo restos de antibióticos sino de bacterias resistentes (por muy resistentes que sean, si no comen mueren); seguimiento estricto de los tratamientos por parte de los médicos y que éstos administren única y exclusivamente cuando haya necesidad de antibiótico (han verificado que es un agente bacteriano y que realmente se requiere); no conservar restos de antibióticos sino llevarlos a donde indiquen los profesionales para su correcto tratamiento; abstenerse las personas de solicitar antibióticos para cualquier enfermedad que ellos estimen oportuno (sin saber si son bacterianas, viricas, etc.). Siendo algo más estrictos aún, prohibir la inclusión de antibióticos en lociones para manos y otros productos cosméticos y de higiene diaria que incluyen agentes antibacterianos en su composición. Revertir esta tendencia requiere de la colaboración de las instituciones, de los médicos, de los granjeros y de cualquier otro que permita abordar los efectos de los antibióticos desde nuevos puntos de vista. Se precisa de un mejor manejo de los antibiótico y la restitución de la flora bacteriana sensible a esos fármacos para evitar que las bacterias resistentes estén libres de competencia y se puedan perpetuar.

Bibliografía sobre la resistencia a antibióticos:

  • THE ANTIBIOTIC PARADOX: HOW MIRACLE DRUGS ARE DESTROYING THE MIRACLE. S.B. Levy. Plenum Publishers, 1992.
  • DRUG RESISTANCE: THE NEW APOCALYPSE. Número especial de Trends in Microbiology, vol. 2, nº10, pág. 341-425, octubre 1994.
  • ANTIBIOTIC RESISTANCE: ORIGINS, EVOLUTION, SELECTION AND SPREAD. Dirigido por D.J. Chadwick y J. Goode. John Wiley & Sons, 1997.

jueves, 19 de agosto de 2010

Bip, bip, bip...

Uno no puede despistarse mucho, a la que lo hace le crecen los seguidores como enanos.

Próximamente se podrá ver el blog en wordpress, lo único que me falta para ser Google-independiente. Y de paso pues trataré de estar más pendiente del blog.


saludos

jueves, 20 de mayo de 2010

El poder de la evolución

A menudo solemos ignorar cuán importante es la evolución para entender el mundo tal y como es. Ésta entrada pretende refrescar esa importancia.

Émile Borel, allá por 1913, propuso su archiconocido teorema de los monos. Éste teorema dice, a grosso modo, que un mono aporreando al azar en una máquina de escribir, durante un periodo de tiempo infinito, podría llegar a escribir cualquier libro de los que había en su momento en la biblioteca nacional francesa.

Para hacer la prueba voy a tirar de ordenador, con SmallBASIC, que para eso estamos en el sXXI, aunque lo dejaré en algo más humilde, la introducción de Cervantes: "En un lugar de la mancha" y en lugar de un mono voy a utilizar 1 millón. Son 24 caracteres, contando los espacios, donde la probabilidad de que salga el carácter justo es de 1/26 (26 letras del alfabeto), pero la probabilidad de que además salga en la posición justa es de 1/26 * 1/24. Por tanto, la probabilidad de que salga la frase, enteramente por azar, es de (1/26 * 1/24)^48. La probabilidad es, por decirlo finamente, un tanto pequeña. Anotando como nota mínima el mono con menos aciertos y como nota máxima el mono con más aciertos, ésto es lo que sale:

No he dejado llegar hasta el millón de monos porque tarda una barbaridad y no llega a completar la frase de Cervantes. Al principio es muy fácil sacar las letras justas en su posición, son pocas, pero a partir de 3-4 letras correctas el tiempo requerido para conseguir una letra en su sitio justo se dispara: aproximadamente el mono nº 3000 consiguió ya las 4 letras, poco antes del 30.000 aparece un mono que teclea correctamente 5 letras, etc. El mono nº 600.000, aproximadamente, consigue dar con 9 letras en el lugar correcto y llega al mono nº 1 millón con las 9 letras. Se puede aumentar el número de monos, pero aún así no se consigue nada porque el número (1/26 * 1/24)^48 es astronómicamente pequeño: 0, -50 ceros-1. Ni la edad del universo sería suficiente para que, absolutamente por azar, un mono escriba únicamente "En un lugar de la mancha" (no hablemos ya de un libro de Shakespeare, como reza la versión inglesa).

Sin embargo, la vida tal y como hoy la conocemos, que es algo muy complejo funcional y estructuralmente, existe. ¿Cuál es la trampa? ¡Ah! Vamos a modificar un poco el programa para incluir algunas cosas inherentes de los seres vivos: la herencia y mutaciones. Las mutaciones, como ocurre en la realidad, ocurrirán por azar. Vamos a suponer ahora que el mono con más puntuación copula con una mona (al azar, no tiene por qué tener una puntuación alta), se da la recombinación y deja su descendencia, que reemplazará a los monos de menor puntuación. En ésta ocasión el número de monos a emplear es de 100:

En 8.140 generaciones de monos han conseguido escribir esa pequeña frase. El programa tiene muchos parámetros al azar, por lo que no hay dos simulaciones iguales (probando antes de crear la entrada se consiguió en 3.566 generaciones).La cuestión es que lo han conseguido infinitamente más rápido que en el caso de que fuese algo totalmente al azar. En éste caso, las mutaciones han sido al azar, al igual que la cópula (no siempre se consigue lo que se quiere); pero en promedio los monos que han sacado mayores puntuaciones han medrado en la simulación, como puede deducirse de la nota del mono más "tonto". Poniendo unos 80 años de vida media del mono, se habría conseguido escribir esa frase en unos 651.200 años. ¿Por qué en la naturaleza no es así? fácil: en la naturaleza se reproduce el que copula, no el más fuerte, ni el más listo, ni el más rápido, ni ningún bicho con otra cualidad más allá de ser espabilado y es por ésto por lo que aparecen oscilaciones que retrasarían el inicio del Quijote.

Como buena chapucera que es la naturaleza, el aprovechar lo que ya tiene le ahorra un tiempo del que la mayoría de las veces no somos conscientes. Una curiosidad: cuando la tasa de mutación se deja en cero, dejando al máximo si se quiere la probabilidad de recombinación, la variabilidad de la población disminuye hasta que la nota máxima y mínima son iguales. Ésto demuestra que la reproducción sexual no sirve absolutamente para nada en cuanto a generar variabilidad, algo que choca con lo que siempre se nos enseña en colegios y universidades y que se acaba convirtiendo en dogmas (como eso de que una célula viene siempre de otra, lo cual es mentira).

¿Alguna moza quiere reproducir el experimento, pero en la realidad?

lunes, 5 de abril de 2010

Cambio climático: los datos sobre la mesa (II)

Una vez resumido qué es y cómo trabaja el IPCC vamos a meter la cabeza en los datos.

La fuente principal de datos son los llamados núcleos de hielo o cores de hielo y de los que hay varios. A modo de resumen: cuando nieva en los lugares donde hay nieves perpetuas la nieve permanece ahí de un año para otro; esa capa de hielo lleva consigo moléculas varias disueltas de la atmósfera que la rodea en el momento en el que se formó. Cada año se depositan nuevas capas que, con la presión, se acaba transformando en hielo donde quedan atrapadas esas moléculas hasta que ese glaciar se derrita. Cuando se extrae un núcleo de hielo y se procesa, se puede obtener un resumen de la atmósfera que había cuando esa capa se formó hasta que se extrajo. A mayor profundidad de extracción más se puede retroceder en el tiempo. Así, dentro de todos esos núcleos tenemos algunos como el de vostok, de 3.623m de largo (el más largo hasta la fecha), el domo de Taylor, de 2.265m de largo (el segundo más largo), otros son algo más modestos como el del glaciar de Newall con 325m. La lista anterior muestra más y con bastante detalle.

Como se tienen muchos datos para un mismo período, hay que hacer un tratamiento estadístico para determinar la dispersión de los datos (más dispersos = menos fiables, y menos dispersos = más fiables), también conocido como error muestral. Para disminuir lo máximo posible ese error, a igualdad de metodología e instrumental, sólo queda aumentar el número de muestras (en su extremo, analizar la totalidad de lo que sea). En ciencia, cuando se quiere estar seguro de algo cuyos efectos o causas se desconocen, debe hacer un tratamiento estadístico de los datos que se tienen y así ver si apoyan la hipótesis A o la hipótesis B; el tratamiento consiste en analizar la varianza, de ahí el nombre ADEVA (Análisis DE la VArianza, también se le llama ANOVA, del inglés ANalysis Of VAriance), de modo que se establece si las variaciones observadas son posibles si se dan al azar o no es así (si no es así, hay algo que las produce).

Un ejemplo lo podemos ver en el apartado 9.4.1.1 del 4º informe del IPCC (a partir de ahora me referiré al 4º informe del IPCC como CII, por economía):
"The global mean temperature averaged over land and ocean surfaces warmed by 0.76°C ± 0.19°C between the first 50 years of the instrumental record (1850–1899) and the last 5 years (2001–2005) (Chapter3; with a linear warming trend of 0.74°C ± 0.18°C over the last 100 years (1906–2005))".

"The rate of warming over the last 50 years is almost double that over the last 100 years (0.13°C ± 0.03°C vs 0.07°C ± 0.02°C per decade; Chapter 3)".
Si hacéis las cuentas, veréis que el error oscila entre el 23-29%. En otros casos el error es del 40%. En una sola palabra: brutal. La probabilidad del 50% marca que algo puede que ocurra o puede que no, pues a ese punto se acerca. Y ello se debe a que las muestras son pocas (de hecho, que abarquen un período de más de 2.000 años son muy pocas). Ésto se puede ver mejor en éste gráfico del NOAA, donde cada autor propone temperaturas y tendencias distintas, salvo a partir de 1.850 (cuanto más cerca en el tiempo, más fácil y fiable tener medidas).

Bueno, si se le echa un vistazo al CII, se puede observar que el 90% de datos y simulaciones están acotados al período que comprende desde 1850 hasta la actualidad (2007, cuando se publica el informe). Un detalle, o mejor dicho otro detalle más, que invita que se hacen las cosas mal, es que se trabaja con modelos lineales, cuando el comportamiento del mismo no es lineal (en plan bestia se podría decir que sería una polinómica de grado n, siendo n > 2). El capítulo 6 del CII se centra todo lo referente a paleoclimatología y entre otras cosas interesantes, podemos ver los respectivos estudios que se hacen de los núcleos de hielo más allá de ese período que mencioné antes (hasta unos 600.000 años).



Y se centran en un pixel de la anterior imagen para explicar por qué estamos tan calentitos:


El lector avispado se habrá percatado de la temperatura que hay próxima a nuestra época en el gráfico de vostok. Se llevará un chasco cuando vea que esa tendencia se mantiene desde hace, aproximadamente, 11.000 años. Pero eso parece no tener importancia a la hora de consensuar los resultados. Si bien los núcleos de hielo que abarquen ese tiempo son muy pocos, la tendencia que muestran es la misma; aunque, como mencioné antes, son necesarias más réplicas para darle validez estadística, salga lo que salga.

Debido a ese sesgo en los datos, es normal que se diga elocuentemente lo siguiente en el FAQ9.2:
"It is very unlikely that the 20th-century warming can be explained by natural causes. The late 20th century has been unusually warm. Palaeoclimatic reconstructions show that the second half of the 20th century was likely the warmest 50-year period in the Northern Hemisphere in the last 1300 years".
Dicho de otro modo: hace 1.300 años hubo otro calentamiento como el actual. Pero las personas nos impresionamos más por el tiempo que hubo sin calentamiento y, evidentemente, así pueden decir lo que quieran. En la película Yo, robot, el holograma del Dr. Lanning le dice a Spooner que haga las preguntas correctas. Y es que, si quieres saber si tienes una enfermedad, no le puedes preguntar al médico si le gusta o no tu jilgero. Y, como se puede ver, tampoco es inusualmente cálido, ya hubo periodos tan cálidos como el actual.

Lo del modelo lineal puede parecer una tontería, pero supone una pérdida de perspectiva muy importante que trataré de ejemplificar a continuación. Como el clima ha tenido varias oscilaciones, para simplificar básicamente mi existencia, se ha simulado esa oscilación con una función logística algo modificada (tiene una r grande, en la ecuación de Verhulst, que hace que los resultados sean un tanto caóticos). Aqui está el núcleo vostok del hombre del gorrocóptero:




La franja rosa indica el intervalo temporal que va desde 1.850 hasta la actualidad. Realmente debe ser mucho más fina, ocupando la última parte, pero no tengo muchas ganas de editar ahora las imágenes. El dedo naranja indica un pico de calentamiento, el azul una glaciación y, lo que hay bajo la llave, pretende representar la estásis que precede a la humanidad en el auténtico núcleo de vostok (no hay grandes picos). Alguien decide estudiar cómo ha evolucionado la temperatura, bueno, realmente muchos lo hacen, pero algunos deciden ver qué ocurre desde 1.850 (dicho sea de paso, es más fácil sacar cores de 200m que de más de 3km, dentro de la dificultad que entraña sacar uno de 10m). Y obtiene ésto:

Tras mucho tiempo y mucha gente mirando éste resultado y haciendo más experimentos en el mismo intervalo temporal, alguien avispado observa que desde la revolución industrial la temperatura no ha parado de aumentar. Curiosamente, la humanidad no ha parado de crecer, ergo la humanidad es la causante de esa tendencia. La humanidad está en el centro del objetivo, por lo que la moda (que también afecta a la ciencia) y las subvenciones de investigación van a éstos asuntos. Tras esa inversión económica y humana, se llega a la conclusión de que se ajusta aceptablemente a una función del tipo y(x) = a·x + b, por lo que se aventuran a predecir lo que ocurrirá en el futuro. Para ello se sirven de posibles escenarios futuros y obtienen el siguiente gráfico:


El modelo dice que la temperatura a irá a peor: seguirá aumentando. Se organizan ruedas de prensa, se ponga el tinglado correspondiente y se acuerda de que hay que hacer un foro internacional para discutir todo ésto que está ocurriendo desde 1.850. Se hacen 1001 modelos de lo mismo, bajo distintas condiciones, todos con resultados similares según el contexto sociopolítico que se incluya/excluya. La mayoría concluyendo lo mismo: la humanidad culpable. Pero otro grupo de personas se fija en los datos que hay más allá de 1.850 y se cuestionan si efectivamente somos culpables (o tan culpables como dicen los otros) porque ven datos que no casan muy bien con lo que se dice a vox populi: hubo otros calentamientos similares e incluso peores que el actual... con la curiosidad de que no había industria entonces.

Se da el hipotético caso de que se molestan en modelar un sistema que incluya, además de la actividad humana desde 1.850, todo lo habido y por haber durante todo el período de tiempo del que se tiene información fiable (digo hipotético porque hacer algo así es muy laborioso y no sé si da tanto dinero), y obtienen una cosa extraña:

Un galimatías de gráfica que, tras estudiarla, revela que un período de enfriamiento a más corto plazo -geológicamente-, al contrario que el modelo del foro internacional que daba un crecimiento aún mayor. Y no sólo eso, tras varios ciclos de glaciación/calentamiento, observan que hay un período con una dinámica prácticamente idéntica a la que se ha obtenido en la gráfica para el periodo que abarca desde la revolución industrial y que además habría otro período de estasis (poco antes del tiempo 40). Pero lo mejor de todo: la escala temporal que va desde la actualidad hacia atrás refleja con aceptable fidelidad lo que los datos disponibles dicen que ocurrió, lo que indica que el modelo es bueno.

Fuera del ejemplo anterior, otro dato curioso y que está siendo prostituido por el IPCC es el tema del CO2. Y como lo que dice el IPCC tiene más bombo que lo que no dice, pues no existe. Y a ello ayuda en su medida la ignorancia de términos estadísticos de gente ajena a la ciencia o a la estadística. En el CDIAC, entre otros, están los datos de CO2 de intervalos temporales varios. En el informe del núcleo de vostok, se puede leer lo siguiente:
"There is a close correlation between Antarctic temperature and atmospheric concentrations of CO2 (Barnola et al. 1987)".
Dice que hay una gran correlación entre la temperatura antártica y concentraciones de CO2 atmosférico. El quid de la cuestión es que se dice correlación: una relación entre dos variables aleatorias. El número de paraguas y el número de días de lluvia también tienen una correlación, así como el famoso gráfico de los piratas y la temperatura. Sin embargo, lo que se da a entender desde éstos foros internacionales es una cosa bien distinta: una regresión, donde hay una relación de dependencia (más o menos influyente en lo que estudiemos). Es decir, hay otra cosa que no es el CO2 estrictamente (aunque es un gas de efecto invernadero), que hace variar la temperatura del planeta, lo que a su vez hace variar la cantidad de CO2 (ya lo dice la ley de Henry, la solubilidad de los gases es inversamente proporcional a la temperatura). Puede que sea otro gas con efecto invernadero, variaciones solares u otra cosa, pero esa conclusión consensuada dice que es el CO2. No importa que el ubícuo vapor de agua sea el mayor generador de efecto invernadero (emitido por todo bicho que respire oxígeno), o que el metano que mamíferos y rumiantes emiten en forma de flatulencia genere más efecto invernadero que el CO2. Había que nombrar a alguien con un criterio arbitrario y ese fue el CO2.

Pongo arbitrario porque en el informe no se ve exactamente el por qué; dicen mucho que CO2 y temperatura varían, pero no hacen referencia a la correlación (vs regresión) ni qué porcentaje de esas variaciones se debe al CO2. Todo ello se verá en el futuro, y temo que será tan mal tratado como todo lo anterior. Aunque, lo bueno de la ciencia, es que antes o después las cosas y las personas acaban donde deben estar.

Otro tema a tratar son las mediciones que se llevan a cabo de ese CO2. Para la temperatura se utilizan discriminaciones isotópicas varias (deuterio, oxígeno-18, etc). La base es que si hace mucho frio (en regiones frías), al precipitar el agua (líquida o en forma de nieve) caen más moléculas que tienen el isótopo pesado y el suelo, en forma de hielo en éste caso, queda enrriquecido en oxígeno-18. En zonas donde hace calor el agua se evapora y es más fácil evaporar agua con oxígeno-16, pero el sol inyecta tanta energía que el efecto es menos acusado que en la precipitación, por lo que el suelo pierde oxígeno-18 y se empobrece (más o menos, dependiendo de la región). Ésto se traduce como valores positivos en la discriminación, cuando son negativos, está enrriquecido en oxígeno-16. En el capítulo 6 del informe del IPCC podéis ver imágenes donde superponen datos isotópicos como método de estimación de la temperatura. Para el CO2, se mide directamente en las burbujas que hay atrapada en los núcleos de hielo extraidos. La gracia de ésta medición es que se mide en aire un gas que se puede disolver en el agua, y de hecho lo hace. Y no sólo eso, también es un gas asimilable por bichos marinos varios (para formar estructuras de carbonato cálcico) y que sedimenta, ésto no se mide. No está accesible, pero es que no se tiene en cuenta en el informe y debería ya que la medida está infravalorada. No hay otra cosa, pero si se compara esa medida infravalorada con una medida directa de la atmósfera, ésta última siempre va a ser mayor y va a tener una dispersión mucho menor que la medida en el hielo. Como dije, ni se contempla tal cosa.

Un último conflicto, con su importancia, es el de las estimaciones. 'Se estima que es' no es igual que 'es', y por tanto no se puede comparar. Pero se hace, de ahí que se digan y escriban barbaridades. Si os sacáis un diente (no me hago responsable si uno de vosotros está loco y lo hace) y utilizáis las famosas relaciones alométricas utilizadas por muchos paleontólogos, podréis estimar vuestra altura; por ejemplo de 1,70m. Ésto es lo que se extrae de esos núcleos de hielo. Lo que se hace para la actualidad es coger el metro y medir: 1,76m. La explicación de ese repentino crecimiento se deberá a lo que la calenturientamente del lector prefiera. Pues a ésta cosa tan sencilla, tampoco se hace referencia en ese consenso: ¿lo que es, es? ¿o no es?

De todo ésto se pretende poner de manifiesto que, en pocas palabras, se está trabajando mal. Y a ésta misma conclusión han llegado muchos otros científicos, científicos que no se alojan en lujosos hoteles cuando tienen alguna ponencia en la ciudad X, ni comen tantas delicatessen. A ello hay que sumar a personajes varios que se han subido al carro para dar conferencias, por un módico precio, que han multiplicado la difusión de ese mal trabajo (e incluído nuevos y cómicos errores -para el que los pille-). Ese consenso, donde los científicos tienen poca participación tal y como se muestra en el diagrama de la primera parte de ésta entrada, constituye un piscinazo científico y matemático, de ahí que no sean pocos los científicos que han salido y salen despavoridos del IPCC.

Debido a ello, no es posible a día de hoy tener claro si hemos tenido impacto o no sobre el clima. Ésto se verá en un futuro que ninguno de nosotros, ni nuestros nietos, verán; pero se verá. Y cuando llegue ese futuro, se verá si hemos alterado algo o no y, si efectivamente lo hemos alterado, en qué medida. Todo lo demás es hablar para nada. Bueno, para nada no, muchos bolsillos están a buen recaudo tras tanta palabrería. Hubiese sido más productivo utilizar datos y hechos contrastados como las enfermedades que causa la polución, o que queremos dejarles a nuestros hijos y nietos un mundo no muy adulterado para que puedan ver lo que es un lobo de tasmania (vaya, que se extinguió...) o alguna cosa de esas en lugar de decir que la humanidad ha cambiado el clima, que somos el malo de la película, sin tener nada concluyente.

Pensad que el famoso volcán islandés, en un par de días, ha alterado el ciclo del azufre. ¡En dos días!, algo así ya ocurrió por otra erupción del volcán Láscar en 1992 y muchas otras veces. La naturaleza siempre lleva la escritura de propiedad bajo el brazo... y pobre de aquel que pretenda quitársela.



Bibliografía y enlaces:

4º Informe del IPCC (PDF)
Programa de paleoclimatología del NOAA: http://www.ncdc.noaa.gov/paleo/globalwarming/paleodata.html

Carbon Dioxide Information Analysis Center (CDIAC): http://cdiac.ornl.gov/by_new/bysubjec.html

Cambio climático: los datos sobre la mesa (I)

Hoy día todo el mundo sabe que el cambio climático lo causa el hombre. Y lo sabe porque lo dicen unos científicos, consenso científico se llama. Y puedes ver por ahí a gente corriente hablando como si fueran poseedores de la verdad absoluta: esto ocurre así, y es así porque lo dice una importante institución que tiene a científicos trabajando ahí, y además todos dicen lo mismo: somos culpables.

Lo peliagudo del asunto, sobretodo para éstas personas que bien podríamos llamar talibanes (y que seguramente cambiará de web ahora mismo o irá a disfrutar del Lunes de Pascua), es el conocimiento extra que se tiene sobre el asunto, pero del que casi nadie se acuerda -pongo casi porque hay publicaciones al respecto, aunque con menos publicidad eso sí-. Y como bien reza la entrada de la Universidad de Marte, Knowledge brings fear (El conocimiento produce miedo). En éstas entradas (ésta primero), se tratará de emular a morfeo con eso de sólo te ofrezco la verdad, nada más -aunque realmente tendría que decir que te ofrezco lo que hay a día de hoy-.

Empecemos desde el principio: el IPCC. Las siglas IPCC vienen del inglés Intergovernamental Panel on Climate Change (en castellano, Panel Intergubernamental para el Cambio Climático o PICC). Sí, panel tiene acepción según la RAE. Bueno, lo primero que choca es qué pinta algo gubernamental ahí. Para entenderlo vamos al apartado que explica la historia del IPCC (a partir de aqui, TODO DATO ESTÁ SACADO DEL PROPIO IPCC):
"The scientific evidence brought up by the first IPCC Assessment Report of 1990 unveiled the importance of climate change as a topic deserving a political platform among countries to tackle its consequences".
En cristiano, para el que no sepa inglés, dice que evidencias científicas indicaban que el clima cambia y que ello merecía una plataforma política para abordar las consecuencias.

También se puede ver cómo se estructura el IPCC:

"The IPCC is a huge and yet very tiny organization. Thousands of scientists all over the world contribute to the work of the IPCC on a voluntary basis as authors, contributors and reviewers. None of them is paid by the IPCC. Their work is supported by a central IPCC Secretariat, whose role is to plan, coordinate and oversee all IPCC activities and by the Technical Support Units of the Working Groups and Task Force. The Secretariat and the TSUs employ 5-10 people each".

Es decir, los científicos conforman esa línea morada que hay en la base del gráfico. Ese trabajo obtiene soporte del secretariado del IPCC y de las unidades de soporte técnico (científicos). Es esa línea morada la que suministra, entre otras cosas, la maraña de datos y explicaciones. Los científicos de la base suministran sus trabajos como ocurre mayoritariamente en la ciencia, para ampliar el conocimiento. El TSU (unidades de soporte técnico) está formado también por científicos, bastantes menos (algún español hay por ahí) pero éstos ya sí están vinculados al IPCC. En la jerarquía superior está el Departamento del IPCC y que está presidido por un ingeniero industrial, y que tiene por vicepresidentes a un ingeniero mecánico, un físico y Hoesung Lee (no encontré qué formación tiene, sólo que se dedica a ecología económica y está ligado a estudios energéticos). Éstas personas son elegidas según el procedimiento que indica el IPCC (más abajo). Por encima de ese departamento sólo está lo que se dicte en los plenos del IPCC.

Una vez tenemos a las personas, se verá cómo trabajan (procedimiento) en el IPCC. Lo primero que choca, al menos a mi, es el primer filtrado de esa información y que lleva a cabo el departamento del IPCC:
"Authors, contributors, reviewers and other experts are selected by the Bureau of the Working Group from a list of nominations received from governments and participating organizations. They can also be identified directly by the Bureau because of their special expertise reflected in their publications and works. None of them is paid by the IPCC. The composition of lead author teams shall reflect a range of views, expertise and geographical representation".

The Coordinating Lead Authors (CLAs) have the role of coordinating the content of the chapter they’re responsible for (there are usually two CLAs per chapter, one from a developing country and one from a developed one). The Lead Authors (LAs) work in team to produce the content of the chapter they’ve been designated for. They are often supported by several Contributing Authors, who provide more technical information on specific subjects covered by the chapter".

Es decir, el departamento del IPCC decide qué información admite. En las publicaciones científicas ocurre algo similar, en tanto no admiten un estudio ecológico sobre el leopardo de las nieves en una revista de evolución molecular; pero todo lo que tenga que ver con evolución molecular, si está vien redactado, es admitido (ya sea del leopardo de las nieves, virus o lo que sea). Aqui es donde ya hay una diferencia: aunque toda la información que llega al IPCC está relacionada con la climatología, sólo algunos informes son admitidos (en revistas especializadas están admitidos, así que no es cuestión semántica ni gramatical).

"Review is an essential part of the IPCC process to ensure objective and complete assessment of the current information. In the course of the multi-stage review process, both expert reviewers and governments are invited to comment on the accuracy and completeness of the scientific/technical/socio economic content and the overall balance of the drafts".

"All IPCC reports must be endorsed by the Panel during a Working Group or a Plenary session. There are three levels of endorsement:

“approval” means that the material has been subjected to line by line discussion and agreement. It is the procedure used for the Summary for Policymakers of the Reports.

“adoption” is a process of endorsement section by section. It is used for the Synthesis Report and overview chapters of Methodology Reports.

“acceptance” signifies that the material has not been subject to line by line nor section by section discussion and agreement, but nevertheless presents a comprehensive, objective and balanced view of the subject matter".

Los gobiernos participan en la evaluación del material y los informes deben ser aprobados por el panel: sólo cuando se está de acuerdo con lo que se dice en esos informes éstos reciben la calificación de aprobado. Y esto es algo bastante grave porque si quienes mandan no están de acuerdo (ojo: no está de acuerdo, no que eso no ocurra así), eso se desestima. Algo así no ocurre con las publicaciones científicas, donde son publicadas igualmente y posteriormente la propuesta es discutida/refutada por la comunidad científica. Aqui es el equipo del IPCC (entre los que se incluyen delegaciones políticas de los 194 países participantes, como son ministerios varios -The IPCC and its Plenary sessions-) los que hacen ese filtro. Pero no es el único filtro:




























Como desgraciadamente se puede ver, los gobiernos participan en exceso en el proceso que va desde la aprobación de la idea hasta la publicación del informe y la ciencia demasiado poco. Lo recuadrado en azul es a lo que se reduce la parte científica: del IPCC sale qué quieren hacer, gobiernos y organizaciones seleccionan quién hará ese trabajo y quién los revisará y qué cosas se publicarán. Los científicos se limitan a investigar lo que el IPCC propone y no lo que los científicos creen que es más interesante (o menos, según cada grupo) investigar. Y si lo que un grupo X aporta vaya contra lo que quiere el IPCC, esa publicación es rechazada.

El resultado de ello es un consensuado informe y bien sesgado. Consensuado por políticos. Como diría la publicidad robot de futurama, ideas de un político para un político. Éstos informes son utilizados luego por otros muchos científicos (ojo: muchos, no la totalidad de la comunidad científica) como base a la hora de realizar sus estudios respectivos. ¿La consecuencia? los resultados son los mismos. Es como cuando en la universidad, durante una práctica de laboratorio, la persona encargada de la misma reparte una serie de datos que el alumno ha de estudiar: el 90% llega a la misma conclusión. Y lo hacen porque trabajan con los mismos datos.

Imaginad que los editores de Philosophiæ Naturalis Principia Mathematica no estuvieran de acuerdo con lo que Newton allí decía: la ley de gravitación universal no habría sido publicada. Y todo porque a alguien no le gustaba lo que allí ponía, no que lo que decía era falso. Bueno, en el caso de Darwin ocurrió algo así, ya que su teoría de la evolución recibió palos de sus contemporaneos por todos sitios, tantos que sólo algún periódico y alguna revista de tercera categoría imprimía alguna de sus ideas ("éste año [por 1858] no está señalado para ningún descubrimiento revolucionario", le espetó elocuentísimamente el presidente de la Sociedad linneana de Londres).

Así que, a modo de introducción de la segunda parte, se podría concluir que la razón no está de parte de la cantidad de apoyos ni de la jerarquía de nadie (de serlo así, Einstein estaría en el olvido, y Marie Curie, y Santiago Ramón y Cajal, y Darwin/Wallace, y Copérnico, y Galileo Galilei, etc).

Continuará...

Fuentes:

miércoles, 31 de marzo de 2010

¿Cuándo hablaremos de la Ley de la evolución en lugar de teoría de la evolución?

Cuando hablamos de la evolución con alguien, es casi matemático que se llegue al punto en el que uno de los participantes de la conversación diga: eso no se puede demostrar. Y, fanatismos aparte, suele tener que ver en cosas como 'no puedes demostrar que el bicho X evolucionó a Y', siendo X e Y seres vivos extintos. Además hay otras muchas pajas mentales, pero fundamentalmente se debe a algo así. Bueno, no exactamente: a no poder observar el hecho en sí y a no poder explicar, según ellos, hechos de complejidad singular como la inteligencia. Muchas de esas críticas se pueden encontrar en el libro de Michael Denton, seguidor del diseño inteligente, La caja negra de Darwin. Se ceban con el pobre Darwin, ignorando convenientemente que sus ideas fueron refinadas y ampliadas en lo que hoy día se llama teoría sintética (otra vez el condenado epíteto teoría) aunque podría valernos con esa mera reconstrucción histórica de la que se jacta el propio Denton, se verá más adelante. No obstante, queramos o no en el escenario tenemos que 1) la variedad de las poblaciones se debe a las mutaciones, las cuales se dan al azar, y que se incrementa por la recombinación; 2) esos caracteres fluyen en el seno de una población, hay un flujo genético entre poblaciones cuyos caracteres fluctúan por la deriva génica y, llevado al extremo, puede hacer desaparecer por completo, siendo ese carácter irrecuperable; y 3) la selección natural sería la encargada de filtrar todo lo anterior. Tiene cosas discutibles, como la negación del saltacionismo, pero son flecos comparados con el meollo del asunto, que podría resumirse en lo anterior.

Hoy día somos testigos de muchos hechos curiosos y que no se suelen relacionar. Por ejemplo, no es raro aceptar un análisis de ADN como prueba de paternidad. El hijo o la hija desciende del padre X y la madre Y. Es una prueba tangible y que se puede demostrar, aunque nos tengamos que remontar al experimento de Meselson y Stahl que demostró cómo se replica el ADN. En el tiempo en el que se produjo el experimento, había tres hipótesis sobre cómo se replica el ADN: de modo conservativo (la molécula original que sirve de molde queda intacta y la molécula nueva es íntegramente de nueva síntesis), de modo semiconservativo ( una hélice es de la molde y otra hélice de nueva síntesis, siendo la molécula final una mezcla entre la molécula antecesora y la que de nueva síntesis) y de modo dispersivo (donde la molécula final es una alternancia de moléculas de nueva síntesis y la original). Finalmente se demostró que lo hace de modo semiconservativo. En otras palabras, hay relación genética directa entre un padre y su hijo. Por extensión relaciona a toda una familia.

Tampoco es raro ver hoy día, en las diversas infecciones que nos importunan, ver que aparecen 'cepas resistentes a...', 'cepas que son más virulentas que antes' (o menos virulentas que antes), etc. De hecho, fenómenos de ésta índole ya fueron comentados en otras entradas de éste blog (guerra biológica o evolución vírica). Decimos que los patógenos y las epidemias evolucionan. Y lo decimos todos con toda la normalidad del mundo. Y no sólo sólo se dice con naturalidad, se demuestra con naturalidad (y diría que incluso con cierta monotonía). Ya sólo con ésto... ¡se ha demostrado que la evolución existe! y además según gran parte de lo postulado por Darwin (y, evidentemente, por lo demás que incluyó la teoría sintética): ¿Por qué se le sigue llamando teoría cuando se ha demostrado inconscientemente?.

Todo eso está muy bien, pero... ¡ay como se nos ocurra mezclar al ser humano con toda esa parafernalia! nosotros, que nos hemos autoproclamado la perfección de la naturaleza, tenemos que estar en un lugar privilegiado. La ciencia es terca y un palo importante se lo llevaron muchas personas con la secuenciación del genoma. Personas que decían que alguien tan perfecto como el ser humano debía tener del orden de 100.000 genes por variopintas hipótesis... ¡y no tenemos más que 30.000 genes mal contados!, más o menos los mismos genes que un maldito ratón (99% homólogo al humano) y poco más del doble de genes que una mosca.

Con lo expuesto anteriormente y que hoy día se ha demostrado la evolución, no hay más que tirar del hilo hacia atrás para hacer esa mera reconstrucción histórica de la que Denton y otros muchos se burlan: efectivamente, el chimpancé y el ser humano tienen el mismo "padre" (aceptado por pruebas de paternidad), y tiene relación de parentesco con otros animales como los simios en general, más cercanos, hasta el bicho más simple conocido (LUCA) como pariente muy lejano (tatara-enésimo). Y ésto es algo tangible y demostrable con la tecnología actual: un simple análisis de ADN. Que si para no tener que pagar una pensión ajena tiene validez, para aceptar otras cosas le tenemos que dar la misma validez. Básicamente porque es la misma cosa lo que se analiza.

Ahora cogemos esa fuente de variabilidad, la recombinación, el flujo genético, la deriva genética y la selección natural, las juntamos, le damos 4.800.000.000 años ... y al que realmente sea consciente de ese tiempo le entrará un mareo sólo de pensar en combinaciones de combinaciones de combinaciones. Tantas, que no es precisamente raro que aparezca algo llamado inteligencia. Y no sólo eso, en la naturaleza tampoco es raro: delfines, orcas, elefantes, simios (humano incluído), caninos, felinos... todos ellos de gran inteligencia. Además, quitando los caninos y felinos (hasta donde se sabe), el resto de los grupos listados tiene algo que llamamos los humanos consciencia. Y no sólo eso, esos mismos grupos son capaces de desarrollar una cultura propia (desde coscumbres distintas hasta formas de comunicarse diferentes, dialectos o jergas). Es el tener un pulgar prensil lo que nos permitió sostener con seguridad objetos y, de ahí, a desarrollar una cultura que nos trajo donde estamos hoy día. Si ellos no escriben el quijote o no recitan al pollito clock es porque anatómicamente no pueden. Del mismo modo que nosotros, por imposiciones anatómicas, somos incapaces de ver en la más absoluta oscuridad como hacen los cetáceos porque carecemos de las estructuras anatómicas necesarias para emitir y recibir ultrasonidos.

No es tan bonito, pero Tyler tiene razón: No eres un bonito y único copo de nieve, eres la misma materia orgánica en descomposición que todo lo demás, todos somos parte del mismo montón de estiércol...

Bibliografía:

domingo, 28 de marzo de 2010

¡No me lo creo! (Adenda)

Para aclarar un poco la entrada anterior, decir que los participantes en la lotería de la vida es la propia vida y a cualquier nivel: desde un prión hasta la propia biosfera. En el momento en el que las mutaciones hacen acto de presencia (es decir, desde que hay variabilidad), nuestro material hereditario lleva los números de nuestro boleto. El entorno en el que cada componente de la vida se mueve es el encargado de realizar el sorteo: ahora saco pH ácido, ahora saco un meteorito, ahora subo la temperatura, ahora la bajo, ahora cambio un nucleótido por otro...

Es un sorteo que se da cada nanosegundo, cada microsegundo, cada día o cada 50 millones de años. No tiene la misma vida media un prión que un elefante, y éste no tiene la misma vida media que un roble, un tejo o una encina, y por tanto no caben todos en el mismo sorteo. O sí que lo hacen, pero van en bombos distintos y por cada bola que sale para roble, han salido 10 para el elefante y 10.000 para el prión. Como premio de ese sorteo: la supervivencia. Sobrevivir al sorteo y tratar de matar el tiempo hasta llegar al próximo (¡como si se pudiera matar el tiempo sin insultar a la eternidad!). Aunque todo tiene su pero, cuando te toca la lotería ya no hay vuelta atrás, te llevas el premio sí o sí. Es decir, pese a que delfines y humanos seamos primos hermanos, no nos puede aparecer de golpe y porrazo una aleta o no se nos puede cambiar de golpe el oroficio nasal hasta una posición dorsal.

La naturaleza trabaja con lo que tiene, de ahí que haga chapuzas. De no ser así, en un plis crearía un bicho perfecto, cosa que no existe. Por tanto, la historia de cada ser vivo condiciona su futuro. Aunque, evidentemente, si la lotera que es la naturaleza así lo estipula, con el tiempo podría haber cierta convergencia; pero converger no quiere decir volver a tener, quiere decir encontrar una solución similar, no la misma, a un mismo problema, en tanto a lo largo de nuestra historia una serie de límites anatómicos se han impuesto y se debe lidiar con ello. Es más, a la naturaleza le gusta ser chapucera: en el momento en el que algún bicho se descarrila y se vuelve perfeccionista lo quita de en medio (<> ahora que pongo ésto, podría pensar que la naturaleza debe ser española < /desvarío >). Cuando un ser vivo se especializa, ha perdido tanto en su historia, que no le queda otra cosa que aquello en lo que se ha especializado. ¿Qué ocurre cuando, en el sorteo, a aquello en lo que se ha especializado se le ha acabado el dinero y ya no tiene para participar más en la lotería? vamos, ¿qué ocurre cuando el sustento del especialista se muere? Como se ha especializado tanto y es incapaz de usar otra cosa, acompaña a su sustento en el camino de la extinción. La imperfección no va así. La imperfección implica usar peor algo que el perfeccionista sí sabe utilizar, pero usar más cosas (todas ellas de modo poco eficiente) y por tanto amortigua mejor los embites del sorteo. Ande yo caliente y ríase la gente.

La naturaleza es caprichosa en su sorteo, como ya demostrara Heisenberg, así que más vale que vuestros bolsillos puedan sustentar vuestra participación si no queréis quedaros por el camino y que la naturaleza siga repartiendo suerte sin vosotros.

sábado, 27 de marzo de 2010

¡No me lo creo!

Cuando una persona ve algo en la naturaleza realmente increíble, no es raro escucharle decir (o leerle) que no cree que algo así haya ocurrido por casualidad o por azar sino que alguien debió intervenir. Dependiendo de dónde se pregunte, o a quién, ese alguien recibe el nombre de Dios, Alá, Yaveh o Gran Zontan, entre otros muchos nombres. A mi, como persona ya no ya de ciencias sino como persona observadora, esa creencia me choca bastante esa y voy a exponer por qué.

En primer lugar está la estadística. Mejor no. Voy a empezar desde el principio: falta de la consciencia del tiempo. Cuando una persona escucha o lee de algo que ocurrirá dentro de 20 años dice "buah, eso está lejos, de aqui a que pase...". Sin embargo, cuando leen o escuchan que algo aconteció hace X millones de años (o sin millones, hace miles de años o incluso cuatro siglos mal contados) pues se quedan un poco con cara de "pos vale", salvo que digas que cada X tiempo caen nosecuántos meteoros, o que el sol crecerá tanto que consumiría el planeta, o cosas así donde se pasa al otro extremo: al temor de que ocurra mañana. Realmente no sabemos qué cosa es el tiempo y la dimensión tan absolutamente brutal que tiene. Si lo referimos todo a segundos, pues todo el mundo sabe que un minuto tiene 60s y una hora 3600s. Un día tiene 86.400s, una semana 604.800s y un mes (de 30 días) 2.592.000s. Si uso 1 no dice mucho, pero pongo los más de dos millones y medio de segundos que tiene "1 mes" entonces vemos que es un "pelín" de tiempo. El año tiene más de 31.000.000s en números redondos. Realmente es mucho tiempo, no nos parece tanto porque nuestra mente está realizando otras tareas y no tiene tiempo para ver si el Cesio 133 va por la vibración 1 ó la 9.192.631.770, pero si nos paramos un instante y nos hacemos conscientes por ese instante de nuestra existencia... la cosa cambia. Haced como ejercicio el no hablar, nada de nada (o hablar si no sois habladores) durante 10s. O si lo preferís, contad segundo a segundo lo que tarda en iniciar vuestro ordenador. Os parecerá un tiempo considerable y realmente no son más que unos pocos segundos.

Menos intuitivo es ser conscientes de lo que son cientos, miles o millones de años. Redondeando muy mucho la vida media de una persona, en la sociedad desarrollada (de 70 a 80 años), a un siglo, vemos que cada uno de nosotros sólo ha tenido, en dos siglos, un abuelo y un bisabuelo (bueno, dos, el paterno y el materno). Algo que se puede ver perfectamente en los árboles genealógicos de toda índole que hay en internet. Aunque no he hecho la cuenta, podríamos tener de 50 a 2.500 tatara-n-abuelos. Toda nuestra genealogía, desde la aparición del Homo sapiens podrían encerrarse en cualquier pueblo pequeño español (en general, incluida nuestra subespecie. Si nos ponemos quisquillosos se quedarían, como mucho, en 1.000 tatara-n-abuelos, podrían llegar incluso al nivel de aldea). Ahí quedarían encerrados de 50.000 a 250.000 años de historia biológica. Ahora imaginad lo que son 4.800.000.000 años, que es la edad del planeta Tierra. Enfrentando esos 250.000 años de historia del Homo sapiens frente a esos 4.800.000.000 años (ó unos 100.000 años si hablamos exclusivamente del H. sapiens sapiens, nosotros tal y como somos hoy) podemos empezar a hacernos una idea de por qué los científicos dicen que, en la enciclopedia de la historia de la vida (no recuerdo ahora de cuántos volúmenes), la parte correspondiente a la humanidad se reduciría a una frase.

Ahora vamos al tema estadístico. Gran culpa de todo ello lo tiene la prostitución del concepto de posibilidad, y parte de culpa de esa prostitución la tenemos los científicos. Que algo sea posible quiere decir que no es imposible, es una perogrullada pero no se le toma como tal. La probabilidad de que ocurra algo va del 0% al 100% (o del 0 al 1, si lo referimos a tanto por uno), siendo 0% algo imposible y el 100% algo seguro (¡ojo!, no que sea posible: se-gu-ro). Por tanto, lo que hay entre el 0% y 100% (sin ser 0% ó 100%) es algo posible.

Y aqui es, damas y caballeros, donde se junta el hambre con las ganas de comer: cuando se dice que algo es prácticamente imposible es porque tiene una probabilidad muy baja, qué se yo... del 0,00001% y resulta que, como nos enseñan en el cole, se tiende a redondear al 0% (total, 0.00001 es casi 0). Es decir, hemos convertido a 1 posibilidad entre 100.000 en 0 posibilidades. Nos guste o no el tiempo existe, y ese tiempo hace que lo que era prácticamente imposible se vuelva seguro: cuando el tiempo tiende a infinito (a una cantidad muy muy muy muy grande) vemos que acaban pasando 100.000 "algos"... y, como por arte de magia, acaba ocurriendo lo que pensabamos que era imposible, que esa posibilidad entre 100.000... ocurra.

Creo que ésto se ve mejor con un ejemplo: la lotería. Concretamente el euromillón. El euromillón es un juego en el que hay que seleccionar 5 números de entre 50 posibles y, además, 2 números adicionales entre 9 posibles. La probabilidad de que salga uno de los números de esos 50 es de 1 entre 50, matemáticamente 1/50. Y la de que salga un número estrella es de 1 entre 9, es decir, 1/9. Teniendo en cuenta que para que se den todas las circunstancias (que salgan nuestros números) hay que multiplicar probabilidades (sumar implicaría que salga cualquiera de ellos, pero no todos), tenemos:

1/50 * 1/49 * 1/48 * 1/47 * 1/46 * 1/9 * 1/8 = 5,46 * 10^-11

Aproximadamente, he quitado el chorro de decimales que hay tras el 5. Como al salir una bola no se vuelve a introducir, el número de bolas del bombo pasa de 50 a 49, a 48, a 47 y así según van saliendo bolas, de ahí esa diferencia que véis en los denominadores. Bueno, eso lo que nos dice es que si jugamos un número durante 100.000.000.000 veces (cien mil millones de veces), nos va a tocar el premio gordo 5 veces (no medio toca el gordo, por eso ignoro la parte decimal). O lo que es lo mismo: si jugamos un número durante 18.306.086.400 veces (casi veinte mil millones de veces) nos tocará el gordo una vez. Así que ya sabéis que no os va a tocar, hahah... ¿o sí? La realidad, la cruda y cruel realidad, nos dice que en el plazo que va de una semana a 3-4 semanas, el gordo toca. Y no sólo eso, no es raro que el gordo haya tocado a dos personas (generalmente a ningún conocido al que podamos sablear). ¡¿Pero cómo es posible?! fácil: juegan del orden de 200.000.000 europeos, lo que reduce la probabilidad de que el gordo toque a 1 de cada 90, aproximadamente. Cuando el bote va ascendiendo, el número de jugadores aumenta, lo que aumenta aún más la probabilidad de que el gordo acabe tocando. O lo que es lo mismo: la probabilidad de que toque el gordo del euromillón cuando el tiempo tiende a infinito es del 100% y que cuantos más participantes haya, menos tiempo transcurrirá hasta que toque. Que sea a alguno de nosotros o algún familiar es otro cantar.

Y bién, ¿cuál es la relación entre ésto con lo que supuestamente va la entrada de éste blog? pues simplemente que si algo tiene una probabilidad entre dieciocho mil, pese a ser prácticamente imposible, no tiene una probabilidad del 0% y por tanto puede ocurrir. Todas y cada una de las cosas más extrañas e increíbles que podamos ver en la naturaleza tienen posibilidad real de ocurrir si somos conscientes del tiempo que ha transcurrido desde la aparición del planeta. Incluso el fenómeno más extravagante que se nos pueda ocurrir, como la vida (aqui, aqui, aqui, aqui y aqui).

Así que si una cosa que ocurre una vez casi veinte mil millones acaba pasando en el plazo de unos pocos días, ¿qué nos hace pensar que algo no pueda ocurrir en la naturaleza con 4.800.000.000 años a sus espaldas?. Es más, de hecho ese algo que alguno piensa haya ocurrido, pero si no ha llegado a nuestros días es porque, simplemente, ha palmado en el camino. O quizás aún no ha aparecido, lo que no quita que pueda hacerlo mañana, dentro de 100 años o dentro de 2.000.000.000 años.

domingo, 21 de marzo de 2010

Reflexión sobre la radiación


Ésta mañana leí una noticia donde se decía que Japón construiría 10 centrales nucleares más para el año 2030 y me acordé del sarpullido que le sale a mucha gente cuando escucha o lee la palabra radiación.

Seguro que el 95% del público general, en cuanto escuchan o leen radiación, lo asocian instantáneamente a las centrales nucleares que, a su vez, son asociadas a la bomba atómica por una gran parte de ese 95%. En sentido estricto, la radiación no es más que un flujo de energía en el espacio, bien en forma de ondas electromagnéticas o bien en forma de partículas subatómicas. Ya de entrada, la electromagnética da su juego. Si buscáis una imagen del espectro electromagnético veréis cosas muy curiosas, casi tanto como más de una reacción. Por ejemplo las ondas de radio (o radiación radio, para acojonar más) son uno de los tipos de radiación y nadie dice nada. Bueno, igual cuando Zapatero o Pepiño dicen algo por la radio se maldice un poco y tal, pero sin alarmas ni preocupaciones. Sin embargo, dependiendo de cuánto ruido se haga, puede acojonar más: las antenas de telefonía móvil tan temidas y que más adelante sacaré nuevamente a colación, también son ondas de radio como las de la COPE, RNE, EuropaFM, los 40 principales o cualquiera de las emisoras que millones de personas escuchan cada día.

Las ondas de radio son las menos energéticas de todo el espectro. Si subimos un peldaño energético vemos que hay otra radiación acojonante: las microondas. No acojonan porque nos calientan la comida. A Bender no le hace ni pizca de gracia, pero es otra radiación muy utilizada en las telecomunicaciones y nadie se asusta pese a ser una radiación. Una radiación más energética (ergo, dañina) que las anteriores es la radiación infrarroja: ¿qué cara pondría una persona a la que se le avisa de que el aparato X emite radiación infrarroja? supongo que más o menos la misma que he visto cuando en su momento puse un cartelito en un recipiente con el nombre de ácido acético (actitud de respeto... ¡que es un ácido!). Pero no hay que ser cabrón, así que a ésta radiación la vamos a llamar... calor. Los seres humanos, y todos los organismos homeotermos somos auténticas bombas de radiación infrarroja. Otra radiación acojonante es la radiación visible, que bueno, después de todo no es tan acojonante porque la podemos ver. Tanto la radiación infrarroja, bueno, calor, como la radiación visible o los rayos UV-A (los del bronceado), son mucho más energéticas que las famosas antenas de telefonía, sin embargo éstas últimas son las que se llevan toda la prensa. Además de todas éstas, tenemos ultravioletas (A, B y C), rayos X y rayos Gamma.

La radiación en forma de partículas subatómicas tiene menos chicha ya que sólo están aqui los núcleos de Helio (radiación alfa) y los electrones (radiación beta).

Ahora viene otra cosa graciosa: el 87% de la radiación que reciben las personas es radiación natural, donde el radon se lleva la palma con el 47%. El 13% restante es de origen humano. De ese 13%, el 12% se recibe a través de tratamientos médicos varios (ya sea por exposición a rayos X, chute de yodo 131, etc). Y sólo el 1%, entre pitos y flautas, se debe a la radiación "industrial", de las centrales nucleares. Éstos son los datos generales, lo que hay. A partir de aqui cualquier iluminado puede empezar a usar la estadística para acojonar al personal: ¡el X% de la radiación que más aumenta es la Y!, siendo X un porcentaje aleatorio, siempre de valor absoluto considerable, e Y es la energía a atacar. Y dañinas a algún nivel lo son la mayoría de ellas (el resto con lagunas), pero no sé por qué hay personas obsesionadas con cosas concretas dándole más importancia de la que realmente tienen. El efecto del radón en el cáncer de pulmón de mineros que trabajan en explotaciones de uranio es un efecto bien conocido, o el de las mujeres usaban pintura fluorescente con radón en sus trabajos, ¿y dónde están las alertas por radón? ¿eh?

En la radiación terrestre hay implicados elementos que, dichos fuera de su contexto, podrían llegar a acojonar: potasio 40, carbono 14, radon 226, rubidio 87, tritio, uranio 238 o el torio 232. Todo ello desde la formación del universo (y de éste planeta en particular). De hecho, si tenéis acceso a un contador Geiger y apuntáis a vuestro amigo (o alguien que no os caiga bien si lo queréis asustar) y empezar a escuchar el grrrgrgrgrgrg del conteo. El cuerpo humano contiene alrededor de 10.000 Bq (Becquerel. 1Bq = 1 desintegración por segundo). Son radioisótopos que se encuentran en minerales (de los que se extraen materiales para la construcción, por ejemplo) y también en los seres vivos (parte de los cuales usamos de alimento).

Vivimos rodeados de radiación. Y no sólo eso: la vida ha evolucionado en un universo radiactivo.

Como véis, hay un mundo de radiación más allá de las centrales nucleares. Centrales nucleares que, dicho sea de paso, son muy seguras; aunque los pocos accidentes que se han dado (dividid por el número de centrales existentes y veréis la "accidentalidad" tan irrisoria) han tenido mucha publicidad, estableciendo el acojone en el ciudadano. Supongo que cuando el AVE tenga un accidente a 300km/h la gente hasta se acojonará del AVE, qué le vamos a hacer, la gente es así de influenciable. Pongo como ejemplo el AVE como algo gráfico de muy poca siniestralidad (de momento no hubo accidentes, toquemos madera) pero que podría tener una gran mortalidad si se diera. Cualquiera de vosotros podría poner otro ejemplo similar con cosas cotidianas. Cosas cotidianas que utilizamos sin mayor problema bien porque nos hace falta o bien por placer. Así que, si se quiere mantener un nivel de vida determinado, hay que tirar por ahora de la energía nuclear (si, la que es el 1% de lo que recibimos) hasta que llegue la fusión.

El que no esté de acuerdo, que sea consecuente y se instale paneles solares en su casa para ser energéticamente autosuficientes y vaya a buscar el agua a un rio, y la potabilice -que se puede- de modo no industrial (lo digo porque para llevar el agua a casa y potabilizarla se usan aparatos que requieren de electricidad). De no ser así, veremos con frecuencia (ya se ve, pero bueno) contradicciones tan curiosas como ecologistas protestando contra el uso de combustibles fósiles que van en lanchas de gasolina, o van a sus macroquedadas para reventar actos en automóviles de gasolina/gasóil o, como Al Gore, incluso en avión.

Y a colación de Gore: ¿realmente es una central nuclear tan ecologista? "sí, emite vapor de agua"... ¿pero si te digo que el vapor de agua es el responsable de la inmensa mayoría del efecto invernadero?. Seguro que más de uno se ha echado las manos de la cabeza, mal dolor le de al del gorrocóptero, ¡hoy me ha dicho que vivimos en un mundo radiactivo donde la radiación de las centrales es calderilla y encima que el vapor de agua causa efecto invernadero!


P.D.- Otro día te contaré que emites gases tan dañinos como el archiconocido CO2 o el archiignorado CH4.

Enlaces curiosos:


.