cover

Prólogo

Como peces en el agua

La astronomía, como ciencia, aparece sin duda por la tendencia innata de los seres humanos a mirar al cielo; sobre todo, de noche. Porque durante las horas de luz diurna, al margen de las actividades ligadas a la mera supervivencia, mirar al cielo suponía, antes y ahora, observar los meteoros: desde el cielo despejado hasta la lluvia, las nubes, los rayos, el arcoíris... Y es probable que eso generara otra rama de la ciencia, que hoy llamamos meteorología.

La pregunta básica podría ser, en ambos casos, por qué nos gusta mirar al cielo. Y la respuesta no puede ser otra que la simple curiosidad. Que luego, con el transcurrir del tiempo, pudo dar lugar a la obtención de alguna conclusión, primero puramente observacional y después quizá aplicable a algún fin práctico como, por ejemplo, medir el tiempo que pasa y, quizá simultáneamente, observar el tiempo que hace para aplicarlo a la mejora de alguna actividad de supervivencia.

Por eso es más que probable que las palabras con las que designamos hoy al tiempo cronométrico y al tiempo atmosférico sean similares, al menos en castellano; y también en francés y en italiano, pero no en los idiomas sajones, muy alejados del Mediterráneo.

Los hombres de hace milenios seguramente atribuían a determinados poderes sobrehumanos la causa de aquellos poderosos y al tiempo lejanos fenómenos: el Sol que sale por un lado del horizonte, se pone por el lado opuesto y vuelve a salir por el mismo del día anterior, la Luna que crece y mengua de forma regular, las tormentas que tanto daño pueden hacer de forma aparentemente caprichosa, la nieve, los truenos, el calor extremo, los diversos vientos, la lluvia amiga o enemiga...

Los primeros filósofos, probablemente mesopotámicos, imitados y mejorados por los posteriores pensadores griegos, egipcios, chinos y de otras civilizaciones incipientes, quizá supieron razonar en torno a esos poderes y la forma en que los humanos podrían conjurarlos para que no nos dañaran más de lo debido. Hoy los llamamos filósofos porque, sin duda, pensaban ordenadamente y buscaban comprensión en lo que observaban, pero seguramente ocupaban en sus respectivas sociedades puestos similares a los que hoy ocupan los sacerdotes, por un lado, y los científicos, por otro. En aquellas primeras civilizaciones ambas actividades seguramente confluían en unas pocas personas dotadas de una potencia intelectual quizá superior al resto y que aunaban la actividad de un sacerdote aplacador de dioses, un astrólogo adivino del futuro, un astrónomo observador del cielo y un meteorólogo consultor de actividades agrícolas y pesqueras.

Esos filósofos-sacerdotes-sabios de los que hablamos, y quizá también algunos de sus escasos seguidores, fueron sin duda la excepción en sociedades en las que primaba la mera supervivencia, lo que inevitablemente incluía innumerables batallas por el poder y el dominio de tierras y personas. En realidad, si bien se piensa eso mismo ha venido ocurriendo desde entonces. Aunque la revolución industrial introdujo algunos matices de consideración; entre otras consecuencias sociales, quizá una de las más trascendentales debió de ser la separación entre los poderes místicos y los poderes científicos de la mente humana. El famoso deus ex máchina explica muchas cosas...

En todo caso, y hasta no hace mucho tiempo, la inmensa mayoría de las sociedades han creído a ciegas, sin cuestionarlo, que el mundo estaba gobernado por la voluntad caprichosa de unos seres superiores, diferentes para cada civilización pero siempre suprahumanos. Y cuando algunos racionalistas antiguos, y no tan antiguos, intentaron conciliar las creencias de su época con los dictados de la razón, su éxito fue siempre como mínimo proceloso. Y más de uno arriesgó la vida por oponerse a las ideas dominantes: Sócrates hace 23 siglos, Hipatia hace 16 siglos o Giordano Bruno hace sólo cuatro siglos y pico, son tres ejemplos bien significativos de esa permanente intolerancia sociorreligiosa, que sólo admite y predica lo que la autoridad decide que se debe creer y hacer. La razón humana no juega papel alguno en ese esquema.

Costó mucho trabajo —en la Grecia de Pericles, en la Alejandría del Patriarcado del copto Teófilo, en el Renacimiento europeo del siglo XVI— que la racionalidad y la creencia intentaran ser separadas para recorrer caminos distintos. La ortodoxia de unas u otras creencias las confundía en un todo indisoluble, aunque no fuera siempre aceptado por las mentes más divergentes.

Hoy la ciencia se guía por una metodología racional, exigente y crítica que sólo tiene en cuenta aquello que se puede observar, deducir, experimentar y demostrar, dentro de márgenes de error cuya existencia se asume y que se condensa en una frase escéptica pero bastante clarificadora: la verdad científica sólo lo es mientras no se demuestre lo contrario.

Desde luego, las creencias forman parte de la libertad del individuo para darle un determinado sentido al mundo y a su propia vida, suponiendo que el mundo y la vida tengan que tener sentido... Pero resulta absurdo enfrentar unas u otras creencias entre sí so pretexto de que cada una de ellas cree poseer la verdad absoluta. Y aún menos sentido tiene enfrentar la creencia con el conocimiento que hemos ido acumulando y que nos ha ido desvelando no pocas leyes naturales, sencillas y elegantes, o bien complejas y difíciles de explicar, que consiguen dar respuesta a muchas incógnitas. Leyes que, además, permiten hacer predicciones que funcionan con las que obtener aplicaciones prácticas generadoras de una poderosa y compleja cultura instrumental: herramientas, máquinas, utensilios, industrias, artes y técnicas de todo tipo...

Nuestra vida se ha ido haciendo con todo ello cada vez más fácil y cómoda, y al mismo tiempo más larga. El conocimiento racional de las cosas permite, en suma, incrementar nuestra cantidad y nuestra calidad de vida. Lo hemos ido aplicando a todos los campos del saber y también, como es lógico, al que aquí más importa, el relacionado con la atmósfera y su comportamiento.

Lástima que con el moderno asunto del cambio climático pareciera como si, en el seno mismo de la ciencia más racional y exigente, hubiera estallado una especie de epidemia de pasión pseudorreligiosa, bastante más fundamentalista de lo que pudiera parecer a primera vista. Hasta el punto de que, en un espectáculo poco reconfortante, vemos casi a diario a científicos eminentes llamar herejes a otros colegas suyos igualmente respetables, que a su vez les devuelven la gentileza acusándoles de dogmáticos, e incluso de hacer trampas en su quehacer. En los extremos de esas actitudes medran personajes con muy escaso o nulo bagaje científico, pero que consiguen exacerbar el debate de la manera más absurda e irracional posible. Incluidos eminentes políticos en activo o ya retirados, sobre todo en el ancho mundo estadounidense.

Pero es que todo esto ocurre en el planeta imperfecto de los humanos, que cuenta hoy con más de 7.000 millones de individuos pensantes y casi nunca suficientemente bien informados acerca de lo que ocurre en ese mundo que habitan y en el que encuentran sustento. Un mundo de seres autodenominados inteligentes, condenados a vivir fuera del seno materno del agua que alumbró las primeras formas de vida y que sigue marcando su predominio sobre todos los seres vivos. Los humanos, animales y plantas que hoy medramos sobre tierra firme, pero sumergidos en el aire como los peces lo están en el agua, no podemos evitar ser sujetos pasivos de todo aquello que ocurre o deja de ocurrir en el aire, porque a la larga acaba por afectarnos, directa o indirectamente.

De todo ello trata este libro: del aire, de los hombres, de su relación mutua, de los problemas que plantea esa forzada convivencia... y de lo que se nos viene encima, ahora que el número de humanos crece desaforadamente.

La meteorología es hoy una ciencia más que compleja, pero podemos olvidar que hace no tanto tiempo era poco más que un conglomerado de creencias y saberes más bien poco racionales, todo ello adobado por unos elementos populares y tradicionales como mínimo discutibles. Aunque conviene añadir que, incluso en los albores de la humanidad inteligente, es seguro que el devenir del tiempo atmosférico revistió una importancia esencial para los desplazamientos, para la obtención de alimentos mediante la recolección, el cultivo o la caza y la pesca, para el acomodo más o menos confortable de su vida cotidiana... Quizá por ello las primeras civilizaciones hicieron del conocimiento del tiempo una actividad suprema, de carácter divino.

Los progresos de la mente humana en este campo no fueron homogéneos en los siglos siguientes, pero podemos identificar algunas etapas más o menos cruciales en esa larguísima prehistoria meteorológica, hasta acabar desembocando, ya en el siglo XIX, en una ciencia a parte entera.

En el largo combate entre las creencias y la racionalidad, que se inició hace milenios y que quizá aún no haya concluido del todo en la actualidad, parece obvio que aquéllas solían ganar por goleada. Pero con el Renacimiento comenzó a vislumbrarse una nueva época para la batalla en pro de la racionalidad, gracias a la mente preclara de algunos pensadores como Giordano Bruno, Copérnico y, sobre todo, Galileo. Aprendimos a medir instrumentalmente variables que se creían hasta entonces sujetas a la caprichosa voluntad de los dioses, y con ellas pudimos iniciar el estudio de unas leyes naturales que sin duda se regían por sistemas en los que los dioses no tenían por qué intervenir. Sencillamente, ya no eran necesarios.

El progreso de las ciencias naturales —la física, la química, la biología...— contribuyó a una acelerada comprensión de todo tipo de fenómenos que tienen lugar en el aire, en los mares o en tierra firme, incluyendo la relación de los seres vivos con su entorno que hoy llamamos ecología. Entre esas ciencias de la naturaleza, las que estudiaban la atmósfera y sus veleidades también pudieron beneficiarse de la cada vez mejor y más completa comprensión de las leyes físicas y químicas que rigen el funcionamiento del planeta y su envoltura gaseosa. Todo ello sustentado en la creciente complejidad de la herramienta matemática que le da soporte y capacidad analítica y predictiva al conocimiento aportado directamente por los experimentos y medido por instrumentos cada vez más complejos y precisos. Lo que generaba, en paralelo, un progreso tecnológico acelerado derivado de lo que hoy conocemos como revolución industrial.

Hoy, la meteorología y su prima hermana geográfica, la climatología, se han convertido en un compendio de saberes cada vez más precisos y eficientes a la hora de estudiar el comportamiento de la atmósfera y elaborar predicciones útiles relacionadas con la evolución de unos u otros fenómenos. Con inmensas limitaciones, que tampoco conviene olvidar, a la hora de predecir lo que ocurrirá con los climas dentro de muchos decenios, digan lo que digan los profetas de un futuro infierno de veranos carbónicos interminables.

Entre la Antigüedad clásica y los problemas actuales en torno al cambio climático hemos progresado de forma casi inverosímil. Pero algunas tentaciones fundamentalistas son difíciles de erradicar de las mentes humanas. Incluso en algunos campos de la ciencia tan objetivables como la atmósfera y su estudio.

Pero la racionalidad acabará imponiéndose, antes o después; ahora lo tenemos bastante más fácil que, por ejemplo, en la Edad Media. Pero sin olvidar que el mundo de hoy contiene más de 7.000 millones de humanos. Todos deberíamos tener idénticas posibilidades de acceso a esa calidad y cantidad de vida que antes citábamos, lo que obviamente no ocurre. Porque algunos vivimos muy por encima de nuestras posibilidades mientras otros se mueren literalmente de hambre. Y esa tragedia es infinitamente más dramática que todos los cambios de clima que uno quiera imaginar; por mucho que algunos personajes tan mediáticos como multimillonarios se empeñen en proclamar que el cambio climático es la peor amenaza de la humanidad.

Sólo podemos consignar aquí, antes de empezar a repasar lo que el tiempo y el clima nos deparan, nuestra consternación por semejante muestra de insensibilidad y por la ausencia de la más mínima generosidad humana de quienes proclaman afirmaciones semejantes.

MANUEL TOHARIA

Valencia, enero de 2013

1

Antes de ser ciencia...

1.1. La Antigüedad clásica

Podemos comenzar nuestra historia en el momento en que el Homo sapiens sapiens prehistórico intentaba mal que bien sobrevivir en medio de los últimos coletazos de las prolongadas glaciaciones del Cuaternario. Nos estamos refiriendo, pues, a una época muy posterior a la desaparición hace unos 30.000 años, por causas aún inexplicadas, de los neandertales. Es probable que aquellas personas primitivas, los cromañones, sobrevivieran a sus primos hermanos, más rudos pero quizá menos «listos», los neandertales, aunque ambos eran ya inteligentes como nosotros. Eso sí, carecían de los muchos conocimientos previos que nosotros ahora atesoramos gracias a nuestros antepasados en las diversas actividades humanas, tanto artístico-literarias como científico-tecnológicas.

Para los humanos primitivos, el tiempo atmosférico debía suponer una variable esencial en sus vidas. Básicamente por los problemas que podía plantearles para su supervivencia el clima predominantemente frío e inhóspito, responsable de una obvia dificultad para abrigarse y alimentarse. La vida en las cuevas no debió ser precisamente agradable, pero las inclemencias meteorológicas no daban para mucho más.

Seguro que aquello no les impedía observar con atención los cambios atmosféricos, las nubes, los vientos, las precipitaciones, los cambios de estación, incluso el devenir de los astros nocturnos, de la Luna, del Sol... Pero todo aquello debió parecerles tan absolutamente fuera de su control que sin duda le atribuyeran un carácter divino: se trataba de poderes incontrolables y absolutamente fuera del alcance de la fuerza o el saber de los seres humanos. De hecho, todavía lo son hoy...

Por tanto, es normal que tomaran los aconteceres negativos del tiempo como mensajes o como castigos de los seres superiores que tenían que dominar aquellos elementos. Porque los humanos inteligentes, incluso cavernícolas, comprendían bien que todo efecto tiene una causa; y como la causa del frío, las tormentas o los vendavales escapaban ampliamente a su comprensión, parecía lógico atribuirla a seres superiores desconocidos. Con los que, en buena lógica, habría que contar para sobrevivir...

Cuando finalizó, bastante bruscamente, el coletazo final de la última glaciación, hace de unos 11.000 a 10.000 años según los sitios, llegó el Holoceno, el período geológico actual que goza de temperaturas mucho más benignas que las que hubo durante decenas de miles de años antes. El hombre sale de las cuevas y comienza a adaptarse con mucha mejor fortuna a un clima más favorable para actividades que antes parecían imposibles. La agricultura, la pesca, la ganadería sin ir más lejos. Para esas nuevas actividades humanas la observación de los fenómenos atmosféricos era aún más crucial que antes, si querían mantener e incluso mejorar el nuevo estatus de vida que iban adquiriendo. Un modo de vivir que mejoraba notablemente el anteriormente vigente, en la época cavernícola glacial.

Es más que probable que en esa época final de la Prehistoria que podríamos situar a mediados del Holoceno, pongamos que hace unos cinco o seis milenios, los humanos necesitaran considerar de forma primordial los distintos factores meteorológicos —lluvia, temperatura, períodos largos o no de sequía, riesgo de inundaciones, frecuencia de heladas...— por su trascendencia a la hora de obtener alimentos en cantidad y variedad creciente gracias a los distintos cultivos que comenzaron a dominar, y también para localizar emplazamientos cada vez más seguros y confortables a la hora de establecer su residencia.

Observar el cielo, las nubes, las estrellas, el viento y muchas otras variables es hoy tarea casi imposible: las luces de las ciudades, las diversiones diurnas y nocturnas y, en suma, todo lo que nos ofrece la vida moderna para ocuparnos o distraernos impide que nos acordemos siquiera de mirar hacia arriba. Es cierto que, a veces, los periódicos nos cuentan que tal o cual noche habrá una determinada lluvia de estrellas; casi nadie las verá, al margen, dicho sea de paso, de que casi nadie sepa que ni hay tal lluvia ni se trata de estrellas. Aunque eso no parece importarle mucho a casi nadie...

Hoy, por seguir con temas anecdóticos, de la temperatura lo único que sabe la mayoría de la población es lo que indican unos termómetros, por llamarles de algún modo, expuestos a pleno sol en la vía pública, que en pleno verano pueden sobrepasar temperaturas propias de un horno de pan. Temperaturas del propio aparato sometido a los rigores solares, que nada tienen que ver con la temperatura del aire...

Pero en aquellas épocas remotas —y mucho después también, por lo menos hasta bien entrado el siglo XIX—, quizá una de las pocas diversiones que pudieron tener los seres humanos, sobre todo en las noches de tiempo benigno, fuera la observación de lo que ocurría en el cielo. Y, por supuesto, la invención y transmisión de toda clase de historias, mitos, leyendas y demás productos de la imaginación humana en torno a todo aquello que desfilaba en la bóveda celeste, en el aire, en el suelo... Todo ello tan lejano como ajeno al limitado control que pudieran ejercer los seres humanos sobre ellos.

La potencia destructiva de los elementos atmosféricos y la muy escasa fortaleza humana para resistir algunas de sus peores manifestaciones explica la facilidad con la que se les atribuyó atributos divinos, es decir, sobrehumanos. Júpiter, divinidad suprema de los romanos como Zeus lo había sido de los griegos, era el dios de los rayos y truenos, Jehová se aparece ante Moisés en medio de una tormenta de arena y rodeado de relámpagos, Ra era el dios Sol de los egipcios, Thor el dios escandinavo de las tormentas, y así sucesivamente...

Pero eso no impidió que los humanos más observadores y racionales elaboraran algún catálogo de regularidades que, poco a poco, fueron acumulándose en forma de saberes, primitivos pero sensatos, en cuestiones geográficas, geológicas, astronómicas, incluso matemáticas... De tal modo que, aun sin instrumentos ni formas de registrar y almacenar datos en cuantía suficiente, sin duda pudieron determinar los mejores lugares y las mejores épocas para cultivar, pescar, cazar; para vivir, en suma.

La que quizá fuera la primera cultura civilizada del Holoceno, la babilónica —se suele aceptar que el Neolítico se inició precisamente en Mesopotamia, hace unos 8.000 años—, parece que atribuyó muy pronto a los astros y su danza inmutable en la bóveda celeste la responsabilidad de todo lo que ocurría aquí abajo, incluidos, por supuesto, los elementos meteorológicos.

Desde varios milenios antes de Cristo en aquella región se tiene constancia de la creencia en un dios supremo, Anu, padre de todos los dioses y de los fenómenos celestes. Enki era el dios de la tierra y la agricultura, Utu el dios de la Luna, Enlil el dios del viento... Con Hammurabi, emperador de Babilonia en el siglo XVII a.C., el dios principal fue Marduk, y en él se inspiró la mitología griega un milenio más tarde para crear su dios supremo, Zeus.

Los sabios mesopotámicos, tanto en la antigua Sumeria como luego en Babilonia, habían personificado en dioses de forma similar a los humanos pero dotados de poderes sobrehumanos, a las fuerzas de la naturaleza que no controlaban, lo que no les impedía encontrar ciertas ventajas en la observación de lo que ocurría y en su posterior aplicación a la vida práctica. Quizá por ello desde ocho siglos antes de Cristo los más sabios ya eran capaces de predecir eclipses, establecer calendarios lunares bastante precisos y calcular con exactitud en los sistemas decimal y sexagesimal. Aunque al mismo tiempo se erigían en augures mágicos del destino —mediatizado por dioses inspiradores y no poco caprichosos— de reyes y emperadores.

¿Cómo lo hacían? Sin duda, supieron conjugar sus observaciones racionales con la interpretación arbitraria —y muy rentable para ellos— de esos mismos elementos naturales. Y así, por ejemplo, la astrología se basaba en las realidades astronómicas observadas, pero luego era utilizada, abusivamente, para predecir el destino de batallas y reinos. O bien la predicción de cosechas y de fenómenos meteorológicos adversos, incluidas las crecidas de los ríos, que aunque se basaba en la observación sistemática de los ciclos estacionales, le era luego atribuida a ciertas deidades propicias o maléficas.

Uno de los testimonios escritos más antiguos es el que aparece en la famosa tablilla del planeta Venus de Ammi-Saduqa, que apareció en las ruinas de Nínive y fue escrita en el siglo VII a.C. La tablilla recoge datos mucho más antiguos, y sumamente precisos, acerca de la observación del planeta Venus durante un período ininterrumpido de veintiún años... ¡en el siglo XVII a.C! Precisamente bajo el reinado de Ammi-Saduqa (1646-1626 a.C.), que fue el décimo rey de la Primera Dinastía de Babilonia, y cuarto descendiente del famoso Hammurabi. Aquello ocurrió, pues, hace 3.700 años...

Uno de aquellos augurios de la tablilla, a la vez astronómicos y meteorológicos, dice textualmente: «Si el 15 Sabatu desaparece por el oeste, permaneciendo invisible tres días, y el 18 Sabatu aparece por el este, catástrofes para los reyes; Adad traerá lluvias y Ea aguas subterráneas». No sólo se deduce que los autores de aquellos textos conocían al lucero vespertino y matutino como un único cuerpo celeste —Sabatu, o sea Venus, es un solo planeta, no dos como se pensó en épocas posteriores—, sino que además relacionaban ese cambio de aparición del planeta en el orto o en el ocaso del día con eventuales aconteceres meteorológicos (lluvias, inundaciones...). Lo cual resulta más que discutible a la luz de lo que hoy sabemos, aunque seguramente se basaría en la observación año tras año de la ocurrencia casual de algunos de esos fenómenos.

En otras latitudes, probablemente más tarde que en Mesopotamia, también se atribuyeron condiciones divinas a los fenómenos de la atmósfera. Basta recordar en la mitología escandinava al dios supremo Thor, dios del trueno y el rayo —la misma idea que el Zeus griego, o el Júpiter Tonante latino—, o al dios Frey como dueño de la lluvia y la luz. Para los incas, Humanchuri era el dios de las tormentas, para los mayas Chac era la diosa de la lluvia y Huracán el dios del viento y fundador del Cosmos. Y si para los egipcios Amón-Ra era el dios Sol, Sati era la diosa del cielo, el viento y los relámpagos.

Y así sucesivamente...

En la América precolombina hay constancia de conductas muy antiguas que relacionaban las actividades humanas, sobre todo agrícolas, con los astros y las condiciones atmosféricas. Incluso hoy día, algunos pueblos indígenas del altiplano andino siembran más o menos pronto en función del aspecto de ciertas constelaciones, como las Pléyades de la constelación de Tauro, durante el inicio del verano, intuyendo la existencia de una correlación entre la apariencia de esas peculiares estrellas y la llegada o no de lluvias abundantes. En realidad, el aspecto más o menos brillante de las estrellas en esos lugares depende de los flujos de viento —seco o húmedo, más frío o más templado— que determinan una mejor o peor transparencia del aire. Quizá eso tenga cierta influencia en el régimen de lluvias posterior...

En todo caso los griegos fueron seguramente los primeros en la historia de la humanidad que intentaron racionalizar el asunto del tiempo y sus caprichos, apartando a las musas y a los dioses del análisis de la realidad. La doctrina de los cuatro elementos de la naturaleza —aire, agua, fuego y tierra—, aun siendo errónea a la luz de lo que hoy sabemos, tuvo al menos la virtud de atribuir la realidad natural a una combinación entre esos cuatros componentes de la realidad observable, combinación en la que los dioses no tenían ya cabida alguna.

Cabe suponer que los más inteligentes —hoy diríamos escépticos— de los babilónicos también tendrían sus dudas acerca de la inconsistencia de aquel sistema de dioses caprichosos que jugaban con el destino de los humanos y con los elementos de la naturaleza, pero no ha quedado constancia de ello. En cambio la Grecia antigua sí fue fértil en ese tipo de discusiones, aunque siempre se trató de movimientos minoritarios. Una polémica que no volvería hasta dos milenios después, al final de la Edad Media, en la época de Copérnico y, luego, de Galileo...

En cualquier caso, siete u ocho siglos antes de Cristo los griegos fueron recibiendo buena parte del bagaje cultural que iba dejando el todopoderoso imperio babilónico en descomposición. Esa transmisión se hizo a través de la costa mediterránea de la Turquía actual, en las costas jónica y anatólica, a través de ciudades famosas como Troya, Mileto, Éfeso, Pérgamo, Colofón, y también en las islas próximas de Rodas, Cos, Samos, Quíos...

En aquella época, las ideas religiosas fueron plasmadas en lo que hoy conocemos como Mitología gracias a los escritos y ensayos de Hesíodo y la popularización que hicieron de ellos las narraciones de Homero. No se conoce la fecha de nacimiento y fallecimiento de ambos autores, pero los historiadores están de acuerdo en que vivieron durante el siglo VIII a.C. Ellos dejaron bien claro, aunque fuera de un modo mucho más poético e imaginativo que realista y creíble, que los dioses manejaban la naturaleza a su libre albedrío, obedeciendo a designios y caprichos perfectamente humanos, pero desde una atalaya divina que les dotaba de poderes sobrenaturales y, principalmente, de la aparentemente mayor virtud deseada por los humanos: la inmortalidad. Muy imaginativo todo, sí; excepto que desde el punto de vista geográfico no hubo necesidad de inventar mucho. Los dioses residían en lo alto de la montaña griega más alta y segunda cumbre de los Balcanes, el monte Olimpo, a 2.917 metros de altitud.

En esa tesitura, los pobres mortales sólo podían resignarse a afrontar las consecuencias de los designios divinos, combatiéndolos eventualmente aun a riesgo de llevar siempre las de perder, salvo que algún dios se apiadara de algún humano en particular —si era humana y guapa, y el dios masculino, bastardo al canto—, o entrara en conflicto con algún otro dios —y en la divina batalla los mortales siempre acababan teniendo más problemas que antes—. En suma, real como la vida misma...

Las Musas eran las encargadas de inspirar en los mortales conductas adaptativas o defensivas que podían, o no, hacerles la vida algo más pasadera. Y eran ellas las que daban consejos prácticos a los elegidos, naturalmente de inspiración divina; mucho más tarde, los ángeles de la cristiandad jugarían un papel similar...

Así, por ejemplo, Hesíodo escribió un texto, sobre «Los trabajos y los días» que quizá fuera el primer testimonio de labores agrícolas relacionadas con el tiempo y las estrellas. Véase un ejemplo: «al surgir las Pléyades, hijas de Atlas, ha de empezar la siega. Y cuando se ocultan, la labranza».

¡Cuánta capacidad de fabulación debieron de tener aquellos escritores geniales, por mucho que se inspiraran en las tradiciones mesopotámicas! Lo cual, y esto sí que es curioso, no fue óbice para que sus ideas fueran aceptadas como dogma de fe por toda la sociedad griega de su tiempo, y luego durante muchos siglos después.

Un buen ejemplo podría ser su concepto de los dioses-vientos; nada que ver con la termodinámica, por supuesto... Los Anemoi, vientos en griego, eran dioses que se correspondían con ciertos puntos cardinales, de donde parecían proceder. Esos dioses solían estar relacionados con las distintas estaciones del año o bien con ciertos cambios anormales en el tiempo atmosférico habitual. Esos vientos-dioses eran gobernados por el dios Eolo, que residía en la región de la Eólida, al norte de la región jónica (lo que hoy es la costa oeste de la Turquía mediterránea). Los vientos beneficiosos eran libres de salir cuando quisieran, pero los perjudiciales estaban encerrados en un establo bajo custodia. Lo malo era que los demás dioses podían forzar a Eolo para que los soltara, si ello les interesaba por alguna razón no siempre generosa, y entonces hacían todo el daño que podían hasta que Eolo los capturaba de nuevo.

Los vientos benéficos, que debían esa característica al hecho de soplar con suficiente regularidad, lo que les hacía bastante predecibles, eran Noto (viento del sur que traía lluvias y tormentas al final del verano y en otoño, algo que en el Mediterráneo ocurre igualmente ahora), Bóreas (viento del norte que traía el frío invernal), Céfiro (viento suave del oeste, propio de la primavera y el verano) y Euros (viento del este, en general seco y cálido).

Los cuatro vientos perjudiciales, mucho más irregulares e impredecibles, eran obviamente más malvados; descendían de Tifón, que era una especie de monstruoso hijo de Gea (la diosa de la Tierra) y de Tártaro (el dios del infierno profundo). Se les llamaba Anemoi Thuellai (vientos de la tempestad) y se les consideraba como los equivalentes masculinos de las Arpías (Thuellai, en griego antiguo). Eran, literalmente, vientos arpíos...

Volviendo a los dioses mitológicos, todavía hoy nos sigue pareciendo asombrosa la fértil inventiva de quienes otorgaron atributos humanos, buenos y malos, a los dioses directamente relacionados con los fenómenos de la naturaleza. Incluso la plácida Aurora de rosados dedos —en inmortal descripción de Homero— era una diosa que acabó condenada al enamoramiento eterno por haberse acostado con Ares, el cruel dios de la guerra que los romanos llamaron Marte... Eran dioses, sí; pero mucho más humanos de lo que parece a primera vista. El cristianismo tomó la idea, ya que Dios hizo al hombre a imagen y semejanza suya; pero el nivel de abstracción y deshumanización de los poderes religiosos del cristianismo es muy superior al de la mitología griega. Aunque las guerras entre los ejércitos angélicos y la rebeldía de los ángeles caídos, que luego poblarían el infierno, suena mucho más natural que sobrenatural.

Algunas religiones animistas como el Shinto japonés también deifican a los elementos de la naturaleza y el paisaje, pero no los humanizan sino que aceptan su esencia divina como lo que son: viento, monte, bosque... Sin transformación, sin humanización posterior. Los sintoístas adoran a los Kami, los espíritus de la naturaleza, algunos de los cuales son muy locales —el monte por encima del pueblo, el río de al lado, el bosquecillo de más allá...—, mientras que otros son bastante más genéricos, como Amaterasu, el espíritu del Sol. Esta forma de religión incluye la veneración de los antepasados a través de la supervivencia de su huella en el paisaje que habitaron.

Volviendo a aquella incipiente civilización griega en pleno auge, cinco o seis siglos antes de Cristo, el tema de los vientos-dioses es un buen ejemplo de la asociación entre los seres sobrenaturales, los fenómenos naturales y los astros celestes. Porque la mitología asumía que todos los vientos, por el simple hecho de estar encima del suelo, debían tener el mismo origen que los astros y debían, pues, estar emparentados con ellos, como dioses que eran. Por ejemplo, Hesíodo describía en su Teogonía a los cuatro vientos buenos como hijos de Astraeo (dios de los cielos) y Eos (diosa de la aurora), que eran los padres asimismo de los cinco astra planetes (estrellas errantes) llamados Estilbo (Mercurio), Fósforo (Venus), Piroente (Marte), Fenonte (Júpiter) y Faetonte (Saturno). O sea, que los vientos y los planetas eran hermanos, dioses hermanos...

Tanta credulidad asombra, y no es de extrañar que apenas un par de siglos después de Hesíodo y Homero, algunos filósofos comenzaran a elaborar teorías bastante más racionales acerca de la naturaleza. Debía parecerles completamente superflua la necesidad de unos dioses manejando a otros dioses menores para que se manifestaran como fenómenos del aire, el suelo, las aguas y el cielo; aunque probablemente no proferían semejantes blasfemias en voz muy alta... Pero la pregunta obvia que sin duda se plantearían debía ser algo así: ¿y si ese comportamiento sólo obedece a leyes propias de la naturaleza, accesibles a la razón humana sin necesidad de apelar a la magia o a los dioses?

No era fácil entonces —nunca lo fue, tampoco ahora— sustraerse a la idea, bastante confortable después de todo, de que todo lo que nos rodea obedece a designios divinos superiores, a poderes muy por encima de los nuestros y que no tenemos por qué comprender; si acaso, adorarlos y tenerles contentos para que no nos castiguen con su poder. Pero, con todo, ¿y si las tormentas no tuvieran nada que ver con Zeus, los vientos no tuvieran nada que ver con Eolo, el oleaje no obedeciera a Poseidón...? ¿Y si todo eso ocurría por razones naturales, es decir, perfectamente comprensibles porque derivaban de leyes fijadas por el entorno natural que incluso pudieran ser bastante más sencillas de lo que se pensaba?

Jenófanes de Colofón (570-475 a.C.) fue quizá el primero en mostrar esa línea de pensamiento, destacado por su espíritu virulentamente crítico hacia Homero. En sus escritos y discursos desmontó las ideas sobrenaturales que salpicaban la obra tanto de Hesíodo como, sobre todo, del mucho más popular Homero, burlándose de la beatitud con la que impregnaban sus narraciones mostrando todo tipo de acciones caprichosas de los dioses como causa de los males de los humanos y responsables directos de los distintos mecanismos de la naturaleza. Para Homero, el héroe Odiseo (más conocido por su nombre latino, Ulises) no luchaba contra una naturaleza ocasionalmente hostil, con sus vientos, sus tormentas, sus corrientes contrarias y sus rompientes costeros, sino que en aquella odisea suya se enfrentaba nada menos que a los dioses, que se entretenían jugándole mil y una malas pasadas. Menos mal que de vez en cuando gozaba del favor de una de las divinidades más poderosas, Palas Atenea, y eso le permitía sobrevivir... Al fin y al cabo, tanto la Odisea como la Ilíada eran obras de ficción.

Pero ése no era el caso de la Teogonía de Hesíodo, que fue durante siglos como una especie de Biblia indiscutida de la mitología, y no sólo en el mundo griego sino, más tarde, también en el mundo latino.

Jenófanes criticaba duramente esa forma de ver el mundo natural; para él, lo que ocurría en el aire, la tierra o el mar no se debía al capricho de unos dioses, favorables o no, sino que podía ser estudiado y comprendido por la mente de los mortales. Bastaba observar y reflexionar para deducir la existencia de ciertas leyes naturales; o sea, no sobrenaturales.

Se puede decir que Jenófanes fue el iniciador de una escuela de pensadores griegos que tuvo su continuidad más tarde en la ciudad de Elea (hoy Velia), en la Italia peninsular. Los máximos exponentes de esa escuela eleática fueron Parménides (530-470 a.C.) y su discípulo Zenón (490-430 a.C.), quienes postulaban que el Universo es inmutable e infinito, más allá del conocimiento humano, pero que ése no era el caso de los fenómenos de la naturaleza que, con la reflexión, podían ser abordados sin necesidad de apelar al concurso de los dioses. Más o menos lo mismo que le ocurrió a Laplace frente a Napoleón cuando, tras explicarle su tratado de cosmología, el emperador le dijo que allí no había mencionado para nada a Dios. Laplace repuso: Sire, je n’ai pas eu besoin de cette hypothèse-là («Señor, no he necesitado para nada esa hipótesis»). Más de dos milenios después...

Volviendo a los eleáticos, suele decirse que un joven Sócrates pudo escuchar a Parménides en uno de los frecuentes viajes que éste hacía hasta Atenas; por eso hay quien piensa que Sócrates —como luego Platón y Aristóteles— mantuvieron una línea de pensamiento que, al menos en parte, quizá arrancaba en Jenófanes. En todo caso, Parménides también pudo inspirar directamente a Platón ya que en sus escritos afirmaba que los fenómenos de la naturaleza eran sólo aparentes y se debían en esencia al error humano al observarlos: o sea, parecen existir pero no tenían existencia real. ¿Salió de ahí el mito platónico de la caverna?...

Zenón de Elea seguía la misma línea de pensamiento que su maestro, aunque era más incisivo y mucho más imaginativo. Se hizo famoso por sus paradojas, puramente lógicas, que acababan demostrando, contra toda apariencia, que las cosas no eran lo que parecían ser —por ejemplo, el movimiento— y que, por tanto, nuestros imperfectos sentidos eran los que nos engañaban. No los dioses... De ahí la necesidad, según él, de recurrir a la lógica y la reflexión como elementos de conocimiento, y no tanto a la experimentación, que consideraba engañosa por culpa de nuestros imperfectos sentidos. Hoy la ciencia reclama para sí, como virtudes esenciales, tanto a la una, la observación, como a la otra, que supone la experimentación y la posterior demostración. Pero, claro, hoy nuestros sentidos se han visto complementados, mejorados y notablemente agudizados, por una infinidad de herramientas e instrumentos imposibles de imaginar en aquellos tiempos.

Con todo, el rechazo hacia lo empírico subyace en numerosos pensadores griegos y fue seguramente el principal obstáculo para que aquellas mentes, sin duda prodigiosas para su época, pudieran alcanzar un nivel de conocimiento real superior al que adquirieron por vía casi exclusivamente teórica. Lástima, porque luego vinieron muchos siglos de oscurecimiento intelectual y de rechazo total a lo que hoy consideraríamos como «científico», simplemente por mantener algunas de las líneas de pensamiento de determinados pensadores antiguos, como Aristóteles o Claudio Ptolomeo.

En cualquier caso cabe consignar que aunque la mayor parte de sus puntos de vista sobre la naturaleza y el conjunto del Cosmos pudieran parecernos, a la luz de lo que hoy sabemos, no sólo erróneos sino incluso ingenuos, nadie podrá negar que sus autores eran ciertamente imaginativos. Y, además, tenían un indudable mérito: se fundaban en la relativa certeza de que había unas leyes naturales que explicaban las cosas, sin tener por qué hacer intervenir a la voluntad, aparentemente caprichosa, de unos seres superiores.

Es obvio que no existen los cuatro elementos naturales de Empédocles, que las enfermedades no se deben a los humores del cuerpo como creía Hipócrates, que el Universo no es matemáticamente perfecto como afirmaba Pitágoras, que los átomos no son como los imaginaba Demócrito, que el mundo no está hecho de agua, según Tales, ni de aire, según Anaxímenes...

Hoy sabemos que la naturaleza no es perfecta ni inmutable, y que las matemáticas no rigen en ella con el rigor que, según los griegos, debería hacerlo... Para los científicos de hoy, el azar y el caos parecen reinar por doquier. La mecánica cuántica en el micromundo, y la mecánica relativista y los sistemas caóticos en el macromundo, nos han dotado de sistemas de análisis racional de la realidad física que distan mucho de aquella perfección, simple y elegante, que perseguían los griegos, y que parecieron corroborar las geniales aportaciones de Galileo y Newton.

Con todo, las ideas de Jenófanes —y, antes que él, de los primeros filósofos presocráticos (Tales de Mileto, 624-547 a.C., tenía ya 44 años cuando nació Jenófanes, aunque vivió aún treinta años más)—, según las cuales es posible encontrar en la naturaleza ciertas regularidades detectables por la observación y la reflexión, sentaba en cierto modo las bases de lo que hoy llamamos método científico, y que tiene mucho que ver precisamente con observar, reflexionar, deducir, aplicar, demostrar, predecir...

Y todo ello a pesar de que, en los inicios de aquella época gloriosa de Grecia de los siglos VI a II a.C., los pensadores hubieron de enfrentarse a enormes limitaciones, sobre todo de tipo tecnológico: sin instrumentos, sin herramientas, tuvieron que valerse de lo único que supieron desarrollar, su intelecto. Y eso les llevó mucho más a la reflexión y a la lógica que a la experimentación. Quizá por eso, porque carecían de instrumentación —a lo mejor, precisamente porque no la tenían—, en cierto modo acababan menospreciando el experimento. De ahí, quizá, los errores a los que llegaron con muchas de sus hipótesis: podrían parecer elegantes, razonables, incluso creíbles... pero luego resultó que la naturaleza ni es tan elegante, ni tan razonable, ni tan matemáticamente perfecta como creían.

Eso no quita para que, durante muchos siglos después, y hoy aún quedan no pocos residuos de ello, volviéramos a sumirnos en prolongados períodos de oscuridad e ignorancia que propiciaron enormes retrocesos en la forma de pensar y actuar. Y la historia está llena de episodios de barbarie relacionados con la intransigencia humana acerca de las afirmaciones que se pueden defender o no, incluso en campos tan aparentemente neutros como el de la física, la química, la astronomía... o la meteorología.

Así, por ejemplo, nos pasamos muchos siglos en Europa negando evidencias que algunos griegos ilustres ya daban por supuestas, como que la Tierra giraba en torno al Sol, y no al revés, o bien que las tormentas o las sequías nada tenían que ver con los dioses o los santos del Paraíso sino con fenómenos atmosféricos del cielo terrenal, de enorme amplitud pero explicables desde el punto de vista termodinámico.

En todo caso, y por lo que a la ciencia del tiempo atmosférico se refiere, las ideas de los griegos acerca de la concepción del mundo, de los dioses y de las leyes que regían en la naturaleza no dejaron de lado a lo que hoy llamamos meteorología; incluso, como buenos navegantes y agricultores que eran, aportaron datos, observaciones y teorías a veces imaginativas, y en otros casos ingeniosas e incluso provechosas. Muchas de aquellas hipótesis dejaban entrever lo que hoy la ciencia moderna ha ido demostrando; otras nos parecen hoy sólo poéticas, curiosas..., pero carentes de sentido.

En ese sentido, quizá el papel crucial en esta evolución del pensamiento griego lo desempeñó la escuela de filósofos agrupados en la ciudad de Mileto, centro comercial del mundo antiguo en los siglos VI y V a.C. Ellos buscaron la sustancia permanente frente al cambio caprichoso, lo universal antes que lo particular, la esencia de las cosas frente a su mera apariencia... Este predominio del mundo físico sobre el de las ideas mítico-religiosas caracterizó a aquella escuela milesia, que sin atacar a Homero y Hesíodo con la dureza con la que lo hizo Jenófanes en Colofón, sí defendía la idea de una naturaleza cuyo comportamiento era ajeno a los dioses.

Tales (murió en el año 547 a.C., a los 77 años) fue el fundador y máximo exponente de estas ideas, y su fama fue tal que mucho después, Aristóteles (384-322 a.C.) llegó a decir que fue el primero de los filósofos... Para Tales, el agua era la «materia primordial», y para afirmarlo se basaba en el descubrimiento de fósiles de animales marinos tierra adentro, en su omnipresencia en el aire, en el suelo y en el subsuelo, y en el hecho de que es un compuesto fundamental para la nutrición y el crecimiento de cualquier ser vivo. Pero su idea no era que todo lo que existe procede del agua o sea agua, sino más bien que la verdadera y profunda sustancia de todas las cosas sí que era, en última instancia, el líquido elemento. Por cierto, también pensaba que el tiempo atmosférico tenía que ir asociado con el movimiento de las estrellas y los planetas.

Anaximandro de Mileto (610-546 a.C.) consideraba que, a partir de algo ilimitado o indeterminado llamado ápeiron —lo que no puede ser definido—, se iban produciendo los opuestos de la naturaleza, como por ejemplo lo frío y lo caliente. Los físicos modernos quizá piensen que eso se parece a lo que hoy sabemos respecto a la energía —que podríamos decir que es inmaterial—, pero que acaba pudiéndose materializar en partículas y antipartículas. Por ejemplo, un fotón —inmaterial, es decir, en palabras de Anaximandro, ilimitado e indeterminado (¿?)— se materializa en un positrón y un electrón, que son partículas opuestas. Y la proporción entre masa y energía, que son la misma cosa, es el cuadrado de la velocidad de la luz...

Pero sería abusivo pensar que Anaximandro anticipaba estas cosas, por supuesto. Eso sí, fue el primero en definir el viento como aire en movimiento, aunque no le otorgaba importancia alguna como sustancia esencial. Además fue un pionero de la geografía: elaboró mapas de todo tipo y realizó diversos cálculos sobre equinoccios, solsticios y estaciones del año.

Su discípulo Hecateo de Mileto (550-476 a.C.) perfeccionó los mapas y datos de su maestro, y describió los pueblos y paisajes de casi todo el Mediterráneo, citando en cada caso los elementos atmosféricos más característicos de su clima. Quizá fue el primer climatólogo descriptivo de la historia.

Otro filósofo milesio, Anaxímenes (585-524 a.C.), consideraba que la materia primordial era sin duda el aire, un principio neutral como el ápeiron de Anaximandro, pero con la ventaja indudable de que sus propiedades se pueden estudiar y definir. De hecho, el filósofo describía cómo a partir del aire se origina lo cálido —es decir el fuego— por «rarificación», y lo frío —el viento, las nubes, el agua, la tierra, las rocas y montañas...— por «condensación».

Por su parte, Heráclito de Éfeso (535-484 a.C.) hizo del fuego el centro de todo lo natural. Ni aire ni agua... Para él todo lo vivo y lo inmutable se compone de un sustrato material basado en el fuego, una de cuyas manifestaciones visibles era el calor. Alguna de sus frases define bien su pensamiento: «El mundo no fue creado por dios ni hombre alguno sino que fue, es y será fuego eternamente vivo que se enciende y apaga rítmicamente». Esta idea del fuego la Física de hoy podría muy bien sustituirla por la idea de energía; al fin y al cabo, el calor es precisamente una forma de energía... Y esa energía eternamente viva que aumenta y se apaga rítmicamente se parece un poco al Universo oscilante (Big Bang y Big Crunch...) que algunos astrofísicos postulan.

Hemos de citar igualmente a Pitágoras (582-500 a.C.) y sus discípulos, que acabaron estableciéndose en Crotona, en la Italia peninsular. Se suele decir que mantenían que «todas las cosas son números», es decir, que la esencia y la estructura de todos los componentes de la naturaleza pueden ser determinadas con sólo encontrar las proporciones numéricas que expresan la relación existente entre ellas.

Así pues, queda claro que tanto los pitagóricos como los milesios centraban su afán en encontrar la respuesta a los problemas de la naturaleza en la reflexión más o menos abstracta, y no tanto en la experimentación. Pero, sobre todo, iban más allá de la idea simplista de que todo se debía a los dioses. En astronomía, Pitágoras sostenía que la Tierra era una esfera que giraba, como los demás planetas, en torno al fuego del Sol, moviéndose de acuerdo a un esquema numérico que explicaba las estaciones e incluso los climas. Todos esos movimientos eran armónicos y deberían dar origen a algún tipo de sonido musical, la famosa armonía de las esferas...

En suma, los filósofos presocráticos prescindieron de las deidades como gobernantes caprichosos del aire, el agua, el calor e incluso los astros que están por encima del aire. Claro que las conclusiones a las que llegan con algunas de sus reflexiones pueden ahora parecernos simples o, de puro evidentes, casi ingenuas. Pero para aquella época resultaban revolucionarias por negar precisamente ese protagonismo de los dioses.

Por cierto, otro filósofo racionalista y que es considerado como el antecesor de la medicina racional, Hipócrates de Cos (460-377 a.C.), describió en uno de los apartados de su Corpus hipocrático llamado «Sobre los aires, las aguas y los lugares» los efectos del clima sobre diversas afecciones, atendiendo a la humedad ambiente, la sequedad del aire, la temperatura, la insolación, y así sucesivamente. También aconsejaba acerca del comportamiento y la alimentación en función del acontecer meteorológico, y siempre según la pertenencia del enfermo a uno de los cuatro supuestos temperamentos de las personas (colérico, sanguíneo, flemático y melancólico).

La isla de Cos, dicho sea de paso, se encuentra no lejos de la costa del Egeo turco en la que estuvo enclavada Mileto; apenas distaban en línea recta unas decenas de kilómetros. Y Colofón y Éfeso eran también ciudades costeras de esa misma zona. Lo cual podría indicar que, precisamente porque los medios de comunicación de entonces eran muy rudimentarios, la proximidad debió de jugar un papel importante en la transmisión de unos u otros saberes.

Hacia el año 400 a.C., el centro de la sabiduría y la vida intelectual de los griegos ya se había ido poco a poco desplazando desde las islas y la zona costera de la actual Turquía hacia la Grecia continental y, en particular, hacia la capital, Atenas. Allí alcanzó su máximo nivel durante al menos tres siglos; luego comenzará a ser sustituida por Alejandría, un par de siglos antes de nuestra era, como capital intelectual del mundo griego y, en parte, del mundo romano. Recordemos que Egipto había sido conquistado por Alejandro Magno en el siglo IV a.C.

El esplendor de Atenas como capital intelectual del mundo antiguo se debió sobre todo a los tres grandes filósofos, Sócrates (470-399 a.C.) y Platón (427-347 a.C.), ambos de Atenas, y Aristóteles de Estagira (384-322 a.C.).

Por lo que a este libro se refiere, ninguno de los dos primeros aportó demasiado a lo que podríamos denominar prehistoria de la meteorología. En una línea parecida a la de los sofistas, Sócrates centró sus reflexiones en cuestiones relacionadas con la ética y la política, con el lenguaje, incluso con las leyes y las normas sociales. La cosmología y, en general, las ciencias de la naturaleza le interesaron más bien poco. En cuanto a Platón, aunque se convirtió en un pensador mucho más sistemático y abarcó prácticamente todos los temas, partía de la misma base que Jenófanes y los eleáticos según la cual lo observado adolece de un defecto fundamental: nunca podrá reflejar la realidad porque está fuera del alcance de lo que podemos observar. Esa realidad, en el mejor de los casos, sólo podrá ser concebida a través de la lógica y la reflexión.

En uno de sus últimos «Diálogos», Timeo, Platón expone algunas de sus ideas acerca del cuerpo humano y la medicina, con referencias, un poco de pasada, a las ciencias naturales y la cosmología. Él otorgaba a la geometría teórica —el círculo, el triángulo, el cuadrado, los cinco sólidos platónicos (hoy llamados poliedros regulares convexos)— características de perfección que las limitaciones de nuestros sentidos sólo podían ser capaces de concebir pero no de observar.

Aristóteles, en cambio, aunque fue discípulo de Platón, pensaba de forma diferente y colocaba los pies sobre el suelo, aunque sin renunciar, obviamente, al pensamiento especulativo. Fue un observador sobrio, un investigador tenaz de lo que se sabía antes que él y de lo que aún se ignoraba, y le otorgó a la experimentación un cierto derecho a existir, aunque nunca al mismo nivel que la reflexión pura. De ahí que, en conjunto, hiciera progresar de manera extraordinaria el conocimiento humano en torno a cuestiones no sólo filosóficas, lógicas, políticas o éticas, sino también de pura historia natural, en cuestiones zoológicas, botánicas, anatómicas, incluso astronómicas y, lo que más nos interesa aquí, meteorológicas.

De hecho, él fue quien inventó el término «meteorología»; uno de sus libros se llamaba precisamente así: Meteora (literalmente, «Meteoros»), que algunos historiadores también titulan Meteorologica, es decir, «Meteorológicos» o bien «Cosas meteorológicas». En suma, Tratado de meteorología. El primero de la historia con ese título.

No es que sus ideas acerca de los fenómenos del tiempo atmosférico fueran muy acertadas que digamos, incluso teniendo en cuenta su época. Pero al menos contenían distintos elementos de observación de notable interés, aunque siempre predominaba en sus reflexiones lo especulativo sobre lo predictivo, lo reflexivo sobre lo observado. También escribió en esa época, hacia el año 340 a.C., la obra Peri uranus («Acerca del cielo»), más conocida por su título latino De caelo. Aunque trataba esencialmente de astronomía, en algún momento hacía referencia a los climas e incluso al tiempo de todos los días, ya que para él los meteoros dependían directamente de los astros.

En sus obras Aristóteles establece una división tajante entre el cielo y la tierra. El primero es incorruptible e inmaterial, hecho de un elemento etéreo que acabaría siendo bautizado como quintaesencia. En el cielo sólo hay perfección matemática, simbolizada por los movimientos circulares de los orbes, que son las esferas que arrastran a los planetas. En cambio, la tierra consta de los cuatro elementos de Empédocles y es cambiante, además de residir en ella los accidentes, las pasiones, la corrupción...

Para Aristóteles, pues, la causa perfecta de todas las cosas está, lógicamente, arriba; y aquí abajo sólo podemos sufrir las consecuencias de nuestra imperfección. Lo cual significaba que las veleidades atmosféricas no podían tener causas terrenas sino que se debían exclusivamente a causas celestes. Por cierto, los meteoros habían sido definidos por Platón como «aquello que hay entre el cielo y la tierra», pero en su obra Aristóteles los define con mayor precisión. La traducción literal de meteoros podría ser la siguiente: «todos los efectos que se pueden llamar comunes al aire y al agua, así como las formas y partes de la tierra, y los efectos de sus partes». Aquí queda claro que son terrestres en sus consecuencias, aunque celestes en sus causas.

La potencia observadora del sabio heleno se refleja en la siguiente frase, que describe el ciclo de evaporación, condensación y precipitación en el aire: «Así pues el Sol, moviéndose como lo hace, provoca con su calor cambios de transformación y decadencia; por su acción, la más limpia y fresca agua es elevada día tras día para disolverse en vapor que, al llegar a las regiones superiores, se condensa de nuevo con el frío para así retornar a la tierra».

Su discípulo y amigo —fue nombrado por Aristóteles en su testamento tutor de sus hijos— Teofrasto de Lesbos (372-287 a.C.) acabó siendo quizá el primer gran divulgador de las ciencias naturales, y muy especialmente de la botánica. Precisamente por la enorme influencia de la atmósfera en las plantas, se acercó mucho al mundo de los fenómenos meteorológicos, concretando el pensamiento de Aristóteles en diversos casos particulares y acercándolo mucho más a la realidad cotidiana; lo plasmó en su Libro de los signos, en el que Teofrasto incluso daba claves para la predicción meteorológica basándose en el tiempo observado anteriormente, más que en la posición de las estrellas.

Es una verdadera lástima que las claves, incluso erróneas algunas de ellas, que comenzaban a desvelar acerca del funcionamiento de la máquina atmosférica tanto el Tratado de meteorológica de Aristóteles como, sobre todo, el Libro de los signos de Teofrasto, acabaran cayendo en el olvido. La humanidad hubo de esperar dos mil años antes de recuperar algunas de aquellas ideas, ya en pleno Renacimiento.

Un matemático llamado Conón de Samos (280-220 a.C.), que vivió en Alejandría casi toda su vida como astrónomo de la corte de Ptolomeo III —era, por cierto, muy amigo de Arquímedes—, escribió entre otras una obra llamada Astrología en la que relacionaba los elementos celestes —entre ellos los que llamaba «17 signos de las estaciones», asociados a la posición de ciertas estrellas a lo largo del año— con las fluctuaciones del tiempo atmosférico. Aunque hoy nos parezca una idea casi risible, tiene bastante sentido si se considera que esa correlación tiene que ver con las regularidades de un clima relativamente estable en la región de Alejandría, y la consecuente asociación de las variaciones de lluvia y temperatura con el devenir del calendario. La astrología no es, después de todo, más que una «calendariología», en la que los «signos» reemplazan a los meses...

No es de extrañar que mucho más tarde, ya en el siglo II d.C., Claudio Ptolomeo —que nada tenía que ver con la dinastía de los Ptolomeos que reinó en el Egipto helenístico en los tres siglos anteriores a nuestra era— recogiera en su Almagesto las teorías astronómicas basadas en las ideas de Aristóteles y las sugerencias de Teofrasto y Conón, pero en cambio ignorando las aportaciones geniales y mucho más acertadas de Aristarco, Hiparco y Eratóstenes, a los que luego citaremos.

Y ya puestos a encontrar coincidencias curiosas, cabe recordar que Copérnico, en su famoso libro De revolutionibus orbium coelestium, en el que defendía la teoría heliocéntrica, 18 siglos después, hubiera de tachar por prudencia sus referencias a Aristarco de Samos con la esperanza de que la autoridad eclesiástica apreciara que sus ideas sólo eran especulaciones matemáticas sobre la base de las ideas aristotélicas, que eran las que defendía la iglesia. Años más tarde aquel subterfugio de Copérnico (que murió antes de ver editado su libro) no les iba a servir de nada a Giordano Bruno ni a Galileo Galilei, condenados por la iglesia por mostrar su desacuerdo con... ¡Aristóteles! Cuántos siglos de oscuridad y cerrazón hubieron de transcurrir, tras aquel luminoso paréntesis de la Grecia jónica, ateniense y alejandrina. Es probable que el declinar de aquella era floreciente grecorromana y alejandrina en cuestiones filosóficas, matemáticas, astronómicas e incluso meteorológicas se iniciara con el deleznable asesinato de la matemática alejandrina Hipatia (355-415) por una turba de religiosos cristianos fundamentalistas, enemigos de la racionalidad...

Demos un salto atrás en el tiempo y regresemos por un momento a la Grecia de tres siglos antes de nuestra era. Aunque no estuvieron directamente relacionados con la meteorología, conviene recordar, aunque sea de pasada, a las tres figuras máximas de la astronomía alejandrina que hemos citado unas líneas más arriba, Aristarco, Hiparco y Eratóstenes. No tuvieron nada que ver con la escuela de pensadores atenienses pre y postsocráticos, en particular Aristóteles, porque ellos sí fueron observadores atentos, además de matemáticos geniales y racionalistas convencidos de que lo que veían y calculaban debía aproximarse a la realidad cuanto fuera posible, sin apriorismos acerca de la perfección del mundo o de sus formas.

Aristarco de Samos (310-230 a.C.) ha pasado a la historia como el primer y más genuino defensor de la teoría heliocéntrica. Ya hemos visto que los pitagóricos, antes que él, ya defendían la misma idea aunque por motivos quizá diferentes, ya que sobre todo se basaban en la abstracción de las ideas antes que en la observación real de lo que acontecía en los cielos.

Eratóstenes de Cirene (276-194 a.C.), por su parte, midió con precisión asombrosa la distancia de la Tierra al Sol, la oblicuidad de la órbita terrestre causante de los climas invertidos en los dos hemisferios terrestres, el diámetro de la Tierra... Fue un matemático genial, pero también supo utilizar sus dotes de observación y consiguió desarrollar elementos auxiliares, como la esfera armilar, que le ayudaron a precisar sus medidas. Publicó una Geografía con toda clase de datos sobre clima, regiones, dimensiones, zonas marinas...

Y, finalmente, Hiparco de Nicea (190-120 a.C.) fue otro observador atento de los cielos, con ayuda de nuevos instrumentos que él puso a punto: por ejemplo, el teodolito y algunos medidores de ángulos muy precisos. Elaboró un completo catálogo de estrellas, clasificadas según su intensidad en diversas magnitudes; en total 1.080 estrellas visibles a simple vista, una cifra asombrosa (más o menos, todas las que podemos contemplar hoy sin aparatos, suponiendo que tengamos muy buena vista), indicando su posición respectiva en coordenadas elípticas. También diferenció el año sidéreo del trópico, aplicó los conceptos de latitud y longitud, desarrolló la trigonometría, observó algunas concordancias entre el tiempo meteorológico y algunas posiciones astrales...

Otros astrónomos de esa época o posteriores —Eudoxo, Calipo y, sobre todo, Gémino de Rodas (siglo I a.C.)— sistematizaron muchos de aquellos conocimientos astronómicos, poniéndolos al alcance de las gentes al relacionarlos con la actividad doméstica y, sobre todo, agrícola. Esos datos astronómicos que se suponía en relación directa con el acontecer atmosférico, tan esencial en agricultura, se presentaban en forma de parapegma (en griego plural, parapegmata) que eran unos calendarios en piedra que llevaban grabadas las fechas de los principales sucesos astronómico-meteorológicos del año, en función del orto y ocaso de ciertas estrellas o grupos de estrellas. Se hacían públicos exponiendo diversas copias en las principales plazas de las ciudades y pueblos.

Esta correspondencia entre elementos meteorológicos y astronómicos, puesta al alcance de las gentes fuera del ámbito erudito de las bibliotecas, explica quizá el origen de algunas de las expresiones que pueden haber sobrevivido hasta nuestros días. Por ejemplo, la palabra «canícula» (curiosamente en inglés dicen «dog days») se refiere a las puntas de calor del verano justamente cuando la estrella Sirio, la más brillante de la constelación del Can Mayor, aparece por el horizonte oriental poco antes de amanecer. Aunque lo cierto es que eso ocurría hace unos 2.000 años; ahora, a causa de la precesión de los equinoccios, la brillante estrella que aparece en el este al amanecer por esas fechas es Proción, la alfa del Can Menor, a la que algunos llaman «la perrita». Recuérdese que las constelaciones de los dos canes acompañan a Orión, el cazador celestial...

Curiosamente, en la actualidad también estas dos constelaciones «caninas», con sus brillantes estrellas alfa, Sirio y Proción, respectivamente, parecen protagonizar otro dicho popular, inverso al de canícula: «hace un frío de perros». Y es que en lo más álgido del invierno, hacia el mes de enero, salen por el horizonte oriental al anochecer y luego se encuentran casi en el centro del cielo, bien visibles, en mitad de la noche, en esas noches de máximo frío.

Ya en la Alejandría del imperio romano, Claudio Ptolomeo (100-170) olvidó —o quizá es que simplemente las ignoraba— muchas de las racionales enseñanzas de predecesores suyos en temas astronómicos de gran calado. En cambio, contribuyó a difundir los saberes esencialmente aristotélicos y también muchas «recetas» astronómico-meteorológicas procedentes de la Antigüedad. De hecho, en la misma línea que los parapegmata de Gémino, pero bastante después, elaboró un completo calendario acerca del discurrir del tiempo atmosférico a lo largo del año en su obra llamada Phaseis (cuya traducción podría ser «Fases», o «Bandas»), que asociaba ciertas agrupaciones estelares en forma de bandas que ascienden o descienden a lo largo de la noche a la determinación del clima dominante en cada momento. Hoy eso nos recuerda, aunque sea de lejos, la clasificación climática actual simplificada, en función de las bandas paralelas al Ecuador: clima polar, subpolar, templado, subtropical, tropical, ecuatorial...

En su famoso Tetrabiblos, Ptolomeo también aludía a la predicción no tanto del clima como del tiempo, asociando a los elementos astronómicos otros signos locales complementarios como el color del Sol al atardecer o al amanecer, los halos en torno a la Luna, la coloración más o menos brillante de las estrellas, y otros del mismo estilo.

El interés por las ciencias de la naturaleza, en general, y por la meteorología en particular, no disminuyó en el mundo latino, heredero de la tradición y de la cultura de Grecia. El imperio romano, nacido de la anterior república romana —contemporánea de la etapa final del helenismo ateniense—, se fue extendiendo desde poco antes de la era cristiana por buena parte del contorno mediterráneo, e incluso más allá, y su esplendor, en asociación con la civilización egipciaalejandrina, duró al menos cinco siglos. Sus intelectuales prosiguieron la labor de los griegos sin solución de continuidad; de hecho, es difícil aludir a aquellas épocas con las actuales referencias de los estados modernos de Grecia e Italia. Ambos mundos antiguos, Grecia y Roma, interaccionaron en el tiempo y en el espacio durante un largo período histórico; lo mismo que el mundo mesopotámico y el mundo anatólico permeabilizaron y fecundaron lo que luego sería el esplendor heleno.

Además, en sus épocas de máximo esplendor —Grecia unos pocos siglos antes de Cristo, Roma en la época de Cristo y algún siglo después—, ocuparon territorios muy vastos de Asia Menor, Europa y norte de África.

En todo caso, con el imperio romano se mantienen las tradiciones filosóficas griegas, con similar apego por la retórica y si acaso una mayor inclinación por las aplicaciones prácticas.

Una de las más interesantes enciclopedias de las ciencias naturales fue la del historiador y naturalista Plinio el Viejo (23-79), cuya Historia naturalis —un encargo del emperador Nerón, que no llegó nunca a completar— recopilaba los trabajos de más de dos mil autores, tanto griegos como romanos, en campos muy diversos de lo que hoy llamamos ciencias naturales. Fue la primera enciclopedia de la naturaleza, aunque inacabada, de la historia, y ocupaba más de 160 volúmenes. En ella cohabitaban las observaciones realistas y a veces muy detalladas de ciertos procesos naturales, y las fábulas y leyendas más imaginativas aunque, sin duda, muy extendidas en el medio rural.

Uno de los libros, el XVIII, se refería específicamente al tiempo atmosférico y su título no puede ser más ilustrativo: De tempestatum praesagiis. En él, Plinio recopila creencias y observaciones populares en torno a la predicción del tiempo, escasamente científicas pero muy prácticas por su sencillez de aplicación. Se basaban en la repetición de ciertos acontecimientos celestes y probablemente también en la experiencia acumulada a lo largo de generaciones por campesinos y marineros. Un mecanismo de transmisión oral similar al que mucho más tarde se plasmaría en el refranero, tan popular en zonas rurales incluso ahora, en pleno siglo XXI.

Otros autores se habían ocupado ya de los problemas agronómicos, con alusiones al tiempo y sus veleidades. Por ejemplo, Virgilio (70-19 a.C.) elogiaba en sus Bucólicas la vida en el campo y en contacto directo con la naturaleza, incluidos los fenómenos atmosféricos, y en sus Geórgicas, obra dedicada específicamente a las labores agropecuarias, aludía a los ciclos meteorológicos beneficiosos para unas u otras labores. También Lucrecio (99-55 a.C.) escribió un extenso poema en seis tomos, De rerum natura («Sobre las cosas de la naturaleza»), cuya última parte se refiere a los fenómenos atmosféricos y los daños que pueden ocasionar. Séneca (4 a.C.-65 d.C.) escribió acerca de estos temas en una obra en siete tomos llamada Naturales quaestiones («Cuestiones de la naturaleza») donde mezclaba la meteorología con la oceanografía e incluso la geología. No aportaba grandes novedades pero, al igual que la obra de Plinio, fue una obra que gozó de mucha fama y enorme predicamento hasta bien entrada la Edad Media.

Muchos más autores romanos hablaron, aunque fuera como referencia lejana, del tiempo y el clima, pero sus aportaciones no añadieron gran cosa a lo que ya habían escrito otros antes de ellos. De hecho, la tradición oral entre las clases populares, e incluso entre los dirigentes sociales —nobleza, clero—, se guiaría durante siglos por las obras inspiradas en Ptolomeo —y, por tanto, en Aristóteles— y por los textos de Plinio y Séneca, esencialmente.

La caída del imperio romano a partir del siglo V y el creciente poder de la religión cristiana en el mundo greco-latinoeuropeo señalaron el comienzo de una época de estancamiento de los conocimientos acerca de la naturaleza, en general, y por tanto también de las cuestiones relacionadas con la atmósfera y sus fenómenos. Fue como si los seres humanos hubieran abdicado de su capacidad de observación y medida de los fenómenos naturales —meteorológicos, astronómicos, botánicos...— en aras de unas creencias que, por absolutas, no podían ni debían ser refutadas. En temas astronómicos fue imparable el avance de la astrología como método predictivo del futuro —incluso las más poderosas mentes del renacer de la astronomía como ciencia, como Kepler o Newton, creían en ella.

Tras la racionalidad y el rigor del mundo greco-romano se abrió así una larga etapa en la que los magos y adivinos, con o sin características religiosas añadidas, camparon por sus respetos en casi todos los campos, y muy especialmente en el atmosférico.

1.2. Magos y adivinos: racionalidad e ignorancia

1.2.1. Magia y religión, antes y ahora

La potencia intelectual de los grandes pensadores del mundo antiguo, tanto presocráticos como aristotélicos o, ya después, alejandrinos y romanos, pudiera llevarnos a pensar que en aquellas épocas, varios siglos antes y después del nacimiento de Cristo, todo era racionalidad y reflexión, matemática y astronomía, filosofía y rigor. Pero nada más lejos de la realidad. Las figuras que hemos plasmado en el apartado anterior fueron singulares, pero es indudable que el resto de la población, y no digamos sus dirigentes políticos, militares y, sobre todo, religiosos, vivieron en su inmensa mayoría al margen de todos esos avances.

Los dioses de la Antigüedad eran venerados por la población, y a ellos se les atribuían las bondades y maldades de la vida cotidiana de cada cual incluido, como no, el tiempo de todos los días. El culto y los sacrificios a unas u otras deidades formaban parte de la vida normal de todos los habitantes, no muy lejos del pensamiento reflejado por Homero en sus narraciones, casi ocho siglos a.C.

La cosmogonía helénica, además de muchos otros elementos culturales, fue trasladada casi sin cambios —excepto, por ejemplo, los nombres de los dioses— desde el mundo griego al nuevo poder romano, y luego al resto de las regiones que inicialmente habían pertenecido al mundo grecolatino. También ocurrió algo parecido, lo acabamos de ver, con los elementos más racionales basados en la observación y la experimentación, aunque a la larga fueron poco a poco eliminados del común saber de las gentes. El poder de las religiones fue siempre superior, quizá lo siga siendo, al poder de la razón. Luego, en los siglos IV a V d.C. la batalla entre el cristianismo y los residuos de las religiones mitológicas fue siendo poco a poco ganada por el primero.

Por supuesto, estamos refiriéndonos al mundo europeo. Es obvio que la evolución en estos campos fue muy diferente en la América precolombina o en las diversas civilizaciones asiáticas —hindú, china, japonesa...—. Con todo, es seguro que, con sus propias claves socioculturales, allí predominaron igualmente la magia y la religión sobre la más estricta racionalidad.

Desde siempre —y, lamentablemente, incluso todavía hoy— las supersticiones, la magia y las creencias religiosas más o menos trascendentes han campado por sus respetos en campos tan «vidriosos» como el de la ciencia, y muy especialmente la medicina, que no sólo tiene mucho que ver con la salud y la enfermedad sino sobre todo con la muerte y, por tanto, con el tránsito hacia un supuesto más allá. Y, por supuesto, igual que vimos que la mitología grecorromana otorgaba a sus dioses poderes absolutos sobre los elementos atmosféricos y astronómicos, lo mismo ocurrió luego con el cristianismo. No hay que olvidar que en aquellos tiempos el devenir atmosférico era de crucial importancia para la supervivencia de las gentes del campo y la mar, tanto los pobres como los ricos. ¿Cómo no iban los seres supremos a tener dominio absoluto sobre elementos tan esenciales para la vida de los humanos?

Desde luego, a nadie se le oculta que las manifestaciones más llamativas de la atmósfera pueden resultar sobrecogedoras. Pocos son los que no sienten que se les encoge el ánimo en el fragor de una tormenta, rodeados de vientos ululantes y truenos ensordecedores, con el paisaje iluminado fantasmagóricamente; y más aún si eso ocurre por la noche, cuando mejor se escuchan los chasquidos próximos de las descargas eléctricas. Eso les sigue ocurriendo a muchos incluso hoy, en pleno siglo XXI, así que no es difícil imaginar lo que pudieran sentir nuestros antepasados en pleno oscurantismo premedieval, librados al capricho de los meteoros en el campo, en la mar, en medio del bosque o al aire libre, incluso en el interior de infraviviendas mal construidas y peor aisladas...

Por eso no es de extrañar que, al margen de las tradiciones antiguas más eruditas y de la transmisión oral de las observaciones más básicas de los campesinos, florecieran y medraran mucho más las malas hierbas de la superstición y la charlatanería que defendían personajes estrambóticos y delirantes: brujas y hechiceros varios, magos y adivinos de todo tipo y pelaje, sanadores astrales y echadores de cartas, santones llenos de irreverencia hacia las religiones más oficiales... Junto, como es lógico, a las creencias religiosas más arraigadas en cada región; en Europa, esencialmente el cristianismo. Éstas se erigían en árbitro de los males infligidos por el mal tiempo, exigiendo sacrificios económicos junto a ceremonias diversas —procesiones, rogativas, ritos varios— para aplacar a Dios, ofendido por la mala conducta humana. O sea, el mal tiempo se debe... a los pecados de los hombres. Si el poder supremo que habita en los cielos manda tormentas, heladas o sequías, es porque los hombres se portan mal...

Lo malo es que todo eso convivió entonces, pero también convive hoy, con la ciencia de su tiempo. Tiene cierta lógica que aquello ocurriera en la Edad Media, pero no se explica que perdure en nuestros días. Por eso resultan asombrosos, por ejemplo, anuncios como el que apareció en el verano de 1982 en un diario londinense, y en el cual el ayuntamiento de una ciudad del norte de Gran Bretaña ofrecía una determinada suma, literalmente, «a aquella persona —sea mago, brujo, científico o astrólogo— que se comprometiese a impedir la lluvia durante los días de la Feria de la localidad». Suena a chiste, pero el anuncio era real, e incluía una coletilla que parece más bien cosa de Chiquito de la Calzada: «Abstenerse personas sin la seriedad debida».

Todavía más chusco resulta que, ya en el año 2009, nada menos que el alcalde de Río de Janeiro le pida a una espiritista que use su magia para evitar la lluvia en las fiestas de Año Nuevo. Por lo visto, los meteorólogos anunciaron un temporal que podría arruinar la famosa Nochevieja de la playa de Copacabana, a la que acuden un mínimo de dos millones de personas. La médium, llamada Adelaida Scrittori, pertenecía (supongo que aún pertenecerá) a la Fundación Espiritista Cacique Cobra de Coral, y aseguraba, entre otras cosas, que era capaz de detener la lluvia con la única fuerza de su magia. El alcalde, Eduardo Paes, quiso poner de su lado a todas las fuerzas oscuras y no sólo apeló a la espiritista sino que pidió ayuda igualmente a un párroco católico y a un pastor evangélico. Y no es que la cosa se hiciera con sigilo, como cabría imaginar; al contrario, el secretario municipal de Turismo de Río de Janeiro, Antonio Pedro Figueroa de Mello, explicó públicamente cómo era el contrato que se firmó con la maga, aunque aclaró enseguida que él en quien creía realmente era en Dios; no obstante, como cualquier ayuda espiritual era bienvenida, rezarían a todos los santos y todos los credos. Eso se llama...

Ecumenismo en estado puro. Recuerden, fue en el año 2009, en pleno siglo XXI.

Por cierto, el día 1 de enero de 2010, y durante todavía algunos días más, llovió intensamente en la importante ciudad brasileña, causando inundaciones y cuantiosos daños materiales. Entre el día 31 y el día 1, o sea, durante la Nochevieja, cayeron más de trescientos litros por metro cuadrado de lluvia, con rayos y truenos por doquier, tal y como habían pronosticado los meteorólogos... Y nos cabe una duda: ¿le pagarían sus honorarios a la maga? ¿Tendría ésta algún tipo de seguro contra ese tipo de contingencias adversas del más allá? Y ahora, un poco más en serio, ¿dimitieron el alcalde y el secretario municipal de Río de Janeiro?

Con el tiempo, especialmente en los países europeos, el rol de hacedor de lluvia fue quedándose confinado casi en exclusiva en los ámbitos religiosos, aunque eso no impidió su coexistencia con algunos ritos profanos remanentes y todavía en vigor, ahora o hasta muy recientemente. Por ejemplo, el baile del trençador de les aigues de Cadaqués, que el Martes de Carnaval convocaba las lluvias favorables para ese año, según aporta el historiador Rómulo Sans en su libro sobre el Ampurdán en el siglo XIX.

Pero a partir de la Edad Media las rogativas fueron convirtiéndose en el rito por antonomasia. La idea no es muy diferente de la de Homero y Hesíodo: puesto que los dioses tienen el poder de controlar a su antojo los fenómenos atmosféricos, conviene encomendarse a ellos, rezándoles o incluso ofreciéndoles algún tipo de sacrificio, con el fin de que sus caprichos meteorológicos acaben siéndonos favorables.

Si la cosa no salía bien, en el mundo cristiano se recurría a cambiar de sitio las imágenes de la iglesia y, en particular, a mover dentro o fuera de ella la del santo patrón. En algunos sitios incluso se realizaba el mito de la inmersión: la efigie era empapada en agua o incluso sumergida en ella (es lo que algunos denominan magia imitativa, que pretende conseguir grandes efectos en una determinada materia con una muy pequeña cantidad de esa misma materia; la misma magia absurda que practica, por ejemplo, la homeopatía). Como si con ello pudieran convencer mejor al santo para que echara una mano con las lluvias ausentes...

El teólogo navarro Martín de Arles (1451-1521) cuenta de qué modo utilizaban en su tierra a la imagen de san Pedro para pedirle lluvia en época de sequía: «sacaban la imagen y la llevaban en procesión a orillas del río donde le suplicaban hasta tres veces “¡San Pedro, remédianos!”. Si no respondía —como era usual— la multitud pedía a gritos que se sumergiera la imagen en el río hasta que los principales del lugar tomaban partido y tranquilizaban a las gentes saliendo garantes de que el santo traería la lluvia, prestando fianza pecuniaria, que era desde luego aceptada por el pueblo, empobrecido por la sequía. Y nunca dejó de llover en el día siguiente». Este final de relato optimista es difícilmente creíble y sin duda contrasta con la famosa copla burlesca de origen alcarreño que, por cierto, alude, según las crónicas, al apodo que por esa razón llevan los habitantes de la localidad de Alcocer: «brutos». La copla dice así:

No he visto gente más bruta

que la gente de Alcocer,

que echaron el Cristo al río

porque no quiso llover.

En general, los días de rogativas eran días de penitencia: había que aplacar la ira divina y pedir perdón por los pecados cometidos, porque por culpa de ellos venía el castigo de la falta de lluvia. La misma idea que los mayas, que los griegos, que... En época de rogativas solían cerrarse los comercios y se acudía a las ceremonias con trajes oscuros o negros...

En épocas más recientes, incluso en la actualidad, las rogativas católicas suelen consistir en una oración que se dice en las misas, y en casos más graves, en una procesión solemne acompañada del rezo Ad petendam pluviam, o bien de las Letanías de los Santos y otras oraciones. Conviene aclarar que el caso de las lluvias excesivas, aunque mucho menos frecuente, también está contemplado. En esa ocasión la principal plegaria se llama Pro serenitate.

Este asunto de las rogativas puede parecer anecdótico, pero los historiadores del clima han encontrado en los registros parroquiales que dan cuenta de ellas todo un filón informativo acerca del tiempo que hubo en los últimos siglos. Puesto que las rogativas eran después de todo un recurso extremo, parece obvio que cuando se convocaban era porque había una sequía notable, unas lluvias insólitamente abundantes, unas heladas excesivas, unos calores abrasadores... El procedimiento de convocatoria estaba bien regulado burocráticamente y, desde la Edad Media, quedaba debidamente registrado no sólo en los archivos de iglesias y parroquias sino también en las actas municipales y en los archivos de los capítulos catedralicios.

De ahí su interés para los investigadores actuales, tal como señalan, por ejemplo, dos conocidos climatólogos de la Universidad de Barcelona, Mariano Barriendos y Javier Martín-Vide, en uno de sus trabajos; la frase es elocuente: «El potencial para el análisis climático sobre diferentes elementos meteorológicos y, especialmente, la capacidad de iniciar su recopilación en cualquier país dentro del ámbito cultural católico, convierten a las rogativas en una herramienta nada despreciable de la climatología histórica».

Incluso hoy se siguen produciendo las rogativas a poco que el tiempo se muestre más adverso de lo normal. Sin ir más lejos, en los «Principios y orientaciones», del Directorio sobre Piedad Popular del concilio Vaticano II (en 1966), se dice que la fecha de las procesiones de rogativas deberán ser determinadas por la Conferencia Episcopal de cada país, y define tales actos como súplicas públicas de la bendición de Dios sobre los campos y el trabajo de los hombres, con carácter penitencial.

Parece coherente con todo lo anterior: si Dios no hace llover es porque los hombres hemos pecado y habremos de hacer penitencia para que nos perdone y nos mande la necesaria lluvia. No es, pues, de extrañar que el Arzobispado de Madrid difundiera, ante la prolongada sequía de 1997, la plegaria a la que antes aludíamos, Ad petendam pluviam, con el siguiente contenido literal: «Para que Dios todopoderoso, en quien vivimos, nos movemos y existimos, nos conceda la lluvia necesaria, y así, ayudándonos con los bienes de la tierra, podamos aspirar confiadamente en los bienes del Cielo, roguemos al Señor».

En todo caso, los ejemplos que hemos citado, más que actuales, quizá basten para recordarnos que, a pesar de toda la soberbia tecnocientífica que nos caracteriza hoy, todavía los seres humanos guardamos en nuestro interior altas dosis de irracionalidad en esto del tiempo y del clima (y en muchas otras cosas). Nos distinguimos muy poco de los habitantes del aquel mundo medieval, incluso de la Antigüedad clásica, que sin embargo tendemos a menospreciar por oscuro e ignorante.

1.2.2. La Edad Media

Pero retrocedamos de nuevo a la caída del imperio romano; quizá no sea muy exagerado afirmar que aquello supuso una auténtica catástrofe para la cultura europea. En apenas un par de siglos, el esplendor grecorromano acabó siendo pasto, quizá más que nunca, de las creencias y conductas más burdas: brujería, hechizos, quiromancia, supersticiones, cultos demoníacos... Sin olvidar el papel, nada brillante, de las autoridades eclesiásticas cristianas.

Abundaron las quemas de brujas —lo que implicaba que quienes las condenaban, y la Inquisición sabía mucho de eso, creían en ellas—, los autos de fe y muchas otras ceremonias más o menos sórdidas y ocultas que traslucían una vuelta de tuerca a la creencia, indudablemente primitiva, en los poderes supremos que dirigían la vida de los hombres y el comportamiento de la naturaleza a su antojo.

En líneas generales, por toda Europa quedó el conocimiento del medio natural —que había sido explorado con no poca racionalidad por mesopotámicos, griegos y romanos— en manos de la charlatanería popular y, por supuesto, de una religión cristiana cada vez más poderosa. Sólo se mantuvieron al margen, y aun así de forma muy parcial y obviamente sectaria, los escasos reductos donde sobrevivieron los restos de la cultura antigua —en esencia, los monasterios y las minorías cultas de la jerarquía eclesiástica—, en los que las ideas aristotélicas eran veneradas como verdades absolutas. Aunque fue muy anterior al nacimiento de Cristo...

Por contraste, el mundo árabe de los siglos posteriores a la caída del imperio romano había ido conservando, por tradición predominantemente oral, los saberes grecorromanos difundidos a través de Alejandría. En la transmisión de ese conocimiento los árabes lo fusionaron con retazos de otras culturas lejanas, como la persa o la hindú. Es curioso que una parte de esa cultura compleja y llena de mestizaje científico-religioso retornara a Europa por vías indirectas, en parte a través de los restos del imperio romano de Oriente —donde Bizancio resultó de especial importancia—, pero sobre todo a través del mundo árabe de España, desde donde se difundiría luego poco a poco hacia Italia, Francia e incluso los países escandinavos. Aquí fueron Toledo, y más tarde Córdoba, quienes desempeñaron un papel esencial.

La escasa racionalidad que podríamos encontrar, pues, en la meteorología medieval europea se debe precisamente a la conjunción de saberes babilónicos enriquecidos luego por la cultura griega (sobre todo, las ideas de Aristóteles y algunas aportaciones de los grandes astrónomos), junto con algunas ideas del mundo hindú y persa (astrología oriental, mansiones lunares), y algún añadido posterior a la hégira (año 622), como por ejemplo el hermetismo o el complejo mundo del sufismo. Una mezcla de lo más extraño que, no siempre bien difundida ni aun menos entendida, acabó enriqueciendo las ya abundantes prácticas de hechicería y adivinaciones que se le aplicaban a las cosas de la atmósfera —y a casi todas las demás cosas, claro.

Uno de los trabajos más respetables de aquellos tiempos procede, como no, de un autor árabe medieval, Al-Kindi (800-873), que después sería conocido como «el filósofo de los árabes» por sus traducciones y adaptaciones de, por ejemplo, la obra de Aristóteles. Una de sus obras se llamaba Tratado de la causa eficiente de los flujos y los reflujos marinos; no sólo abordaba el problema de las mareas, relacionándolas con la temperatura del aire —lo cual es erróneo—, sino que asimismo mostraba con precisión cómo el agua se convertía en aire y viceversa, en función de la temperatura, lo que parecía indicar una vía de explicación a la formación de las nubes, la nieve y otros fenómenos. En esto sí se acercaba mucho a lo que ocurre en realidad.

Sonaba revolucionario porque en cierto modo destrozaba la inmutabilidad de los cuatro elementos pitagóricos: el agua y el aire se entremezclaban como si fueran la misma cosa... Parecía chocante, sí. Otra obra que le atribuyeron los traductores que la vertieron al latín cinco siglos más tarde fue De mutatione temporum («Sobre los cambios de tiempo»), donde recopilaba una serie de observaciones acerca del tiempo cambiante, con numerosos datos pero muy pocos elementos de predicción.

Al-Kindi y otros filósofos de su época, como Ibn-Hayyan, defendían la importancia de la observación y la experimentación como elementos de conocimiento de la naturaleza, añadiendo una nueva implicación esencial en aquella primitiva filosofía de la ciencia: la cuantificación en las medidas. Todo un paso adelante, que luego caería en el olvido hasta la llegada de Galileo.

Y es que, en paralelo, se desarrollaban no sólo las brujerías de muy diversa índole y las creencias en casi cualquier cosa, sino también otras formas de adivinación con mayor apariencia de seriedad, aplicadas a las cuestiones prácticas de la vida cotidiana de las gentes y basadas en los retazos de la cultura astrológica que le llegaba a la población a partir de la tradición oral o los comentarios filtrados desde algún monasterio. Por supuesto, ocupaban un lugar privilegiado las predicciones meteorológicas, que tanta importancia revestían para los campesinos.

Todo ello, obviamente, al margen de la religión dominante, la cristiana, que por su parte intentaba conjurar toda esa actividad confusa y clandestina mediante condenas ejemplares —las brujas eran quemadas, los sospechosos de hechicería eran sometidos a la «ordalía», también llamado «juicio de Dios», una prueba jurídicamente válida durante la cual sólo el inocente salía ileso de la quemadura de un metal al rojo o de la inmersión prolongada en agua— y a través de juicios sumarísimos. Estas prácticas represoras de la iglesia duraron hasta el Renacimiento, a pesar de que ya habían sido formalmente desautorizadas por el papa Alejandro III, a mediados del siglo XII.

La alquimia, cómo no, floreció en medio de todo ese despropósito de ignorancia y superstición. Por supuesto, buscando la transmutación del plomo en oro con el que enriquecer aún más a nobles y reyes, pero también intentando encontrar nuevas formas de matar —venenos sólidos, líquidos corrosivos, vapores letales— con los que liquidar a los enemigos. Lástima, porque de aquellos experimentos bien pudiera haber salido alguna reflexión racional, aunque fuera empírica y primitiva. Pero no; los únicos avances en ese campo se dieron en el mundo árabe. Por ejemplo, Al-Hassan (965-1039) no sólo descubrió el concepto de peso específico sino que analizó la reflexión y la refracción de la luz, observando el arcoíris y reproduciéndolo en su laboratorio. Luego habría que esperar más de seis siglos, hasta Newton, para acceder al paso siguiente que, sin embargo, podría haber parecido inminente si Al-Hassan hubiese tenido sucesores: la descomposición de la luz blanca mediante un prisma de cristal.

Ya en el siglo XIII, dos británicos intervinieron positivamente en el campo de la filosofía de la ciencia, con referencias abundantes a la meteorología: por supuesto, Roger Bacon (1214-1294), pero también su contemporáneo John Pecham, quien llegó a ser arzobispo de Canterbury. Bacon defendía la idea de que no toda la filosofía de los griegos era válida, y que había que seguir experimentando y razonando más allá de aquellas ideas brillantes para descubrir la verdad de las cosas. Pecham, sobre todo en su juventud —antes de cumplir los treinta ya era superior de los franciscanos—, fue un puntilloso observador de elementos de meteorología, climatología y óptica atmosférica, para luego acabar su vida dedicándose en exclusiva a las cuestiones doctrinales.

Por cierto, Bacon fue encarcelado durante muchos años por defender unas ideas que por entonces parecían excesivamente radicales; cosas como que el tiempo dependía mucho más del viento dominante, de las nubes y de otros elementos, que de la conjunción de las estrellas en el firmamento nocturno o de las oraciones de los fieles en una iglesia. Claro que tres siglos más tarde, Giordano Bruno (1548-1600) fue quemado en la hoguera por afirmar la herejía —así lo consideraron sus jueces eclesiásticos— de que el Universo era infinito y que podía haber muchos sistemas solares como el nuestro... ¡Fue en el último año del siglo XVI!

En la Edad Media se daban métodos muy pintorescos para predecir el tiempo y otras cosas. Por ejemplo, la «escapulimancia», que practicaban tanto los árabes como los cristianos, en función de las señales que aparecían en paletillas de cordero hervidas después de haber sacrificado al animal siguiendo un determinado rito. Se supone que luego se comerían la paletilla, que eran tiempos de hambre y miserias... De esta práctica en concreto hay referencias en conductas tan dispares como la de los chamanes de los amerindios, o bien de los hechiceros de las tribus antiguas de Siberia y Mongolia.

En otras ocasiones se utilizaba también el esternón de aves domésticas de gran tamaño —patos, ocas, gansos— para encontrar en ellos signos de buenos o malos augurios acerca del tiempo que se avecinaba. Esa práctica procedía de las tribus bárbaras del norte que invadieron el imperio romano y que, ya en el mundo cristianizado, se fue concentrando hacia la fecha de San Martín, que es la época tradicional (11 de noviembre) para la matanza del cerdo y otros animales de granja cuyos productos podrían conservarse gracias al frío del invierno que se avecinaba.

Por cierto, este santo es el de mayor número de advocaciones en muchos lugares, por ejemplo en Cataluña, y su fecha es famosa en los calendarios de buena parte de Europa; no sólo debemos, pues, recordarlo por el dicho, muy expresivo por otra parte, de que «a todo cerdo le llega su San Martín».

Para adivinar el tiempo, una vez comido el pavo o el ganso se tomaba el esternón, y por su aspecto, se prejuzgaba cómo iba a ser el invierno: si salía blanco, habría mucha nieve. Si estaba moteado o con manchas, tiempo muy variable. Si la mitad era de color blanco y la otra mitad oscura, significaba medio invierno riguroso y el otro medio suave. Y así sucesivamente.

Resulta pintoresco, sin duda; pero aún lo son más otras recetas adivinatorias que la humanidad ha venido practicando desde hace siglos, y que incluso hoy continúan siendo usadas en determinados reductos campesinos. Por ejemplo, la siembra. Una actividad banal en el mundo agrícola pero que, practicada al modo que recomendaba en la India el matemático y astrólogo Daivajna Varahamihira (505-587), tuvo luego muchos adeptos en Europa, donde acabó siendo conocida a través del legado árabe. El agrónomo renacentista español Gabriel Alonso de Herrera publicaba en 1523 un tratado sobre técnicas agrícolas donde, en el apartado de los ritos, explicaba cómo predecir el tiempo sembrando semillas (de trigo, cebada, centeno, mijo, garbanzos, habas, lentejas...) en una era pequeña y húmeda, al modo hindú, veinte o treinta días antes de los días caniculares.

Esos días veraniegos, recordémoslo, corresponden a la época en que la constelación del Can Menor y, en particular, su estrella de primera magnitud Proción (cuyo nombre griego significa «que precede al perro») coincide con el Sol; eso ocurre aproximadamente desde finales de julio hasta finales de agosto. Al parecer, según hubieran germinado bien o mal las semillas, así sería el año agrícola siguiente. Dice Alonso de Herrera: «Es cosa averiguada que la constelación de la Canícula, con sus caninos calores, inficiona algunas semillas y les quita virtud, y a otras dexa libres. Con la salud o vicio en cada semilla de presente da señal del daño o beneficio, falta o abundancia que de futuro pudiera resultar».

Otra forma de adivinar el tiempo futuro en cuanto a la lluvia tenía que ver con la cebolla y la sal. Estos «calendarios cebolleros» se han seguido haciendo en los medios rurales hasta nuestros días; se coloca en un desván media cebolla dividida en doce partes, colocando cada una de ellas sobre un cuenco y poniéndoles encima una pizca de sal, nombrando cada una con el nombre del mes correspondiente. A la mañana siguiente se observa en qué trozos se disolvió la sal y en cuáles no, lo que se corresponde con los meses lluviosos o secos. Suena un poco a broma, pero en Italia el Calendario delle cipolle se publica en Internet cada año. El del año 2010, por ejemplo, se puede consultar en la web siguiente: http://www.comune.jesi.an.it/opencms/export/jesiit/ sito-JesiItaliano/Contenuti/SchedeServizi/ambiente/visualizza_asset. html_796781808.html.

Algo parecido ocurre, por cierto, en Portugal y Brasil con la experiência de Santa Luzia, sólo que ésta se realiza en la noche del 12 de diciembre.

Pero aún hay más. Por ejemplo, la prueba de la lana expuesta al aire libre en ciertos momentos clave del año. Una tradición beréber escogía, en el norte de África y en Andalucía, la noche de San Juan (23 a 24 de junio) como fecha clave. Si la hebra de lana se humedecía, el año siguiente sería lluvioso y cargado de bienes. Claro, son regiones de clima seco; allí la lluvia suele ser una bendición... casi siempre.

En Canarias se utiliza un sistema parecido, pero basado en el estado del pelo de los camellos al amanecer del día de San Román y San Odón, que es el 18 de noviembre. Si es húmedo, ya se sabe, año lluvioso. Si no, pues año normal, o sea, seco. Todavía se hace, al parecer, en la isla del Hierro...

Todo esto, volvemos a repetir, nos parece hoy ingenuo, si no pueril. Y sin duda lo es. Pero fue muy usado desde antes incluso de la Edad Media, y la tradición se ha mantenido, por curioso que nos parezca, hasta hoy: ya hemos visto que algunas de estas prácticas sobreviven en el mundo rural centroeuropeo y español, aunque lo más probable es que las gentes del campo sólo se lo crean ya a medias. Después de todo, el Meteosat es mucho Meteosat...

1.2.3. Los poderes astrales

Los antiguos mostraron el camino de la relación, que les parecía obvia, entre lo que ocurría en el cielo y... lo que ocurría en el cielo. Hoy distinguimos los distintos niveles atmosféricos —medidos en kilómetros, quizá centenares de kilómetros en las zonas más exteriores—, de los distintos niveles cósmicos —medidos en muchos millones de kilómetros para el Sol y los planetas, y en muchísimos billones de kilómetros para las estrellas—. Pero para los antiguos todo ello ocurría... en el cielo. Y los astros y las nubes, por ejemplo, sin duda tenían que tener orígenes comunes; todo el asunto consistía en determinar esas relaciones.

No pensaban que el asunto de los astros y la meteorología fuera, pues, un método mágico sino que lo consideraban como lo más selecto y granado de la ciencia en su tiempo. Un tiempo de hace varios milenios, claro. Pero esas ideas cristalizaron en las civilizaciones posteriores, y la relación entre los fenómenos atmosféricos y el estudio de los astros acabó siendo todo un dogma de fe. La prueba, lo que le sucedió al prudente Copérnico y a los bastante menos prudentes Giordano Bruno y Galileo Galilei.

La actividad predictiva —y no sólo en cuestiones meteorológicas— basada en la observación del mundo de los astros permitió a los antiguos determinar las fechas de los eclipses, equinoccios, solsticios... Y, abusivamente, intentaron predecir igualmente el destino de los hombres, de los reyes, de las batallas. Esta rama de adivinación puramente esotérica nada tiene que ver con la ciencia. Pero, al igual que la predicción científica del movimiento de los astros ha hecho avanzar enormemente a la astronomía, la predicción esotérica del destino de las personas según la disposición de los astros en el cielo se ha convertido en una actividad mágica desprovista del menor indicio de seriedad. Lo curioso es que hoy la astrología sigue difundiendo sus confusos horóscopos para predecir el destino de las gentes, pero ya no se atreve a predecir el tiempo atmosférico porque, una vez más, el Meteosat es demasiado poderoso. Ya se comprenderá que cuando aludimos al Meteosat estamos englobando a la actividad meteorológica científica de hoy...

En el pasado, la astrología gozó del favor de algunos de los mejores pensadores de la humanidad, tanto de la Antigüedad clásica, ya lo hemos visto de pasada, como de épocas posteriores y, sobre todo, del mundo renacentista. Incluyendo a figuras como Kepler o Newton; insistir en ello quizá sea un indicio casi inconsciente por nuestra parte del asombro que nos produce el hecho de que mentes tan poderosas cayeran en errores tan obvios, sin duda debido al peso de la tradición, mucho más poderosa de lo que parece en todos los órdenes de la vida.

Conviene recordar que los saberes eruditos antiguos, refugiados al llegar la Edad Media en los conventos o, de manera más dispersa pero bastante más eficaz, en el mundo árabe, tomaban casi como doctrina suprema al conjunto de la obra aristotélica y ptolemaica; en temas astronómicos, por supuesto, pero también por lo que a la atmósfera y el tiempo meteorológico se refiere. Partiendo de los parapegmas y otras predicciones basadas en los astros, propias del mundo grecolatino, resulta lógico que se mantuviera, incluso mitificada, la tradición de la adivinación (palabra que viene de divinidad, subrayémoslo, y que tiene que ver, por tanto, con la interpretación de los designios de los dioses) meteorológica basada en los astros.

Astrología y meteorología siempre se llevaron bien a lo largo de los cuatro milenios largos de civilización humana, desde el mundo mesopotámico (y egipcio, grecolatino y europeo) hasta hoy, pero también en muchas otras culturas antiguas, tanto americanas como asiáticas. Algunos ilusos proclaman hoy que, precisamente por ello, «algo» tendrán de cierto. Pero el criterio de antigüedad o universalidad a la hora de defender una idea no vale gran cosa, en ausencia de demostración acerca del cómo o el porqué de sus causas, o bien si no resulta aceptable a la luz de lo que hoy la sociedad se exige a sí misma. La esclavitud, incluso el canibalismo, y por supuesto las guerras por muy diversos motivos, generalmente fútiles, han sido universales durante épocas muy prolongadas de la historia de la humanidad; las guerras siguen siéndolo, es triste reconocerlo. Pero no por ello son defendibles ni justifican ninguna otra conducta al respecto... Lo mismo que la astrología que, por muy antigua que sea, carece igualmente de base racional alguna, aunque obviamente no tenga nada que ver con la crueldad de las otras conductas.

Sin duda, el tránsito de las Pléyades en el cielo o la posición relativa de los canes de Orión en el cielo estrellado —por cierto, ¿qué hacían los antiguos si se daban muchas noches nubladas seguidas?— poseen un lado romántico y estético de indudable potencia. Incluso eso de otorgarle al planeta Venus un carácter benéfico y prolífico —al fin y al cabo, es la diosa de la belleza y el amor— resulta mucho más poético que la realidad horrible de un planeta infernal, con una densa y corrosiva atmósfera a más de 400 grados de temperatura y presiones que aplastarían a los seres vivientes, si es que allí pudiera haberlos... Venus es un planeta demoníaco, no un lucero brillante y benevolente ligado a la diosa del amor.

Y aún resulta más impresionante el uso que los navegantes le dieron, y aún le siguen dando a pesar del GPS, a las estrellas para situarse en medio del mar cuando la costa no es visible. Ésa sí fue una manera racional de usar la posición de los astros en el cielo nocturno, sobre todo cuando se inventaron aparatos ópticos de observación más precisa, desde los simples astrolabios, cuadrantes y ballestillas, hasta los nocturlabios y sextantes más sofisticados.

El problema de la latitud geográfica se determinaba con más que aceptable precisión gracias a la observación de la altitud de una estrella, comparándola con la existente en el puerto de partida. En cambio, la medida de la longitud depende de la calidad de un buen reloj embarcado, que debía ser inmune al movimiento del barco; aquí los astros no sirven de ayuda, y hubo que esperar hasta el invento del cronómetro marino por John Harrison, en el siglo XVIII para medir con efectividad la longitud. Con esa medida, Colón nunca hubiera pensado que llegaba a Asia cuando todavía le faltaba por recorrer un buen trecho hacia el oeste, casi medio mundo...

Lo curioso es que los marinos de la Edad Media, e incluso los de la Edad Moderna, en sus singladuras hacia el Nuevo Mundo a partir de los siglos XVI y XVII no sólo usaban las tablas de posición de los astros para situarse en alta mar sino que también disponían de otras tablas que, en función de las estrellas, indicaban el tiempo atmosférico que se esperaba y, en particular, la llegada de los temporales destructores o bien de la no menos temida calma chicha. Incluso Colón utilizó esas tablas astrológico-meteorológicas para la predicción del tiempo en sus diversos periplos.

O sea, que esa forma de meteorología basada en los astros, aplicada a la predicción del tiempo futuro tuvo, e incluso sigue teniendo ahora, una muy buena acogida entre las gentes del campo y de la mar. Como hoy le ocurre a alguna otra pseudociencia —por ejemplo, la homeopatía o la parapsicología—, la llamada astrometeorología está inmersa en cierto contexto psicosocial que le otorga una apariencia un poco más «científica» que la de otras adivinaciones que cuesta más tomar en serio.

Quizá por eso gozó del favor de grandes nombres de la ciencia. Sin ir más lejos, uno de los mejores y más precisos observadores del cielo estrellado del Renacimiento en la segunda mitad del siglo XVI, el astrónomo danés Tycho Brahe (1546-1601), publicaba regularmente sus predicciones meteorológicas basándose en los escritos de los antiguos y en sus propias apreciaciones. Más tarde, Johannes Kepler (1571-1630), aunque era copernicano convencido y fue capaz de enunciar las tres famosas leyes del movimiento planetario y la teoría de que la gravitación lunar tenía que ver con las mareas, también publicó tablas astrometeorológicas. Ya ha quedado dicho que incluso Isaac Newton creía en el poder predictivo de la astrología, incluyendo obviamente el tiempo atmosférico.

Sólo hubo un sabio, anterior a ellos y en plena confusión medieval sobre estos temas, que negó de manera rotunda esa validez de los pronósticos astrológicos, muy especialmente en el campo de la meteorología: Nicole Oresme (1325-1382). Algunos le han apodado como el «Einstein del siglo XIV» porque fue, en efecto, un sabio muy adelantado para su tiempo, que defendía vehementemente las relaciones físicas de causa a efecto, y declaraba, por ejemplo, que sólo podría predecirse el tiempo cuando hubieran sido descubiertas las reglas exactas que gobiernan el movimiento del aire, de las nubes y de los demás meteoros. En uno de sus libros, el Tratado del cielo y del mundo, ya anticipaba lo que luego Copérnico escribiría dos siglos después, y además explicaba algunos fenómenos atmosféricos —ópticos, como el arcoíris o el relámpago; sonoros, como el trueno; mecánicos, como el viento...— en función de la interacción energética del aire y del agua en la baja atmósfera.

Fue una lástima que Oresme no fuera difundido y que sus escritos pasaran relativamente desapercibidos; al menos, en contraste con la autoridad de la que gozaron, durante demasiados siglos quizá, los escritos de Aristóteles y Ptolomeo.

Por cierto, la astrología meteorológica llevó a ciertas predicciones quizá más absurdas aún que la propia ciencia que las sustentaba. Por ejemplo, el hecho de creer que si el día de Navidad caía en viernes, por ejemplo, el año siguiente iba a ser propicio debido a que viernes viene de Venus (dies veneris, en latín), que por supuesto era una diosa benéfica. O sea, que a partir de una diosa mitológica, un día de la semana arbitrariamente llamado así, un día de Navidad que representa el día en que nació, supuestamente, Jesucristo (que en realidad nació en otro momento del año, probablemente a comienzos del otoño)... No importa: con todo ese conglomerado de inventos es posible, según el día de la semana en que caiga la Navidad, predecir cómo va a ser el año siguiente desde el punto de vista meteorológico.

Te lo crees, y punto.

Así lo recoge Joan Amades en su libro en catalán Astronomia i meteorologia populars, editado en 1993. Por la misma razón —o sea, porque sí—, también era creencia arraigada que si la Navidad caía en domingo, el año sería seco y con malas cosechas. El domingo, aunque es el día del Señor —Domine, en latín—, es también el día del Sol —por eso los ingleses dicen «sunday»—. Pero conviene recordar que el Sol es un astro caliente y seco. O sea, que si la Navidad cae en domingo, o sea en un día dominado por el sol, pues ya está: el año que viene será seco y, por tanto, malo para el campo. Todo vale a la hora de predecir... sin base alguna. Los refranes, siempre al quite, corroboran esta creencia; por ejemplo: «Navidad en domingo, vende los bueyes y échalo en trigo».

En su Lunario y pronóstico perpetuo general y particular, de 1594, el astrólogo y matemático valenciano Gerónymo Cortés (m. 1613) da cuenta de estas y muchas otras predicciones meteorológicas basadas en los astros, en el calendario, en la mitología, en las fiestas religiosas o paganas... Todo parecía servir. Pero como hacía intervenir a los astros y también, por supuesto, a las fiestas religiosas —especialmente una de las más señaladas, la Navidad—, gozaba de una pretensión de seriedad de la que carecían otros sistemas de adivinación bastante más «mágicos».

En la misma línea, Diego de Torres y Villarroel (1694-1770), autor satírico donde los haya pero, al mismo tiempo, gran aficionado a la astrología y la adivinación, sobre todo en sus años mozos, publicaba en sus almanaques y revistas futurológicas las predicciones anuales del tiempo bajo el pseudónimo «El Gran Piscator de Salamanca». Tuvo un enorme éxito, aunque es más que probable que no acertara gran cosa; claro que lo mismo podría decirse del Calendario Zaragozano, y sin embargo ahora, en pleno siglo XXI, sigue gozando de una salud más bien boyante...

Quizá el compendio de todos esos supuestos saberes meteorológico-astrológicos lo constituya un extenso tratado escrito y editado en Lisboa en 1632, de la mano del cosmógrafo luso Antonio de Nájera: Summa astrologica y arte para enseñar a hazer pronósticos de los tiempos. En realidad, se limita a recoger la mayoría de las ideas de Ptolomeo, añadiendo algunas cosas de origen oriental como las «mansiones lunares» o la «apertura de las puertas». También incluye un intento de cuantificación de las fuerzas que los planetas ejercen sobre nosotros y sobre la naturaleza y, quizá lo más valioso, numerosos refranes, dichos y afirmaciones populares en torno al asunto de la atmósfera y sus cambios.

En ese mismo siglo XVII un agustino valenciano, Leonardo Ferrer, escribe un libro sorprendente, Astronomía curiosa y descripción del mundo superior e inferior, en el que la predicción del tiempo se vincula directamente al zodíaco y ciertos astros. Y así, afirmaba, por ejemplo, que la posición relativa de Mercurio y Júpiter era la que estaba detrás del origen de la tramontana.

Si bien se mira, como en última instancia el confuso mundo de la astrología no es más que una forma de «calendariología» —ya quedó dicho anteriormente—, no es de extrañar que el calendario mismo (o sea, la sucesión de fechas que se repiten regularmente año tras año, asociadas o no a alguna figura importante del santoral o a algún suceso notable como el solsticio o el equinoccio) haya servido también, y desde antiguo, para predecir el tiempo.

Sin ir más lejos, todo el mundo conoce la fiesta de la Candelaria, aunque casi nadie sepa el porqué de ese nombre. Es el 2 de febrero, celebración de la Purificación de Nuestra Señora. Durante mucho tiempo lo usual era realizar una pequeña procesión nocturna con velas, o sea, candelas. Pero la que portaba el oficiante era una candela especial: si en el transcurso de la ceremonia no se apagaba eso quería decir que lo que quedara de invierno habría de ser todavía muy duro. Si se apagaba, quería decir que lo peor ya habría pasado. Lo curioso es que esa vela se guardaba luego porque habría de servir como amuleto para conjurar los daños provocados por las tormentas... del verano siguiente.

Y ésa es la tradición que recoge, de manera florida y abundante, el refranero en torno a la Virgen de las Candelas, o Candelaria; más adelante lo veremos. Por cierto, un residuo de aquella tradición, bastante más mágica que religiosa, quedó bajo la forma de bendición de todas las candelas que habrían de usarse a lo largo del año, que así protegerían de los malos espíritus a las casas en las que fueran utilizadas (antes de la llegada de la luz eléctrica, claro).

También el Domingo de Ramos era una fecha señalada como propicia para la predicción del tiempo. Durante la misa, lo normal era que, más o menos a la mitad, los asistentes salieran a la puerta para observar el estado del tiempo en ese momento, porque ése sería el tiempo predominante en el año siguiente. En algunos sitios, por ejemplo en Navarra, el momento elegido debía ser el canto del Evangelio de la Pasión, y sólo los hombres salían del coro para observar el tiempo; las mujeres debían quedarse rezando...

La Nochevieja era igualmente una fecha notable; en zonas de cereales, los campesinos colocaban esa noche, en la parte exterior de la ventana, granos de la cosecha anterior. Si los primeros pájaros que acudían eran pequeños, podía esperarse un año favorable. Pero si aparecían aves de mayor tamaño, y sobre todo córvidos, el año se presentaba bajo auspicios nada propicios; quizá porque los cuervos, por ser negros, siempre fueron tenidos por pájaros de mal agüero. Aunque se suele decir que son las más listas de las aves, e incluso bastante más que muchos mamíferos...

Todas estas cuestiones pueden dar mucho más de sí, ya que nos han llegado mayoritariamente gracias al compendio popular que suponen los refranes, además de las prácticas todavía en vigor de las Cabañuelas, las Témporas y otros sistemas populares. También es cierto que existen tratados y documentos conservados desde antes de la Edad Media y luego en siglos posteriores, de tal modo que los textos y la tradición oral se unen para darnos abundantes muestras de la forma en que se expresaba popularmente el saber de las distintas civilizaciones en torno a la predicción del tiempo.

1.2.4. Cabañuelas y Témporas

De los refranes y su relativa seriedad climatológica, asociada esencialmente al calendario de labores rurales y marineras, trataremos en el siguiente capítulo. Pero en cuestiones de magias y adivinanzas meteorológicas no podemos terminar este apartado sin analizar con cierto detalle las Témporas y las Cabañuelas que, conviene repetirlo para los incrédulos, siguen gozando de notable popularidad. De hecho, en muchas zonas rurales, y no sólo de España, su autoridad suele ser aceptada por tratarse de «prácticas muy antiguas que, de no cumplirse, no hubieran sobrevivido»; al menos, eso aducen sus defensores en numerosas páginas que se pueden consultar en Internet. Como si ese argumento fuera aceptable... Basta recordar que la tradición, el principio de autoridad y la revelación son los tres pilares poderosos sobre los que se asientan las creencias, pero obviamente no la ciencia.

Las Témporas están esencialmente ligadas a las estaciones —el término viene del latín tempus, tiempo— y se calculan en determinados días ligados a fiestas religiosas muy señaladas, como Pentecostés o Cuaresma; una vez más, la magia de la calendariología, aquí reforzada por su alianza con la religión. Así, las de primavera —también llamadas Témporas primeras— se calculan en función del tiempo que hace el miércoles, viernes y sábado de la segunda semana de Cuaresma. Las de verano, o Témporas segundas, se analizan el miércoles, viernes y sábado de la primera semana después de Pentecostés. Las Témporas de otoño (terceras) el miércoles, viernes y sábado siguientes al 14 de septiembre, fiesta de la Exaltación de la Santa Cruz. Pero si ese día 14 cae precisamente en miércoles, entonces se toman el miércoles, viernes y sábado de la semana siguiente. Finalmente las Témporas de invierno (cuartas) se calculan en función del tiempo que hará el miércoles, viernes y sábado siguientes al 13 de diciembre, día de Santa Lucía. Como antes, si ese día cae en miércoles, entonces serán el miércoles, viernes y sábado de la semana siguiente.

Para predecir el tiempo de todo un trimestre en función del que hace en sólo tres días se suelen observar diversos parámetros de dichos días y se supone que ésos serán los que dominen en los meses siguientes. Todo ello resultaba de especial trascendencia para labores que pueden o no adelantarse en función del tiempo que hará, como por ejemplo la vendimia. Si se prevén heladas anticipadas, es mejor adelantar la fecha de recogida de la uva para no perder parte de la producción.

El método predictivo de las Témporas se diferencia del de las Cabañuelas en que aquéllas se basan en la Luna; las referencias a las fiestas religiosas sólo reflejan la necesidad de acoplarse al calendario religioso para no ser consideradas predicciones heréticas o, peor aún, demoníacas o brujeriles. Como es sabido, Pentecostés es una fiesta religiosa que tiene que ver con la Pascua, ya que cierra precisamente el tiempo pascual, siete semanas después de aquella fiesta. Y la Pascua tiene lugar el domingo siguiente a la primera Luna llena de primavera del hemisferio norte, cerrando la Semana Santa. En cuanto al período de Cuaresma, incluye los cuarenta días anteriores a la Pascua, que comienza el Miércoles de Ceniza y concluye la noche del Jueves Santo. Por cierto, el día anterior a ese período de austeridad es el Martes de Carnaval (del latín caro levare, evitar la carne) o martes de carnestolendas (que procede igualmente del latín carnes tollendas, que significa más o menos lo mismo, carnes suprimidas), cuando se relajan las costumbres para luego hacer penitencia en Cuaresma.

El significado, mitad pagano, mitad religioso, de todas estas festividades justifica por qué se le atribuye a ciertas fechas señaladas del calendario litúrgico un carácter predictivo para el año siguiente; pero nadie explicó nunca el porqué de esa extraña virtud... En realidad, y salvando todas las diferencias culturales y religiosas, estos métodos se pueden asimilar a otros ritos predictivos de carácter bastante más festivo, como el Día de la Marmota que indicará si el invierno se ha acabado o no, o el absurdamente famoso pulpo que se supone que predice resultados deportivos.

Las Cabañuelas constituyen un sistema predictivo con la misma ausencia de fundamento, pero curiosamente están extendidas por todas partes, incluso hoy, en pleno siglo XXI. Las Témporas suelen ser tomadas como cosas de viejos, pero las Cabañuelas siguen siendo tomadas en serio. Sorprendente, sin duda, a poco que se indague en qué consisten: se basan en el análisis del tiempo que hace durante doce días seguidos, en medio del verano o en diciembre, haciendo luego corresponder cada uno de esos días con los correlativos meses posteriores, con lo que se obtiene en doce días una predicción del tiempo para los doce meses del año siguiente.

Existen diversas «escuelas» cabañuelísticas, y son bastante populares en muy diversos países europeos. En España competían antiguamente con las Témporas, sobre todo en las regiones del norte, pero hoy se puede decir que son el único sistema predictivo calendariológico superviviente. En Canarias tienen su propio sistema basado en la observación del mar, que llaman Cabañuelas de los Marineros.

Este antiguo método es tan popular que en cada sitio lo llaman de una manera; en castellano se llaman también cabanillas, cabichuelas, caniculares, calandrias, cariñuelas, signos... En las regiones de idioma catalán y valenciano, cabanelles, tretzenades, cabanyoles, caniculars, es compte de Salomó... En inglés se llaman The twelve nights y en francés incluyen este método predictivo dentro de su famoso Calendrier Rural Traditionnel, tan popular o más que nuestro Calendario Zaragozano. En Francia goza también de cierta notoriedad un tipo de calendario para predecir el tiempo que se basa en los astros y en los... ¡ángeles! Se llama, claro, Calendrier Astro-Angélique. También existen las cabañuelas en América del Sur, donde usan el mes de enero. E incluso en la India, donde efectúan las predicciones también en invierno, durante la estación seca.

Se supone que tomar doce días cualesquiera para obtener de ellos la predicción del tiempo que hará durante el año siguiente no es cosa que deba hacerse a la ligera. Por eso no es de extrañar que haya diversos métodos; de momento consignaremos algunos de ellos, para solaz del lector curioso:

1. Los doce primeros días del año

El día 1 correspondería a enero, y así sucesivamente. Se toman como base de la predicción sólo las horas con luz solar, no la noche. Este método se usa mucho en Aragón y parte de Castilla, aparte de Francia y la mayor parte de América del Sur.

2. Los doce primeros días de agosto

El 1 sería enero, y así sucesivamente. Es el método más utilizado en el centro y sur de la península Ibérica: son las cabañuelas directas, o maestras.

3. Cabañuelas inversas, o retorneras, o barruntos

Lo mismo que antes, pero al revés, partiendo del último día de las cabañuelas directas. En agosto comenzarían el día 13, que correspondería al mismo mes que el 12 (diciembre), y así sucesivamente.

4. Cabañuelas de Navidad y Santa Lucía

El método es el mismo, pero tomando como ciclo de predicción los doce días que van del 13 de diciembre, Santa Lucía, al 24, que es Nochebuena. El día de Navidad no cuenta, y a partir del 26 se toma el ciclo inverso hasta el 6 de enero. Se interpretan luego a gusto del consumidor..., perdón, del adivino experto.

Lo de tomar el día de Santa Lucía parece arbitrario, pero en realidad es un anacronismo y procede de la época medieval en que el retraso adquirido por el calendario juliano hacía que el solsticio de invierno no fuese el 21 sino bastantes días antes; en los siglos XV y XVI esa fecha rondaba precisamente el 13 de diciembre, que es la fiesta de la santa patrona de los ciegos. El cosmógrafo y marino sevillano —aunque nacido en Valladolid— Rodrigo Zamorano (1542-1623) escribe en uno de sus tratados, Cronología y repertorio de la razón de los tiempos, que «las verdaderas cavañuelas son las que toman los doze días que siguen al solsticio de invierno», que en esa época era el 13 de diciembre (fue escrito a finales del siglo XVI pero muy poco antes de que el papa Gregorio XIII impulsara, en 1582, su reforma del calendario juliano, reintegrando el solsticio al día 21). Pero Santa Lucía se había convertido en una fiesta popular, casi mítica. Y, además, lo es en todas las latitudes de tradición cristiana (recuérdese la famosa fiesta sueca en Suecia, cuando las niñas se visten de blanco y portan una corona con siete velitas).

Con todo, no está de más recordar que la santa vivió en Siracusa a finales del siglo III, en época de Diocleciano. Dice la leyenda que, perseguida por su fe, la torturaron sacándole los ojos, pese a lo cual ella seguía viendo; por eso es la patrona de los ciegos.

5. Cabañuelas de la Luna de octubre

Dice el refrán que «siete lunas cubre, y si llueve, nueve». Estas cabañuelas difieren de las anteriores en que no aplican la predicción de un día a todo un mes, sino que hay que interpretar el tiempo que hay durante la luna de octubre y aplicarlo a los meses que siguen. El porqué de ese supuesto poder predictivo de la Luna en octubre es difícil de explicar; algunos historiadores piensan que la primera Luna llena después del equinoccio quizá sirviese para iluminar el camino de los pastores o viajeros que se encaminaban al sur, huyendo de los fríos del norte que ya se barruntaban.

6. Cabañuelas de la India y de Babilonia

En el Rig Vedá, el libro sagrado en sánscrito de la época védica —de 1500 a 330 a.C.—, uno de sus himnos hace referencia a la predicción del tiempo del año siguiente a partir del tiempo que hubiera hecho en los doce días del centro del invierno.

En cuanto a Babilonia, en tiempos de Hammurabi, en el siglo XVIII a.C., y sin duda también mucho más tarde, el ceremonial del Año Nuevo o Akitu duraba doce días, y se celebraba el Zamhuk, la Fiesta de la Suerte, cuando se elaboraban las predicciones del tiempo para el año recién estrenado.

Y, ya que lo hemos citado anteriormente, no podríamos terminar este capítulo sin referirnos al Calendario Zaragozano. Digamos antes que nada que se llama así en honor a un astrónomo español del siglo XVI, Victoriano Zaragozano y Gracia, que al parecer redactaba almanaques con referencias astrometeorológicas, en directa competencia con el astrónomo valenciano ya citado, y contemporáneo suyo, Gerónymo Cortés. Fue otro astrónomo, Mariano Castillo —se autoproclamaba «el Copérnico español»—, quien inició casi tres siglos después la publicación del más famoso de nuestros calendarios adivinos, en 1840; y lo llamó Zaragozano en honor a aquel antecesor suyo, aunque cabe la duda de si era una dedicatoria interesada debido a que él mismo había nacido en Villamayor, provincia de Zaragoza. El caso es que desde hace 170 años se viene publicando sin interrupción el famoso calendario.

Además de los datos normales en cualquier calendario —meses, fechas, festividades, fases de la Luna y cosas así—, incluye las predicciones del tiempo, a menudo ligadas a la Luna o bien referidas a las Témporas o a las Cabañuelas; esas predicciones, siempre confusas, imprecisas e incluso contradictorias, han llegado a gozar de enorme popularidad. El Calendario Zaragozano lleva por subtítulo «Juicio Universal Meteorológico y Calendario, con los pronósticos del tiempo, santoral completo y ferias y mercado de España». Ahí es nada.

Bien, la pregunta que surge inevitablemente después de todo lo visto hasta ahora podría ser la siguiente: ¿tiene todo esto sentido en pleno siglo XXI, cuando los satélites y los ordenadores nos muestran el comportamiento de la atmósfera con un detalle inusitadamente preciso?

Pues, en realidad, parece que sí. Tiene el mismo sentido... que la astrología que aparece, en forma de horóscopos o incluso de artículos especializados, en casi todos los periódicos y revistas, y en todos los canales televisivos en sus emisiones de madrugada. O los curanderos que siguen estando en boga, y no sólo en los pueblos pequeños. Sin contar con los demás engañabobos que ejercitan sus pseudociencias o simplemente autoproclaman sus poderes mágicos cuasidivinos.

Claro que no habría tanto engañabobos si no hubiese tantos bobos por engañar...

1.3. ¿Sabiduría popular?

1.3.1. Calendarios y almanaques

Desde muy antiguo, la forma de relacionar la temperie, por seguir nuestro empeño en resucitar un término olvidado, con el transcurrir del tiempo cronológico se basó en los relojes naturales a disposición del ser humano, en particular el Sol, la Luna y quizá las estrellas. Desde el momento en que cada año se repiten más o menos unas condiciones atmosféricas bastante parecidas, sobre todo las más trascendentes para sobrevivir, no fue difícil asociar determinadas épocas, incluso alguna fecha concreta, con algunos de los principales sucesos meteorológicos.

La medida del tiempo cronológico pudo, pues, ofrecer valiosas informaciones, anualmente repetitivas acerca del devenir de la temperie. De ahí la enorme importancia que tuvieron los primeros calendarios y almanaques, generadores de métodos populares de predicción que eran inmediatamente asociados a determinadas fiestas, paganas o religiosas, con las que en los albores de la civilización los humanos celebrábamos... sencillamente el hecho de estar vivos. Una característica exclusivamente humana, dicho sea de paso.

La palabra calendario viene del término del latín kalendas, que eran los primeros días de cada mes. Los romanos agrupaban los días en meses lunares, que comenzaban el primer día después de la noche de Luna nueva; ése era precisamente el día de la calenda. Por ejemplo, el 1 de abril se decía en latín kalendis aprilis. Fiesta que, por cierto, celebran actualmente, y desde hace unos años, en la localidad murciana de Fortuna, en una cueva cercana que tiene pinturas romanas. Para no coincidir con la Semana Santa, en lugar del 1 de abril suelen celebrar la fiesta el fin de semana siguiente al Domingo de Resurrección; todo sea por tener nuevas fiestas con las que hacer más grata la vida...

La palabra kalenda seguramente procede del verbo latino kalare, gritar. El primer día de cada mes, siempre después de la Luna nueva como hemos visto, era festivo y se celebraba una procesión y un sacrificio animal en honor a la diosa Juno; la procesión recorría las calles con un kalator al frente, que avisaba a voces de que era fiesta y no había que trabajar. Probablemente, al volver de la procesión ese mismo kalator se convertía en cobrador de tributos —en latín, kalendarii curator— porque anotaba las deudas y los intereses en unas tablillas que se llamaban, obviamente, kalendarii (plural de kalendarium). El verbo reclamar —como clamar, proclamar, exclamar, declamar...— procede de la raíz indoeuropea kla, de la que derivó el latín klamare y luego kalare.

Todo esto significa que los primeros calendarios así nombrados sólo eran libros de cuentas referidos a los impuestos y las deudas contraídas por préstamos, mes a mes, y no la sucesión de fechas, días y meses de ahora.

Desde luego, los romanos no inventaron los calendarios, aunque podríamos decir que sí dieron origen al nombre que hoy les damos. Mucho antes, otras civilizaciones habían recurrido a la observación de las estaciones y su relación con el movimiento aparente del Sol en el cielo, día tras día. En el mundo mediterráneo, los egipcios y los mesopotámicos, y luego la Grecia clásica. En otras civilizaciones, en China y su entorno o bien en las civilizaciones precolombinas también tenían sus propios calendarios. Lo supimos cuando se dijo que el 21 de diciembre de 2012 se acabaría el mundo según una profecía del antiguo calendario maya. Hubo sus bromas al respecto, claro, pero también quien se lo tomó tan en serio que hasta la sesuda NASA intervino en el asunto negando formalmente que eso fuera a ocurrir. Suena exagerado, sin duda; ¿no tiene la NASA cosas mejores que hacer?

Veamos, en todo caso, de forma breve cómo fueron las diversas formas de medir el tiempo de aquellas civilizaciones tan lejanas ya en el tiempo.

Ante todo, cabe decir que los primeros calendarios, quizá incluso en épocas prehistóricas, se basaron en las fases de la Luna, los meses lunares. Ya hemos visto que así era también el calendario romano. Parece lógico; se trata de un ritmo repetitivo y constante (al menos, a escala de siglos, incluso milenios, aunque no lo sea en intervalos de tiempo superiores). Se han documentado calendarios lunares mesopotámicos y egipcios con más de cuatro mil años de antigüedad. Pero en algunas fases de la historia de Babilonia, se corrigió la dificultad de esos calendarios lunares —debido a que no hay un número exacto de meses lunares en un año, siempre sobran unos cuantos días— mediante la adopción de un calendario solar en base a doce meses de 30 días cada uno. Eso supone 360 días, por lo que también aquí sobran días aunque sólo cinco y pico cada año, no casi medio mes como en el caso de los meses lunares.

Con algunas variaciones, ese mismo proceso de combinación lunisolar se dio en China y otras regiones de Asia. Y también en el mundo egipcio, hasta que en el año 238 a.C. el faraón Ptolomeo III ordenó añadir un día más cada cuatro años. Casi como los calendarios modernos de hoy. No era exacto del todo, pero fue una mejora sustancial.

En la Grecia antigua seguramente fue trasvasado el calendario mesopotámico, que luego fue poco a poco modificado. También en el mundo romano primitivo tenían su propio calendario, pero ya en la época de Julio César, unos años antes de nacer Jesucristo, se veía que era imprescindible una reforma que hiciese coincidir los meses con las labores agrícolas —es decir, con los cambios atmosféricos en cada estación.

Los antiguos egipcios habían comenzado a utilizar hace más de cuatro mil años un calendario solar muy exacto basado en la salida poco antes del amanecer de la más brillante estrella, Sirio. Eso les permitió calcular con exactitud lo que hoy llamamos año sidéreo: 365,2564 días. O sea, doce meses de 30 días, más cinco días que se añadían al final como festivos. Como se perdía un día cada cuatro años, eso iba retrasando las fechas hasta que volvían a coincidir unos 1.460 años después; y aun eso es aproximado porque con tantos decimales en las cifras es imposible una coincidencia absolutamente exacta...

Antes de seguir adelante, y como las dos nociones de año sidéreo y año trópico van a ser citadas en más de una ocasión, aprovecharemos para recordar las diferencias que hay entre uno y otro, y las variaciones que experimentan con el tiempo. Lo que, obviamente, complica notablemente la posibilidad de que exista algún tipo de calendario que sea realmente exacto y para siempre...

El año sidéreo es el tiempo que tarda nuestro planeta en dar una vuelta completa en torno al Sol, tomando como referencia una estrella que se considera fija (ninguna lo es, aunque sí suelen serlo durante un plazo largo de tiempo). Es el dato que suelen manejar los astrónomos y dura ahora, poniendo seis decimales, 365,256363 días solares medios (también hay días sidéreos y trópicos, claro, pero se suele tomar un promedio). Eso significa que el año sidéreo dura 365 días, 6 horas, 9 minutos y 9,7632 segundos. Estos decimales en el cálculo de los segundos del día solar medio cambian con el tiempo, aunque muy lentamente, aumentando 0,01 segundos por siglo.

En cuanto al año trópico es el promedio del tiempo que tarda el planeta en darle la vuelta completa al Sol entre cada equinoccio de primavera. En ese momento exacto, el eje de la Tierra se pone perpendicular a la línea Sol-Tierra, y es un punto fijo de la órbita año tras año. El año trópico es algo más corto que el sidéreo, porque no depende de la visual de las estrellas desde la Tierra; y es que esa visual cambia un poco de año en año debido a que el eje de la Tierra va girando, dando una vuelta completa (como una peonza) cada 26.000 años. Bien, el caso es que el año trópico dura actualmente 365,242198 días solares medios, o sea, 365 días, 5 horas, 48 minutos y 45,77 segundos; y disminuye 0,53 segundos por siglo (recuérdese que el año sidéreo aumenta 0,01 segundos por siglo).

Los babilónicos de épocas remotas usaban un calendario lunar, con doce meses de 30 días (no exactos del todo, puesto que una lunación completa no llega a esos treinta días, sino que se queda en 29 días y algo más de doce horas... Sobraban, pues, al cabo del año unos cuantos días. Y eso, varios años después, suponía ya demasiado tiempo debido a que, por ejemplo, las fechas de comienzo de determinadas labores del campo —siembra, cosecha...— comenzaban ya a alejarse mucho de lo señalado por el calendario. Esperaban, pues, varios años seguidos, y luego añadían un mes suplementario, más o menos cada cinco o seis años.

Los primitivos griegos, bastantes siglos antes de Cristo, tomaron lógicamente el calendario babilónico, pero pronto hicieron una innovación: los doce meses alternaban la duración de 29 y 30 días; de ese modo los meses lunares se ajustaban muy bien, pero en cambio el total de días al año se quedaba corto: sólo 354. Es decir, unos once días. Lo que significaba añadir un mes suplementario cada tres años más o menos.

La primera corrección fue en el año 432 a.C. El ciclo metónico —en honor del astrónomo Metón de Atenas, que fue quien lo calculó— tenía en cuenta el período de 19 años en los cuales la Luna nueva vuelve a coincidir en la misma fecha. No es del todo preciso porque no son 235 lunaciones exactas sino que, en esos 19 años, sobran unas pocas horas; pero el error era pequeño, y la corrección metónica pudo valer durante varios siglos.

Muy poco más tarde, pero en el Lacio, el calendario romano primitivo, también unos siglos antes de Cristo, tenía sólo diez meses (terminaba en December, el décimo), con un total de 304 días. Duró poco, claro; por eso en el siglo VII a.C., en tiempos de Numa Pompilio (716-673 a.C., un rey de cuya existencia real dudan hoy algunos historiadores), hubo que añadir dos meses, uno delante —Ianuarius, en honor del dios Jano de los caminos y los principios— y el otro al final —Februarius, en honor de Februus, Plutón, dios de los infiernos y la muerte—. Como aun así seguía siendo muy corto, cada dos años se añadía un mes más en medio de febrero, de 22 o 23 días (Mercedonius). Pero entonces sobraban días porque el año medio era de 366 días y cuarto. O sea, que en el año 450 a.C. se comenzó a intercalar cada ocho años tres veces el Mercedonius, en lugar de cuatro veces.

Un lío, sin duda. ¡Menudo quebradero de cabeza para las gentes del campo, que era a quienes principalmente interesaba esto de los calendarios y las labores del campo ligadas a las estaciones! También suponía no poca incomodidad para la vida religiosa, debido a que las festividades en honor de unos u otros dioses no siempre coincidían con la época en que debían coincidir.

Así que fue Julio César quien liquidó de forma definitiva, cuatro siglos y pico después de esa última reforma, tan complejo sistema. César constató, en el siglo I a.C., que el desfase era ya de tres meses; de ahí la urgencia de un cambio en tan deficiente sistema.

Fue aquella reforma juliana un cambio trascendental por muchas razones pero, sobre todo, porque acabó siendo tan útil que pronto predominó en el mundo occidental. Y lo fue durante mucho tiempo, hasta finales del siglo XVI, cuando la reforma gregoriana dio origen al calendario actual.

¿Y en otras latitudes? Por ejemplo, en el mundo azteca, y gracias a la famosa «Piedra del Sol», sabemos que el calendario náhuatl se basaba en el Sol; lo llamaban xiuhpohualli, «cuenta anual» (de xiuhitl, año, y pohualli, cuenta). Constaba de 18 meses de veinte días cada uno, lo que suma 360 días. Se le sumaban al final cinco días más llamados nemontemi (días aciagos). La versión maya es conocida como haab, y el mes de veinte días se llamaba uinal; los días aciagos se llamaban wayeb. Coexistía este sistema con otro de tipo astrológico o mágico, el año ritual llamado tónalpohualli, que utilizaban por ejemplo los mexicas y que constaba de un año de 260 días (13 meses de veinte días). El siglo indígena, como lo llamaron los españoles cuando llegaron, constaba de 52 años solares o 73 años rituales.

El mundo incaico, en cambio, utilizaba un calendario lunisolar, que hacía comenzar el año en el solsticio de invierno, fecha que era señalada por un sistema idéntico al del gnomon de los griegos. En Cuzco, la capital de los incas, se había erigido un círculo de doce pilares —sucanga— colocados de tal forma que señalaban por dónde salía y se ponía el Sol en cada uno de los doce meses. El año de los incas tenía 365 días, pero estaba dividido en meses lunares; los once días sobrantes los repartían mes a mes. Comenzaba en la Luna nueva de enero; una coincidencia más entre continentes que no tenían contacto alguno...

Los chinos tuvieron, a partir de la dinastía Xia (unos 2.000 años a.C.), meses lunares, por lo que debían ajustar el calendario añadiendo un mes extra cada tres años. De hecho, este antiquísimo sistema sigue siendo usado como calendario ritual y en los festivales tradicionales. Como curiosidad añadida conviene decir que, en el año 480 d.C., un matemático chino llamado Ju Chongzchi calculó que el año duraba exactamente 365,2428 días, sólo 52 segundos más que el valor que hoy conocemos. Una precisión increíble para aquella remota época, hace más de 15 siglos...

Los japoneses utilizaron probablemente un sistema idéntico al chino en la remota antigüedad, pero luego fue imponiéndose, probablemente ya en nuestra era, un curioso calendario solar-meteorológico que dividía el año en 24 estaciones, señaladas por los 24 cambios atmosféricos más señalados del año. De la importancia tradicional de este tipo de calendario puede dar una idea el hecho de que resulta imprescindible conocer bien las estaciones para, por ejemplo, escribir los famosos poemas breves llamados haiku, que constan sólo de tres líneas y pocas sílabas por línea; los haiku, por referirse a cuestiones de la naturaleza, deben incluir la referencia a una de esas estaciones.

En fin, como puede verse, imaginar un calendario que funcione de manera satisfactoria y durante mucho tiempo no es tarea fácil. Y en defensa de aquellos formidables pensadores antiguos es de justicia reconocer que ni siquiera hoy hemos conseguido resolver el problema más o menos definitivamente. El tiempo cronológico, tan regular e inexorable como parece, no se deja cuadricular tan fácilmente; sobre todo porque si tomamos a los astros como referencia, no se trata de un sistema tan inmutable y ordenado como pensaban los griegos sino que tiene variaciones, pequeñas pero significativas, que a la larga destrozan el mejor de los calendarios.

Volviendo a Atenas, los meses de aquel sistema lunisolar bastante aceptable duraban 29 o 30 días, y se dividían en tres décadas; la primera, por cierto, se llamaba noumenia, que significa nueva Luna. Por cierto, el día comenzaba con el crepúsculo de la mañana, no a medianoche. Pero, como en lógico, los griegos no pudieron nunca utilizar el sistema romano de las calendas. De ahí la broma, ciertamente erudita, que alude a las calendas griegas, ad kalendas graecas. Significa literalmente hasta las calendas griegas, y quiere decir que esa cosa nunca se va a realizar. Cuenta el historiador Suetonio (70-140) que el emperador Augusto empleaba esa expresión para significar algún suceso imposible. Hoy utilizamos otras afirmaciones igualmente absurdas, como cuando las ranas críen pelo, o bien cuando las gallinas tengan dientes...

En todo caso, ya en nuestra era, las calendas cristianas primitivas, fiestas de Año Nuevo, gracias a la reforma de Julio César caían en invierno. Luego la fiesta fue pasando progresivamente al día de Navidad, cuando supuestamente nació Jesucristo. Ese día fue conocido hasta hace pocos siglos como la fiesta de las calendas.

No deja de ser curioso que el 25 de diciembre celebremos hoy el nacimiento del niño Jesús, porque el año comienza el 1 de enero. Y si el 1 de enero del año 1 nació Jesús, ¿cómo se explica esa semana de intervalo entre el 25 de diciembre y el 1 de enero?

Con todo, Sosígenes ignoraba que a la duración del año que él había calculado —365 días y cuarto— le sobraban once minutos y pico cada año. No son 6 horas sino 5 horas, 48 minutos y 51 segundos... Eso supone unos 1.100 minutos cada cien años: ¡18 horas y pico por siglo! No es de extrañar que en el Renacimiento, 15 siglos después, el retraso fuese de bastantes días...

En 1582, bajo el pontificado de Gregorio XIII, el equinoccio de primavera se producía bastantes días antes del 21 de marzo, lo cual era ya completamente inaceptable. En los 1.257 años de vigencia del calendario juliano, desde el concilio de Nicea, el retraso superaba ya los diez días. El papa se basó en un comité de expertos, que a su vez se guió por el contenido de un librito escrito por un matemático italiano, Luigi Lillio. Tras consultar con los príncipes de la iglesia y con los reyes cristianos, Gregorio XIII promulgó una bula llamada Inter gravissimas (las bulas se nombran con las primeras palabras del texto que, en este caso concreto, eran las siguientes: Inter gravissimas pastorales officii nostro curas..., que significa más o menos que «Entre las muy nobles tareas de nuestro ministerio pastoral...»). La bula decidía que el día siguiente al jueves 4 de octubre de 1582 sería el viernes 15, en lugar del viernes 5. Precisamente esa noche murió, en Alba de Tormes (Salamanca), santa Teresa de Jesús. El hecho de que el día siguiente fuese 15 de octubre y no 5 ha sido considerado por muchos como un signo revelador de la singularidad de su figura.

También se ratificó contar los años desde el nacimiento de Cristo (el 1 de enero del año 1 de nuestra era), costumbre que se practicaba en el mundo cristiano desde que en 527 el monje Dionisio el Exiguo determinó que Cristo había nacido el 25 de diciembre del año 753 ab urbe condita. De ahí que se feche la reforma juliana en el año 46 antes de nuestra era (707 ab urbe condita). El lío entre el 25 de diciembre y el 1 de enero se hace aquí bien patente.

Pero hay más complicaciones. Porque cuando Gregorio XIII aceptó la fecha ya se sabía que era errónea en al menos 4 años. En suma, ni Jesucristo nació en el año 1 sino antes, ni sabemos tampoco si fue el 25 de diciembre o el 1 de enero. De hecho, las últimas investigaciones parecen indicar que nació al final del verano, seguramente en septiembre, y cuatro o cinco años antes del año 1.

O sea, que la era cristiana de nuestro calendario comienza el 1 de enero del año 1, que no fue ni el día ni el año del nacimiento de Cristo. Y además celebramos dicho nacimiento el 25 de diciembre; ¿no tendríamos que empezar el año el 26 de diciembre? Mejor no, claro; pero son bien curiosas estas paradojas de los calendarios...

Eso sí, la reforma gregoriana corrigió el principal defecto del calendario juliano, ya que siguen considerándose bisiestos los años múltiplos de 4, pero con la excepción de los que son múltiplos de 100 (aunque, de éstos, los múltiplos de 400 siguen siendo bisiestos). Parece lioso, pero en el fondo es bastante sencillo. Por ejemplo, el año 1900 no fue bisiesto pero sí lo fue el año 2000. Y han sido bisiestos 2004, 2008 y 2012... Pero cuando llegue, el año 2100 no será bisiesto. De este modo, en cada período de cuatro siglos sólo hay 97 años bisiestos, no 100. Y así la duración media del año es de 365,2425 días, muy próxima al año trópico real (365,2422)...

Pero, siendo rigurosos, tampoco es del todo exacta.

En realidad, la medida del tiempo mediante los distintos elementos astronómicos se complica notablemente debido a que existen toda clase de distorsiones en los distintos movimientos —que los griegos creían perfectos, como buenos pensadores desprovistos de instrumentos— de los astros unos respecto a otros. La Tierra no sólo tiene un eje que gira como una peonza cada 26.000 años aproximadamente, lo que ocasiona que los equinoccios vayan retrocediendo poco a poco; el fenómeno se denomina, por esta razón, precesión de los equinoccios, porque se van precediendo año tras año. Pero es que, además, la Tierra se bambolea en pequeños giros. Y tiene otros minúsculos movimientos irregulares causados por lejanas atracciones gravitatorias, además de que su velocidad de giro en torno a su eje, y de traslación alrededor del Sol, también varía por múltiples causas.

Tampoco el Sol se está quieto en su sitio, sino que se mueve, arrastrando con él a todo el Sistema Solar, en torno al centro de nuestra galaxia, la Vía Láctea. Y, de hecho, el Sol, la Tierra y los demás cuerpos celestes relativamente próximos sufren todos ellos pequeños movimientos parásitos derivados de las atracciones relativas con los demás cuerpos, en el Sistema Solar e incluso fuera de él.

Todo ello influye para que los días hayan sido más cortos o largos en el pasado, y para que el año fuera más o menos largo, y tuviera más o menos cantidad de días. Por ejemplo, en el Cretácico, hace 85 millones de años, la Tierra giraba sobre sí misma más deprisa que ahora, por lo que el año tenía algo más de 370 días. En el Cámbrico, hace algo más de 500 millones de años, la cosa era aún más llamativa: el año tenía 425 días... Y es que la rotación de la Tierra va disminuyendo poco a poco, por lo que el año tiende a tener menos días. Pero eso ocurre con un ritmo de millones de años; así que todos tranquilos...

Menos mal que desde que tenemos relojes atómicos podemos considerar por fin un patrón de tiempo fijo, que no depende de toda esa enorme y variable complejidad astronómica. El ajuste de estos relojes atómicos exactos a los diferentes tiempos medidos mediante parámetros astronómicos —posición relativa de la Tierra, el Sol y otros astros— es muy complejo. Pero, en realidad, para usos civiles está claro que el día solar medio —y por tanto el año solar medio— son ampliamente suficientes. Aunque de vez en cuando haya que ajustar algún segundo en la duración de un año determinado, lo que lleva a la prensa a preguntarse el porqué, con no poco asombro. La explicación es sencilla: el Universo no se deja cuadricular fácilmente, y es en cambio muy amigo de las cifras aproximadas. No es exacto, es «casi» exacto. De ahí la necesidad de contar con unidades —de tiempo, pero también de masa y otras magnitudes— independientes de cuestiones que tengan que ver con la gravitación o el movimiento de los astros.

La adaptación del calendario juliano al gregoriano que hoy predomina en Occidente no fue inmediata en el mundo europeo. La España de Felipe II lo hizo, junto a la Santa Sede, de forma inmediata, y pocos días después les imitó Portugal. Francia cambió ese mismo año de 1582, pero no en octubre sino en diciembre. Dos años después lo hicieron los católicos de Alemania y Suiza. Polonia cambió en 1586 y Hungría en 1587. Inglaterra y Suecia esperaron hasta 1752, por lo que hubieron de corregir ya once días. Y Grecia y otros países ortodoxos, entre ellos Rusia, esperaron al siglo XX. Turquía fue uno de los más tardíos: lo hizo en 1927. En Asia, China aceptó el calendario occidental en 1912; en cambio, Japón ya lo había adoptado en 1873.

Por cierto, la de la fecha de la muerte de santa Teresa no es la única anécdota que tiene que ver con el cambio de fecha de la reforma gregoriana. Por ejemplo, siempre se ha dicho que Cervantes y Shakespeare murieron el mismo día, el 23 de abril de 1616. Pero no fue así: aunque la fecha «oficial» en sus respectivos países es la misma, el bardo de Avon murió diez días después, o sea, el 3 de mayo según nuestro calendario ya reformado. Resulta que por aquella época los ingleses aún no habían adaptado su calendario —lo hicieron en 1752, como acabamos de ver— como sí lo habíamos hecho en España, y mantenían los diez días y pico de desfase. O sea, que, en realidad, Cervantes murió diez días antes que Shakespeare.

En nuestro calendario, tan arbitrario como todos los demás pero absolutamente predominante hoy en el mundo occidental y en parte del mundo oriental, ya hemos visto que el primer año comenzó el 1 de enero del año 1 (no existe el año cero porque cero, por definición, es nada; se trata de un instante que sirve de punto de partida y que no podría, por tanto, durar todo un año). Ése es el momento origen del calendario —punto cero—. Ese primer año de nuestra era terminó a las 12 de la medianoche del 31 de diciembre. El siguiente año fue el año 2, o sea el segundo de la era. El primer siglo había comenzado, obviamente, el 1 de enero del año 1 y terminó al final del año 100. El segundo siglo comenzó el 1 de enero del año 101, y así sucesivamente. Por esa razón carecía de fundamento alguno el hecho de festejar el cambio de siglo (y de milenio) al comienzo del año 2000. Lo suyo era celebrarlo en el momento de la transición entre el año 2000 y 2001, es decir, a las cero horas del 1 de enero de 2001. El siglo XXI comenzó el 1 de enero de 2001. Todos los siglos terminan al final del año terminado en 00, y comienzan al inicio de los años terminados en 01.

Un calendario excepcional en el mundo occidental, en realidad poco usado a causa de las inevitables relaciones internacionales unificadoras, es el del actual estado de Israel. Procede del antiguo calendario hebreo y tiene finalidad estrictamente religiosa. Es de tipo lunisolar, basado en meses de 29 y 30 días. Cada tres años se intercala un mes extra, llamado embolísmico (sin duda, basándose en el calendario ateniense reformado por Metón). Su punto de partida es el 7 de octubre del año 3761 a.C., que es el año de la creación del mundo calculado más o menos fielmente según el relato bíblico recogido en la Tora, el libro sagrado hebreo equivalente al Pentateuco del Antiguo Testamento cristiano.

El 17 de septiembre de 2012 se inició el año judío número 5.773; fue el día del Año Nuevo judío —fiesta de Rosh Hashanah— cuando el año pasó de 5772 a 5773. Por cierto, el día comienza a las 6 de la tarde... El 5 de septiembre de 2013 comenzará el año judío 5774. Y así sucesivamente.

Otro calendario excepcional próximo a nosotros es el islámico, que se utiliza en la mayoría de los países musulmanes. Es de tipo lunar y toma como punto de partida el año posterior a la hégira, cuando Mahoma viajó de La Meca a Medina; fue el 16 de julio del año 622 d.C. No añaden meses suplementarios por lo que las estaciones van cambiando de fecha año tras año. El 15 de noviembre de 2012 comenzó el Año Nuevo musulmán (Muharram) número 1.434. El 4 de noviembre de 2013 comenzará el Año Nuevo musulmán 1435.

Por cierto, la fecha de comienzo del año no es siempre el 1 de enero en el mundo cristiano; los griegos y rusos ortodoxos esperan al 7 de enero, y los coptos (segunda religión en Egipto tras el islamismo) esperan al 1 de septiembre, fiesta que conmemora la muerte de san Marcos.

UN CALENDARIO LITERALMENTE REVOLUCIONARIO

La Revolución Francesa adoptó en 1793 un curioso calendario que reemplazaba al gregoriano. Dividía el año en doce meses de treinta días cada uno, y cada mes se dividía en períodos de diez días llamados, obviamente, décadas (deca diem, en latín). No es la primera ver que ponemos de manifiesto la extrañeza por el uso, aceptado por la Academia, de década para diez días y también para diez años, sobre todo existiendo el vocablo decenio, que significa etimológica y fonéticamente diez años.

El último día de cada década era el día destinado al descanso. Y los cinco días que sobraban al final del año (del 17 al 21 de septiembre en el calendario gregoriano) eran de fiesta nacional; la vacación anual, en cierto sentido. Eso significa que el año nuevo comenzaba en el momento del equinoccio de otoño, que es una fecha variable de año a año (en torno al 22 o 23 de septiembre). El nuevo calendario fijó como primer día del Año Nuevo el 22 de septiembre.

El primer año del nuevo sistema se conoció como año I (en francés An I) y así sucesivamente, siempre en números romanos. Cada estación tenía tres meses y los nombres de éstos no podían ser más poéticos porque se relacionaban con fenómenos naturales o agrícolas: en otoño, que es cuando empezaba el año, estaban Vendimiario, Brumario y Frimario (de vendimia, brumas y frío). En invierno, Nivoso, Pluvioso y Ventoso (nieve, lluvia, viento). En primavera, Germinal, Floreal y Pradial (semillas, flores, prados). Y en verano, Mesidor, Termidor y Fructidor (mieses, calor, frutas).

Este calendario literalmente revolucionario y no poco bucólico tuvo una vida muy efímera: apenas doce años. Napoleón lo abolió sin más en agosto de 1805 para regresar al uso del gregoriano, vigente en toda Europa.

¿Lástima? Bueno, Floreal en lugar de Mayo, o Ventoso en lugar de Marzo, son apelaciones sin duda más expresivas, hoy casi diríamos que propias del mundo hippy... Pero muy apetecibles en este mundo de hoy, subyugado por el materialismo pragmático.

¿Y los almanaques? ¿En qué se diferencian de los calendarios? En primer lugar, y por ceñirnos a su etimología, si calendario viene del latín kalendas, como ya hemos visto, almanaque en cambio tiene un indudable origen árabe: al manak significa sencillamente «el clima». Los almanaques, al menos designados con tal nombre, deben ser, pues, más recientes que los calendarios.

De hecho la primera referencia histórica a la palabra es probablemente el Almanach perpetuum, publicado en 1496 por un astrólogo de Salamanca llamado Abraham Zacuto, huido a Lisboa a raíz del decreto de expulsión de los judíos dictado por los Reyes Católicos en 1492. Zacuto referenciaba sus datos astronómicos con el meridiano de Salamanca (lo de Greenwich vino muchísimo después, claro). Aquel almanaque contenía, por supuesto, predicciones meteorológicas asociadas al discurrir de los astros, además de muchos otros datos de tipo religioso y festivo, e incluso toda clase de noticias y comentarios sobre temas sociales y económicos que pudieran interesar a las gentes.

En el siglo siguiente se generalizaron estas publicaciones por toda Europa, con consejos no sólo meteorológicos sino también médicos, agrícolas, geográficos... De hecho, fueron utilizados como libros de texto y como elementos de acceso a la cultura para muchas personas que no tenían acceso a la educación sistemática.

Fuera de España, ya en el siglo XVIII se hizo muy famoso el Poor Richard Almanack, «Almanaque del pobre Richard», que se publicó durante 25 años seguidos a partir de 1732. Lo escribía nada menos que Benjamín Franklin, bajo el pseudónimo de Richard Saunders o «el pobre Richard». Se editaban anualmente 10.000 ejemplares, que no es poca cosa para la primera mitad del siglo XVIII y una especie de folleto editado en las colonias británicas americanas. En su interior predicaba normas de economía, sobriedad y otras cualidades éticas, además, por supuesto, de los datos típicos del calendario tales como fechas, efemérides astronómicas, refranes... Y, por supuesto, predicciones meteorológicas globales...

Por esa misma época, Diego de Torres y Villarroel, que ya hemos citado más arriba, publicaba en España con notable éxito un divertido almanaque que alternaba las curiosidades y los chascarrillos con las predicciones meteorológicas y astrológicas; se llamaba «El Altillo de San Blas».

Por cierto, por ser considerados perjudiciales para la moral y las buenas costumbres, los almanaques fueron prohibidos por la iglesia en la segunda mitad del siglo XVIII, en 1767; el mismo año que se decretó la expulsión de los jesuitas... Bastante más tarde volvieron a ser tolerados, aunque siempre fueron vistos por las autoridades religiosas con cierta suspicacia. Porque algunos almanaques populares no dejaban títere con cabeza, y el mundo de la religión no era precisamente el menos aludido.

Hoy existen almanaques, especializados o no, prácticamente en todo el mundo. En Estados Unidos, por ejemplo, aunque son bastantes los periódicos que publican Anuarios con resúmenes noticiosos del año que acaba —como hacen muchos otros grandes diarios de todo el mundo—, el New York Times sigue usando la palabra inglesa almanac. Y el National Journal edita cada año un Almanac of American Politics. En las extensas zonas agrícolas de América del Norte es muy popular el Old Farmer’s Almanac («Viejo almanaque de los agricultores»), con más de un siglo de existencia; se generalizó a finales del siglo XIX, antes de la llegada de la era del petróleo. Mantiene ciertas predicciones agrometeorológicas a largo plazo, pero cada vez remite más a los informes del Weather Channel o a la información de la NOAA (Agencia Norteamericana de la Atmósfera y el Océano).

Ya en Europa, podemos encontrar en Italia almanaques antiguos pero aún en vigor, como el Almanacco Barbanera, según ellos mismos dicen en su página web, «el almanaque más famoso de Italia», muy orientado hacia la astrología y cuestiones prácticas de la vida en el campo. En Portugal es muy famoso O seringador (cuya versión digital es muy crítica en temas sociales y satiriza a menudo el mundo de la política). Los alemanes siguen consultando el Old Moore’s Almanack, y también el Mondplaner, almanaques clásicos repletos de curiosidades y consejos relacionados con diversos temas, incluidos el clima y el tiempo.

Y así sucesivamente...

Es un mundo que resulta asombroso hoy, en pleno siglo XXI; incluso perturbador, por ignorar de manera tan obvia los avances de la ciencia que, precisamente en el campo meteorológico, han sido espectaculares en apenas un siglo. Pero eso sí, seduce a muchos millones de personas en todo el mundo, incluidos los países occidentales desarrollados. Algo que no conviene ignorar, aunque sólo sea porque se trata de un signo de la escasa cultura científica y la total ausencia de espíritu crítico de muchísimas personas. Un aspecto preocupante de las sociedades modernas, si analizamos estas cuestiones bajo el prisma de la racionalidad más elemental.

Porque esta supervivencia de tradiciones después de todo bastante absurdas —y más, si las pasamos por el tamiz de lo que la ciencia sabe hoy— sigue impregnando la vida cotidiana en cuestiones de todo tipo debido a los almanaques, calendarios y diversas tradiciones orales, en particular por lo que respecta a sus supuestas predicciones meteorológicas que, como en otros órdenes de la vida, suelen dejarse guiar por criterios de lo más variopinto. Sin ir más lejos, cuando aluden a algo tan aparentemente arbitrario como el número cuarenta.

No es un número anodino. De hecho, existe una tradición religiosa asociada a ese número, como era de suponer. En la tradición judía y cristiana, por ejemplo, están los cuarenta años que pasó el Pueblo de Dios en el desierto, los cuarenta días que estuvo Moisés en el Sinaí, los cuarenta días de la marcha de Elías hasta el monte Horeb, los cuarenta días del diluvio universal, los cuarenta días que pasó Cristo en el desierto ayunando, las cuarenta horas que pasó el cadáver de Cristo en el sepulcro... Y así sucesivamente. La Cuaresma misma dura cuarenta días, desde el Miércoles de Ceniza hasta el Jueves Santo.

Quizá la razón de este extraño número se deba a diversos motivos, todos ellos relacionados con el simbolismo del guarismo 4. En la Biblia, el universo material tiene mucho que ver con el 4. El Génesis describe el jardín del Edén con cuatro ríos que fluyen en la dirección de los cuatro puntos cardinales. Hay cuatro Evangelios, cuatro jinetes del Apocalipsis... Quizá todo ello se base en el hecho de que una lunación y media, o sea, seis semanas, son aproximadamente 40 días, si no se cuentan ni el día inicial ni el final. Pero no es fácil saberlo...

El caso es que en medicina es tradicional el uso de las cuarentenas para prevenir contagios infecciosos, y el período femenino del puerperio, tras el parto, también ha sido designado tradicionalmente como cuarentena. Un tiempo durante el cual la madre, entre otras cosas, no debía tener actividad sexual alguna. Esto es algo rebatido hoy; tener relaciones sexuales o no en esas fechas sólo ha de depender de cómo se encuentre la mujer tras el parto. Cosa que tiene más que ver con la fisiología femenina de cada madre y, eventualmente, con la pareja misma, que con los cuarenta días, o bien 39, quizá 41, o bien...

La tradición musulmana, de raíces similares a la judeocristiana, afirma que el alma de un difunto ha de esperar 40 días antes de ser juzgada y enviada o no al Paraíso; será a partir de entonces cuando los familiares puedan visitar la tumba. Y, curiosamente, esta tradición del número 40 ha perdurado en la sabiduría popular en cuestiones relacionadas con la vida cotidiana. Por ejemplo, «de los 40 para arriba no te mojes la barriga»; ¿quiere eso decir que una persona de 42 años ya no se puede bañar? Suena de lo más divertido, al menos hoy... O el conocido Avís de festa de la localidad alicantina de Castalla, que se realiza el 25 de julio, 40 días antes de la fiesta patronal de la Virgen de la Soledad, que es el 2 de septiembre. Incluso en meteorología existe algún que otro refrán, como por ejemplo el famoso «Hasta el 40 de mayo no te quites el sayo».

Precisamente de refranes meteorológicos tratará el siguiente apartado. Pero como colofón a este apartado dedicado a contar el tiempo —días, semanas, meses, estaciones, años, siglos...— con el fin de establecer los correspondientes calendarios, a menudo en correspondencia con el tiempo atmosférico, no nos resistimos a incluir unas reflexiones en torno a lo difícil que resultaba, y sigue resultando, el hecho de tener que contar cosas. Sí, sabemos hacerlo desde pequeñitos; pero en realidad no somos conscientes de las contradicciones que implica, según sean las cosas que contamos.

¡QUÉ DIFÍCIL ES CONTAR!

¿Por qué decimos «dentro de ocho días», o «de quince días» para referirnos a la fecha que corresponde al mismo día de la siguiente semana o de la semana posterior? Son siete y catorce días más, no ocho ni quince...

Pues resulta que, sin ser conscientes de ello, seguimos usando en realidad un antiguo hábito numeral propio de la época romana, hace unos 2.000 años. La definitiva inclusión en las matemáticas de magnitudes continuas como suma de infinitas magnitudes discretas —llevada a cabo por el cálculo diferencial a partir del siglo XVII— fue modificando gradualmente el concepto popular de número, que pasó de designar el número cardinal de un conjunto de objetos, a convertirse en la «etiqueta» de un punto concreto, de un momento efímero y, como tal, sin dimensiones. La suma de infinitos puntos sin dimensión proporciona un número finito y entero; ésa es la base del cálculo infinitesimal. Porque no es lo mismo decir el kilómetro 5 de una carretera (se trata de un punto concreto, quizá indicado por un mojón) que la distancia de 5 kilómetros, que es la suma de cinco espacios de mil metros, de 5.000 espacios de un metro...

Lo segundo es una magnitud, la distancia que separa a dos mojones; mientras que lo primero, o sea, el mojón mismo, sólo representa un punto, teóricamente sin dimensión.

Si Cristo fue crucificado en viernes, ése fue el primer día de su muerte; el sábado el segundo y el domingo el tercero. Normal en el cómputo romano; pero resulta que hoy no contamos ya así... excepto las agencias de viajes cuando publicitan sus estancias turísticas, que incluyen tanto el día de partida como el de llegada. Por tanto, si Jesucristo falleció por ejemplo a las seis de la mañana del viernes (esto es, jueves + 1/4 del viernes), a las seis de la mañana del domingo habrán transcurrido solamente dos días completos para nosotros. Resucitó al tercer día, si consideramos «día» como un entero, pero sólo habrían transcurrido dos días completos, o sea 48 horas. Y antes se celebraba su resurrección el Sábado de Gloria; para más confusión.

La forma romana de contar a base de enteros no ha desaparecido del todo; por ejemplo, en catalán y en alemán se cuentan las horas de forma distinta al resto de las lenguas próximas al castellano. Las 8.15 horas (ocho y cuarto) se llaman «un cuarto de nueve». Esto es, la cuarta parte de la novena hora. Esta novena hora no es, pues, el instante temporal en que el reloj marca las nueve en punto sino todo el intervalo que va desde las 8.00 hasta las 9.00 (hora número nueve, contando desde el instante cero, o sea las 8 y cero segundos). La hora primera (hora número uno) va desde el instante cero, que es la medianoche, hasta la una de la madrugada: es decir, empieza en el instante cero y termina en el instante uno. Del mismo modo, la hora novena empieza en el instante 8 (las ocho en punto) y termina en el instante 9, a las nueve en punto.

El idioma inglés cuenta igual que el castellano o el francés, aunque en lugar de decir doce menos cuarto dicen un cuarto para las doce; o sea, falta un cuarto de hora para el instante número 12. No es lo mismo que en catalán o en alemán, pero tampoco lo dicen como nosotros...

En cambio, sí usamos el antiguo modelo romano para nombrar los años. Pero, más lío aún, no lo hacemos para decir la edad que tenemos aunque también la medimos en años.

Todo esto da lugar a otra confusión a la hora de determinar, por ejemplo, cuándo empieza un siglo o un milenio —la famosa y absurda polémica del año 2000—, o bien cuando decimos nuestra edad. Por ejemplo, cumplir 32 años significa haber completado nuestro año de vida número 32, de modo que al día siguiente comenzará nuestro año 33. O sea que, al día siguiente de nuestro cumpleaños número 32 deberíamos decir que estamos ya en el año 33 de nuestra vida (porque lo acabamos de empezar); pero lo que decimos es que «tenemos» 32 años, y lo seguimos diciendo durante todo ese año 33 de nuestra vida y hasta el final. Se supone que dejamos sobreentender que lo que tenemos son 32 años completos y, ADEMÁS, los días o meses que hayan transcurrido del año 33.

Si fuéramos honestos, a partir del sexto mes deberíamos redondear al alza; o sea, decir 33. Pero, ay, la coquetería —en este caso, no sólo femenina— nos hace decir que tenemos 32 hasta el último día, cuando se acerca el cumpleaños número 32 y entremos en el año 33...

Pero lo divertido es que para contar los días del mes no hacemos eso; decimos que estamos a 12 de agosto, no que estamos en el día 11... y pico. O sea, para la fecha cuenta una cosa, para decir la edad que tenemos cuenta otra cosa. Ésta, qué curioso, supone «quitarnos» un año. ¿Un engaño para sentirnos más jóvenes?... Bien pudiera ser.

Habitualmente, entendemos lo que significa estar a mediados de 2010; eso coincide más o menos con el verano. Pero si lo dijéramos con el mismo sistema que usamos para hablar de las horas deberíamos decir «estamos en el 2009 y medio» (más imprecisamente, «2009 y pico»). Lo mismo que decimos, cuando la hora está entre las diez y las once, que son las diez y pico.

Veamos un ejemplo sencillo, referido a una fecha importante para el autor —el cumpleaños— y a una hora cualquiera de ese día, por ejemplo, a las 17 horas y 15 minutos de ese 3 de agosto de 2013. En lenguaje coloquial, las cinco y cuarto de la tarde del 3 de agosto.

Las tres posibles formas de decirlo serían las siguientes:

1) Modelo «matemático»: 2012 + siete meses de enero a julio + dos días de agosto + 17 horas + 15 minutos. O sea, año 2012 + 7 meses + 2 días + 17 horas + 15 minutos.

2) Modelo «romano»: 15 minutos de la hora decimoctava del día tercero del mes de agosto del año dos mil decimotercero. O sea, faltan 45 minutos para las 18 horas del día 3 de agosto de 2010.

3) Modelo «actual»: 3 de agosto de 2013, a las cinco y cuarto de la tarde.

El modelo actual es una curiosa, y más bien absurda, mezcla de los dos sistemas; aunque, como estamos acostumbrados a ello, nos parece de lo más lógico.

La cosa resulta bastante confusa: el día 3 de agosto no puede ser contado como tal hasta no estar completo, a las 12 de la noche. Del mismo modo, 2010 no lo será hasta no llegar a su final, al terminar el 31 de diciembre. A las 17.15 de ese día 3 de agosto estaremos, pues, todavía en una fecha señalada en primer lugar por el día 2 ya transcurrido, al que habría que sumarle las 17 horas y 15 minutos ya transcurridos del día 3.

Si lo dijéramos como decimos la hora y los minutos, pero en días y horas, serían «los 2 y 17» de agosto; o sea el día 2 y 17 horas. No el 3 de agosto, a las 17 horas.

O bien, deberíamos decir que estamos en el día tercero (aún no terminado) del mes de agosto del año dos mil decimotercero (aún no terminado), como en el modelo romano. Pero, entonces, ¿por qué decimos las 17.15 —o las cinco y cuarto de la tarde— y no el minuto 15 de la hora 18, es decir el minuto decimoquinto de la hora decimoctava?

Es un jaleo curioso, ¿no? Y demuestra que sí que es difícil contar cosas tan sencillas como días, horas y años... No es raro que haya habido, que aún siga habiendo, tantos calendarios; al fin y al cabo, sólo son la consecuencia de su asociación con las más diversas actividades humanas que se dan a lo largo y ancho del planeta.

1.3.2. Los refranes

En idioma castellano existen pequeñas diferencias entre las diferentes formas de paremias —enunciados breves, sentenciosos e ingeniosos que transmiten mensajes instructivos o que incitan a la reflexión intelectual y moral— que utilizamos de manera más o menos generalizada. Nos hemos quedado con los refranes porque son las paremias más comunes, especialmente cuando se aplican a las labores del campo y a los fenómenos atmosféricos. Pero podríamos igualmente hablar de adagios, aforismos, axiomas, proverbios, máximas, apotegmas, sentencias...

Decía don Quijote que «los refranes son sentencias breves sacadas de la experiencia y especulación de nuestros ancianos». Pues de eso trata el presente apartado, de la experiencia y la especulación acumuladas a lo largo de siglos en torno a las cuestiones del tiempo y el clima, y expresadas en forma de frases breves, que suelen rimar y resultan sentenciosas cuando no irónicas.

Es tan variada y fecunda la presencia de toda clase de refranes meteorológicos en nuestro mundo —en idioma español y en muchas otras lenguas, por cierto— que no podemos obviar el análisis de lo que suponen, en cuanto a fiabilidad, de cara a la predicción o la descripción del tiempo y del clima. Porque es indudable que compendian —a veces acertadamente, a menudo con muy poca o nula garantía— una sabiduría popular basada en la tradición de generaciones de campesinos y marinos, los «ancianos» aludidos por don Quijote, que luego fue transmitida oralmente de padres a hijos, generalizándose mediante el muy eficaz método de la vox populi, en paralelo —y quizá aún antes— con lo que por escrito comenzaron a hacer los almanaques y calendarios.

Las culturas antiguas —mesopotámica, egipcia, grecolatina, árabe...— supieron condensar ese conocimiento esencialmente rural, y lo fueron transmitiendo verbalmente y de forma sintética. Más tarde esa tradición oral fue enriqueciéndose con nuevas aportaciones de tipo local, según las distintas regiones, y finalmente los refranes quedaron constituidos por frases cortas, más o menos en verso —las más de las veces con rima asonante— y, en todo caso, buscando siempre cierta armonía tanto en la forma como en el fondo, dentro de la brevedad.

Ya hemos visto que el modo de situarse en el tiempo anual, fundamental para conocer el momento de la labranza, de la siembra, de la siega, de la recogida de la fruta, de las trashumancias y de muchas otras labores y actividades del campo y de la mar, fue aceptablemente resuelto desde tiempos neolíticos mediante la asociación de las apariciones y desapariciones de determinados grupos de estrellas en el ciclo anual de la naturaleza, incluyendo al Sol y a la Luna, obviamente. Sin tener en cuenta la precesión de los equinoccios (que es de sólo 1 grado de arco cada 72 años, una vuelta entera cada 26.000 años), el movimiento de los astros en la esfera celeste desde el horizonte Este hacia el Oeste tiene un período casi idéntico al del año solar, responsable de las estaciones.

O sea, que los primeros refranes que hubo en la Antigüedad, y no pocos de los que han sobrevivido hasta hoy, tienen a las fechas del calendario —señaladas por ese ciclo anual progresivo del Sol y de ciertos astros señalados— como ineludible referencia a la hora de buscar regularidades en la temperie, que pudieran luego ser reflejadas en el correspondiente aforismo. Las predicciones así elaboradas servían para un determinado día, o bien abarcaban un período de tiempo nunca muy largo, en una determinada época del año.

Los refranes, hasta entonces de transmisión oral, al final de la Edad Media y, sobre todo, con la imprenta, fueron recogidos parcialmente en escritos más o menos apócrifos, y finalmente recopilados en libros, almanaques y diversas publicaciones ligeras. Aunque lo esencial de su transmisión fue hasta casi el presente de tipo verbal.

Uno de los primeros libros que recogen refranes meteorológicos fue la Cronología y repertorio de la razón de los tiempos, de Rodrigo Zamorano, publicado en Sevilla en 1585. Y podríamos citar muchos otros a partir de ahí. Por ejemplo, el Repertorio de los tiempos e historia natural de esta Nueva España, de Henrico Martínez, editado en México en 1606, o bien la Agricultura general, de Alonso Herrera (Madrid, 1645), e incluso la Cartilla rústica, physica visible y astrología innegable: lecciones de agricultura y juicios pastoriles para hacer docto al rústico, con Diego de Torres Villarroel, otras vez él, como autor (Salamanca, 1727).

Muy recientemente cabe citar El libro de los Refranes de la Temperie, compilado, dispuesto y ordenado por el meteorólogo José Sánchez Egea, que fue publicado por el Instituto Nacional de Meteorología en 1986.

Los refranes suelen referirse a diversos signos anunciadores de un determinado tipo de tiempo. Desde la observación del Sol, la Luna y las estrellas, incluyendo a los fenómenos ópticos como el arcoíris u otros, hasta la presencia de determinados meteoros en función de las fases de la Luna, o bien la observación de muy diversas plantas silvestres o cultivadas y del comportamiento de los animales más conocidos, especialmente los domesticados, e incluso el análisis de objetos materiales como paredes, pozos, suelos de arcilla y hollín de las chimeneas.

En toda Europa los refranes tienen una estructura parecida a la que se observa en España, buscando cierta rima y explicando concisamente lo que pretenden afirmar. La interpretación de la observación del vuelo de las aves, de los insectos, de los batracios y reptiles, del ganado, incluso de los peces en el río y en las costas, incluyendo muchas plantas silvestres, permite emitir pronósticos sentenciosos que incluso son bastante coincidentes en países de clima similar —por ejemplo, Grecia, Italia, Francia y España—, cada uno, por supuesto, en su propio idioma. Incluso en España hay refranes similares expresados en catalán-valenciano, castellano, gallego e incluso euskera, debido a que en las regiones correspondientes se dan conocimientos similares sobre determinados fenómenos.

Es obvio que en la actualidad gran parte de esa tradición oral se ha ido perdiendo. Y a pesar del esfuerzo de algunos libros, como los anteriormente citados y otros, lo cierto es que eso nos parece más bien lamentable, aunque sólo sea por razones estrictamente antropológicas e históricas. Y quizá también porque se nos priva de una información —más climatológica que meteorológica— de primera mano, especialmente de cara al estudio de los cambios de clima a lo largo de los siglos pasados.

Algunos refranes de los que han sobrevivido hasta hoy se cumplen en un elevado porcentaje de casos. Lo cual no debiera sorprendernos, por otra parte, ya que su existencia viene avalada por siglos de observaciones repetidas año tras año. El refrán que no se cumplía con regularidad solía acabar por caer, casi inexorablemente, en el más negro olvido. Lo cual, a primera vista, supone ciertas garantías de credibilidad hacia aquellos que han logrado llegar hasta nosotros; lo que no quita para que una gran mayoría de ellos nos parezcan completamente gratuitos y sin fundamento.

En las páginas siguientes hemos incluido muy diversos tipos de refranes; incluso los hemos agrupado en una especie de calendario popular de refranero meteorológico. Pero comenzamos con un puñado de refranes que ofrecen cierta base científica y que, por eso mismo, suelen resultar en general bastante acertados. Algo así como la aristocracia del refranero.

1. Cerco de Luna, lluvia segura; cerco de Sol moja al pastor

La explicación tiene que ver con los meteoros ópticos llamados halos y coronas, producidos por nubes muy altas, los cirrostratos, casi transparentes y que producen los famosos «cercos». Aunque no siempre, suelen ser indicio de lluvia porque anuncian, bastantes horas antes, la llegada de un frente de lluvias. Otro excelente refrán abunda en la idea: Luna anillada o rojiza, la lluvia profetiza.

2. Cielo aborregado, antes de tres días mojado

Los cielos aborregados se deben a la presencia de nubes altas o medias que forman ese empedrado como baldosas unidas entre sí (altocúmulos) o lana de ovejas (cirrocúmulos). Suelen ir tras los cirros citados en el anterior refrán, indicando la llegada del cambio de tiempo. Existe una segunda versión del mismo refrán: Cuando el cielo está de lana, si no llueve hoy lloverá mañana.

3. Cuando la sierra lleva montera, llueve aunque Dios no quiera

El fenómeno de la montera, o boina, que se forma en las montañas próximas se debe a la presencia de una nube orográfica debida al viento que, en las cumbres, se condensa por enfriamiento formando una nube baja —estrato o estratocúmulo—. Suele indicar la llegada de vientos más húmedos, quizá un frente de lluvia. Otro refrán alude indirectamente al mismo asunto: Neblina en el valle, pescador a la calle, neblina en la montaña, pescador a la cabaña. La neblina se produce cuando el aire frío y denso resbala por las laderas y se acumula en el valle, condensando su humedad: tiempo estable. En cambio si hay neblina en la montaña, precede a la boina o montera del primer refrán.

4. Tarde de arcos, mañana de charcos

El responsable es el arcoíris, indicio seguro de lluvia cercana: este meteoro óptico se produce al pasar la luz solar por las gotas de la lluvia que caen. Si se ve al atardecer, la lluvia está próxima y a la mañana siguiente habrá charcos.

5. Cirros y estratos, hembra con macho

Curioso refrán este, bastante certero sobre todo en el noroeste de España, donde las borrascas atlánticas se anuncian con masas previas de cirros y luego de estratos lluviosos. Igual que hembra y macho, juntos acaban engendrando... lluvia, claro.

6. Año de nieves, año de bienes. Con su negativo corolario El mal año entra nadando

Parece lógico. Si en enero llueve mucho, las cosas van a ir muy mal porque eso significa un invierno inusualmente cálido y húmedo en lugar de frío y seco. Por el contrario, la nieve en su momento es excelente: recarga los acuíferos en el llano y los manantiales en las alturas, conserva el agua, permite que las plantas jóvenes enraícen, protege del frío extremo. Otro refrán proclama lo que debe ser: Enero claro y heladero. Es lo normal.

7. Febrerillo el loco, un día peor que otro

Acertado aforismo, ya que el invierno se resiste a despedirse a pesar de que los días son ya más largos, lo cual provoca, a veces, fuertes asoleos: En febrero busca la sombra el perro, que es un dicho quizá un poco exagerado. Pero es mes en general loco... y gélido. Sol, mucho frío, nieve... Febrero no se priva de nada, y eso que es el mes más corto.

8. Por San Blas la cigüeña verás, y si no la vieres, año de nieves

Buen refrán, basado en el increíble instinto de estas aves migratorias —ya no lo son tanto, por lo bien que las tratamos— tan comunes en España. Hay que recordar que San Blas es el 3 de febrero.

9. Sol madrugador y cura callejero, ni Sol caliente ni cura bueno

Una auténtica perla del refranero. Al margen de consideraciones sociológicas que no vienen al caso —el medio rural es bastante conservador en temas costumbristas, es bien sabido—, lo cierto es que en primavera los días suelen ser cambiantes: amanece con Sol, y por la tarde, llueve; o bien amanece niebla, y por la tarde luce el Sol. Y a veces todo eso se alterna con rapidez... Otro refrán lo dice bien: Marzo varía siete veces al día. 10. Abril tiene cara de beato y uñas de gato

Genial... Es difícil encontrar nada mejor para decir que el tiempo de abril engaña siempre. Días espléndidos, luego fuertes heladas muy dañinas, por tardías. Aún hay más perlas refranero-sociológicas sobre el tema: Abriles y condes los más traidores, con su corolario alargado: Los abriles y los señores, pocos hay sin ser traidores. Curas, beatos, señores, condes... El pueblo llano «fabrica» los refranes, es obvio.

11. En abril aguas mil

Uno de los refranes más famosos, muy válido en general: borrascas atlánticas, inestabilidad atmosférica primaveral... La lluvia de primavera es bendición; y si falla, maldición. Lo mismo que en marzo y mayo, por cierto.

12. Hasta el 40 de mayo, no te quites el sayo

Otro conocido refrán, subrayado un mes antes por los dos siguientes: En mayo puede helar hasta el diez alguna vez, y Mayo mediado invierno acabado. En efecto, suelen ocurrir en mayo esporádicas invasiones de aire frío del noreste procedente de la Gran Llanura Europea que puede incluso dar heladas en las tierras altas de la Meseta. Si ocurre ya iniciado junio, aunque es raro que hiele, eso justifica lo del famoso 40 de mayo.

13. El granizo empobrece pero no encarece.

Tiene un corolario, que viene a decir más o menos lo mismo: No hay año malo por piedra y sí por sequía. Son refranes llenos de resignación rural, bastante exactos en lo que afirman. El granizo —y aún más el pedrisco— es terrible para cosechas y frutales, pero afecta sólo de forma muy localizada a superficies poco extensas. O sea, que empobrece al que le ha tocado la china —nunca mejor dicho— pero no reduce la producción total tanto como para que haya encarecimiento de los precios. Por otra parte, es obvio que las grandes sequías afectan a casi todas las regiones; por eso son más temibles.

14. Julio normal seca el manantial

Poco hay que añadir: julio es el mes más seco y caluroso del año... ¿Cómo no se van a secar los manantiales, sobre todo en la bien llamada España Seca?

15. Septiembre, o seca las fuentes, o se lleva los puentes

En efecto, si septiembre sale seco, el estiaje habrá durado ya varios meses, lo que puede bastar para secar fuentes y manantiales. Pero a veces se adelantan los temporales de otoño y las lluvias, a menudo tormentosas, hacen época. No sólo pueden llevarse los puentes sino provocar graves problemas de riadas, sobre todo en el Mediterráneo.

16. Octubre las mejores frutas pudre

Estamos ante el mes lluvioso por excelencia, caracterizado precisamente por la llegada de frecuentes borrascas atlánticas arrastradas por vientos de componente oeste o suroeste —los ábregos o llovedores— que riegan buena parte del interior del país. Las regiones mediterráneas suelen quedarse al margen.

17. Por San Andrés, la nieve en los pies

San Andrés es el 30 del mes de noviembre, fecha que marca el principio de lo más crudo del invierno. De hecho, aunque el invierno astronómico —solsticio de invierno— ocurre en torno al 21 de diciembre, la ciencia climatológica considera que diciembre pertenece al invierno, junto a enero y febrero. Con la Pequeña Edad del Hielo del siglo XVII el invierno llegaba muy pronto; quizá de ahí nació otro refrán: Del 20 en adelante el invierno ya es constante. Y existe un tercer refrán que alude al comienzo de noviembre: Por Todos los Santos, la nieve en los altos. El invierno acecha...

18. Cuando en diciembre veas nevar, ensancha el granero y agranda el pajar

Cosa rara en el mundo rural, esta sentencia rebosa optimismo. Quizá sea propio de la cerealista Meseta, en plena coincidencia con aquel primer refrán del año de nieves año de bienes. Unanimidad: la nieve invernal siempre es deseada.

19. Tiempo pronto en declararse no tardará en ausentarse, pero si viene despacio en irse es también reacio

Muy acertado aforismo. Las cosas que pronto llegan, pronto se van; aunque algunas, sin duda, a veces hacen mucho daño, por pasajera que haya sido su estancia. En cambio, los fenómenos que llegan despacio son menos explosivos, en conjunto menos dañinos, pero también duran luego mucho más. Y eso vale para lo bueno, como para lo malo...

20. El que desee mentir le bastará predecir

Resignadísimo refrán, lleno de honestidad campesina: incluso los mejores agoreros de la Antigüedad, los mejores magos y adivinos, los hombres del campo más experimentados, las Cabañuelas, los santos... Todos se equivocan mucho. Con cierto humor quizá haya quien piense que eso podría valer igual para los meteorólogos de hoy, pero sería faltar a la verdad: las predicciones a corto plazo aciertan ahora más de un 90 por 100 de las veces. La ciencia consigue que los que predicen hoy «mientan» cada vez menos.

Esta veintena de refranes conforma lo que bien podríamos llamar esqueleto creíble del anecdotario meteorológico. Quizá haya unos cuantos aforismos más merecedores igualmente de cierta confianza. El resto, o sea, la inmensa mayoría, son escasamente realistas, y muchos de ellos se basan en cuestiones mágicas, astrológicas, religiosas o míticas que nada tienen que ver con el comportamiento termodinámico de la atmósfera. Sobre todo, aquellos que dicen predecir el tiempo con semanas y hasta meses de adelanto.

La Luna es protagonista en muchos de estos aforismos. Cuando abordábamos la prehistoria meteorológica, veíamos que nuestro satélite era considerado como un elemento esencial en cuanto a su influencia, no siempre buena, sobre las cosas de este bajo mundo. Hoy conocemos bien su influencia en las mareas, por ejemplo. Pero nada tiene que ver en cuestiones meteorológicas. Desde luego, el aire es una mezcla de fluidos y, por tanto, también ha de sufrir esa atracción lunisolar que origina las mareas en los océanos. Pero, en cualquier caso, la influencia del Sol debería entonces ser considerada además de la de la Luna, quitándole a ésta buena parte del protagonismo del que goza, especialmente de noche (como si de día la Luna desapareciese, y con ella su posible acción sobre nosotros, debido simplemente a que no la vemos). Que no tiene sentido, vamos. Al margen de que al ser el aire casi mil veces más ligero que el agua, la atracción gravitatoria que se ejerce sobre él habrá de ser muchísimo menor. Y despreciable frente a otros movimientos del fluido atmosférico debidos a la rotación de la Tierra o los factores térmicos derivados de las variaciones en la insolación recibida debido a la alternancia noche-día, la latitud, la continentalidad, la altitud y muchos otros factores.

La Real Academia dice que un refrán es «un dicho agudo». Hemos seleccionado, pues, un pequeño conjunto de aforismos que tienen auténtica chispa, algo muy característico del pueblo español, por otra parte. De ellos, incluso los hay que ni siquiera aluden al tiempo, pero quizá merezcan ser citados precisamente por su agudeza, ya que con ellos tuvimos la fortuna de topar en nuestra búsqueda por libros y almanaques de todo tipo. Con ellos completamos nuestra peculiar aristocracia refranera.

21. En mares serenos no se forman marineros

Es obvio que la gente de la mar adquiere mucho más conocimiento de su oficio cuando las condiciones meteorológicas son cambiantes. Especialmente en el mundo de la vela, donde sin viento, y por tanto sin olas, no hay navegación posible. Otro refrán abunda en la misma idea, afirmando que ni el mismísimo diablo podría aprender a navegar si no aprende algo de meteorología: El diablo es mal marinero si no sabe mirar al cielo.

22. El agua en marzo es buena hasta que se moje el rabo el gato

Frase ingeniosa y sutil... que no se entiende demasiado. Probablemente alude a la reluctancia de los gatos por lavarse. Si llueve en marzo hasta el punto de que un gato se moje incluso el rabo, es que entonces el agua caída es ya considerable.

23. Si mayo vuelve el rabo, no deja oveja con pelleja ni pastor enzamarrado

Lástima que el idioma castellano esté perdiendo, sobre todo en el habla popular, la fuerza expresiva que se plasma en este refrán. Además, se entiende bien lo que dice.

24. Sale marzo y llega abril, nubecitas a llorar y campitos a reír

Bucólico, ¿no? Y, además, muy real; aunque suene al cuento del abuelito...

25. Mal tiempo para el molinero... para el burro bueno

No precisa comentarios. Si acaso esta apostilla, procedente a buen seguro de algún molinero resentido con su burro: Molino cerrado, contento el asno; pues asno de molino, andar, andar y no adelantar camino. La vida de los burros de carga nunca debió de ser grata...

26. Aguas por San Lorenzo, puercas vendimias y gordos borregos

Adjetivos rotundos, propios del campo. Tampoco necesita mucha explicación.

27. Pastor cucharero y lector, hace al lobo gran señor

Malo será para el dueño de las ovejas que su cuidador engorde, por comer mucho y no cuidar de su rebaño, o por instruirse demasiado. Todo eso le distraerá de sus labores. Otro refrán incide en la misma idea: Labrador con mucha astronomía pasa en ello todo el día. Quien mira al cielo poco trabaja; salvo, quizá, san Isidro que tuvo, eso sí, ayuda angelical...

28. El que duerme en agosto, duerme a su costo

Las vacaciones no existen para el hombre del campo; y aún menos en agosto, por más que sea el mes de los veraneantes de ciudad.

29. Eche agua Dios, que oro es para nos

La España Seca, claro.

30. El arado rabudo y el arador barbudo

Huelgan los comentarios. En el hombre del campo que ha de trabajar, el aseo y la apariencia son menos importantes que el trabajo intenso. Afeitarse... ¿es de ociosos?

31. Árame llorando y me segarás cantando

Sutil y poética forma de mostrar la necesidad de lluvia (o riego) al arar; quienes habrán de llorar son las nubes, por supuesto.

32. Que llueva que no llueva, desde luego riega

Si ello es posible, claro. Otra vez sale a relucir la España Seca.

33. Ni en invierno viñadero

ni en otoño sembrador

ni con nieves seas vaquero

ni de ruines seas señor

Refrán elevado a la categoría de cuarteta por méritos poéticos propios.

34. Viña en lugar pasajero, ni de balde la quiero

Lo cual dice mucho de la escasa honestidad de los viandantes... o del hambre endémica en la España rural de otros tiempos. Otro refrán insiste en la misma idea: Cara me cuesta la viña de la cuesta. Las gentes que suben la cuesta se cansan, se paran y, claro, cogen algún racimo cercano.

35. Un año bueno y dos malos, para que nos entendamos

Vuelve a aflorar el pesimismo del campesinado español.

36. Si se oyen truenos en marzo, el obispo comerá pan blando

Todavía no habían salido obispos en nuestros refranes; cosa rara... Las tormentas tempranas son de buen augurio, al parecer. En el mundo pobre medieval, quizá incluso en épocas más próximas, los obispos eran considerados como personajes no sólo ricos e influyentes, sino también buenos vividores.

37. En febrero mete obrero; pan te comerá pero buena labor te hará; de la mitad en adelante, que no antes

Todo un tratado de economía agrícola. Suponiendo, claro está, que el tiempo se porte como debe. Es decir, como suele. La normalidad, ¡ay!...

38. Enero frío y heladero, febrero verdero, marzo pardo y abril lluvioso, sacan a mayo florido y hermoso. Es la versión larga del conocido: Marzo ventoso y abril lluvioso hacen a mayo florido y hermoso. Todo un excelente compendio de climatología rústica.

39. Si el año temprano miente, el tardío siempre

Puede que este refrán, más bien resignado, una vez más, no tenga mucha base racional pero en el fondo supone una loa, nada indirecta, a la normalidad climática. La idea subyacente es que todo lo que se aleje de lo habitual resulta como mínimo sospechoso. No deja de tener su aquel.

1.3.3. El tiempo y los seres vivos

1.3.3.1. Los animales

Numerosos refranes aluden a los seres vivos, esencialmente los animales, como indicadores del tiempo que se acerca. Las aves quizá sean las más representativas, por razones obvias, puesto que se mueven y prácticamente viven en el aire, pero también muchas otras especies animales y vegetales viven y mueren sumergidas en el aire, incluidos nosotros, los humanos.

Algunos de esos refranes son famosos, y a menudo muy acertados. Por ejemplo, en lo que a la lluvia que se acerca se refiere: Si la golondrina vuela baja, agua recela. Referido al frío existe un refrán parecido al anterior pero mucho más popular, y un poco rústico en la expresión, que dice: Cuando el grajo vuela bajo hace un frío del car..., y cuando vuela a trompicones hace un frío de coj... Ambas rimas son obvias, aunque no muy elegantes. Y no fáciles de explicar: la palabra grajo se ha elegido por su peculiar rima, bien sonora, con otras palabras igual de contundentes; pero la conducta que describe —volar a baja cota cuando hace o va a hacer mucho frío— es probablemente algo propio de los córvidos en general que con aire frío y denso quizá puedan planear mejor en busca de comida en forma de insectos, resguardada cerca del suelo para protegerse de las inclemencias atmosféricas.

Un curioso artículo publicado por la santanderina Carmen Gozalo, hace ya algunos años, en la web de Meteored (http://www.tiempo. com), glosaba el contenido de un detallado trabajo de mediados del siglo XIX escrito por un experto llamado Juan Mieg, en el que describía el papel que juegan las ranas, las sanguijuelas y los misgurnos (peces de origen asiático muy apreciados en acuariofilia, con dos largas antenas y otras más cortas en la cabeza, de nombre científico Misgurnus anguillicaudatus) en la predicción del tiempo. Juan Mieg los llamaba, por lo visto, animales meteorológicos o barómetros vivientes, y lamentaba que en aquella época en la que la ciencia humana era capaz de pronosticar con mucha antelación y precisión cualquier eclipse de Sol o de Luna, no supiera en cambio hacer lo mismo con el tiempo atmosférico. En su opinión, algunos animales tenían la capacidad de captar alteraciones del aire que no sabía percibir el ser humano, por lo que podían prever e incluso evitar con cierta antelación cualquier cambio del tiempo.

De hecho, en el siglo XIX era frecuente en las casas rurales tener pequeños acuarios con ranas, o bien bocales de agua con sanguijuelas, costumbre que también ha sido reseñada en Francia y en Inglaterra unos cuantos siglos antes. El agua se cambiaba cada semana, y estaba tapada por una tela que la mantenía limpia pero dejaba pasar el aire. Incluso existía impreso algo parecido a unas instrucciones, con afirmaciones tan pintorescas como que si la sanguijuela se quedaba en el fondo enrollada era señal de buen tiempo, mientras que si subía hacia la superficie era anuncio de lluvia. El comportamiento de este anélido tenía diversas interpretaciones para predecir también el frío, el viento, las tormentas, la nieve... Incluso se acuñó en el norte de España un verso más bien ripioso:

Cual barómetro animado

de experimental doctrina

la sanguijuela adivina

de la atmósfera su estado.

En cuanto a la rana que utilizaban sobre todo los franceses desde bastante antes de la Revolución, se trataba de la ranita verde, de nombre científico Hyla arborea. Posee en la extremidad de sus patitas unas protuberancias adhesivas que le permite trepar por superficies lisas e incluso colgarse de los árboles sobre los riachuelos con una sola pata. En el acuario se le ponía una escalerita para hacerla subir fuera del agua si tal era su deseo. Y según lo que hiciese al respecto, así sería el tiempo futuro a corto plazo. Por ejemplo, si se metía en el agua sin parar de moverse es que iba a llover, pero si subía por la escalerilla, era anuncio de tiempo seco y anticiclónico.

Un librito francés llamado Météorologie populaire, escrito por Paula Delsol (Ed. Mercure de France, 1970), ofrecía multitud de interpretaciones del comportamiento de la ranita, recordando que los romanos ya afirmaban que se podía interpretar el croar de las ranas para predecir el tiempo, lo mismo que el canto del grillo era un buen termómetro.

Algunos de estos animales viven en libertad, pero los humanos los domestican con fines predictivos. Por otra parte, muchos animales de granja y la mayor parte de los que se observan en pleno campo ofrecen comportamientos susceptibles de ser interpretados como premonitorios de cambios atmosféricos. Pero es difícil pensar que la precisión vaya mucho más allá de eso. Por sensibles que sean a los cambios de la presión, la humedad, las cargas eléctricas, la temperatura y otros factores del tiempo, parece difícil otorgar a esos comportamientos un valor predictivo poco menos que anecdótico.

La lista de animales sensibles a los cambios de tiempo podría ser interminable, aunque no todas las interpretaciones que se hacen de su comportamiento tienen sentido. De hecho, es obvio que todos los seres vivos sufrimos en mayor o menor medida la influencia de los cambios físicos de nuestro entorno, que es el agua para los animales y plantas marinos, y el aire, el suelo y el agua en el caso de los seres vivos que podemos vivir sobre tierra firme.

Conviene no olvidar que la fauna terrícola puede vivir bajo tierra, o bien en la superficie y por encima de ella. Lo mismo ocurre con los vegetales: epigeos son los que viven con parte de su organismo en el aire, e hipogeos los que viven bajo tierra. Una tercera categoría la formarían los que viven parcial o totalmente sumergidos en el agua.

Pues bien, parece que los seres vivos que viven por encima del suelo, especialmente las aves, debieran ser los más sensibles a las variaciones de las características atmosféricas. En cambio, los subterráneos como, por ejemplo, gusanos y topos, consiguen con ello atenuar las oscilaciones meteorológicas bajo tierra, lo que en cierto modo constituye una forma de defensa más vegetal que animal; pero, claro, de poco han de servir para pronosticar nada acerca de lo que ocurre fuera de su territorio subterráneo.

La fauna aerícola consta de especies de movimiento rápido, y algunas de ellas son grandes viajeras. No hay duda de que las aves deben ser los animales mejor dotados para luchar contra las inclemencias meteorológicas o para evitarlas. Lo que sin duda debe requerir ciertas dotes predictivas innatas, aunque sea a corto plazo. Es cierto que aún no se han descubierto los mecanismos internos que hacen que las aves migratorias, por ejemplo, puedan saber cuándo deben partir o regresar, o bien qué rutas deben adoptar en su periplo. Pero lo cierto es que se equivocan bien poco: les va en ello la supervivencia de la especie.

En cuanto a las formas de vida acuícolas, dependen sólo indirectamente de las condiciones meteorológicas; en realidad, esa dependencia es más o menos la misma que la de su medio natural, el agua. Con todo, los peces que viven a escasa profundidad o se alimentan muy cerca de la superficie pueden verse más afectados por los bruscos cambios de tiempo, y especialmente por los temporales, que aquellas especies que viven a profundidades superiores.

Finalmente, los animales terrestres no dependen de las temperaturas de forma tan directa como las plantas, aunque en general son más sensibles a las oscilaciones térmicas bruscas que al valor absoluto en un momento dado. De hecho, todos los animales son sensibles a los cambios térmicos en general, pero aquellos que no se adaptan bien a climas diversos y cambiantes sino que sólo sobreviven en climas estables se denominan estenotermos. Están muy bien adaptados a sus entornos respectivos, pero los cambios de temperatura y otros parámetros meteorológicos les afectan muchísimo. Por esta razón son excelentes indicadores del clima, puesto que se limitan a vivir en zonas muy localizadas con climas poco cambiantes.

En cambio, los animales que presentan gran adaptabilidad y son capaces de vivir en un amplio rango de temperaturas se denominan euritermos. Como viven en muchos sitios y se adaptan a climas muy diversos, son malos bioindicadores del clima.

Al margen de esta distinción, es sabido que existen animales de sangre caliente, que son capaces de hacer variar su temperatura interna dentro de ciertos márgenes gracias a un metabolismo termorregulador. En cambio los de sangre fría dependen mucho más de la temperatura ambiente, hasta el punto de que necesitan un período de letargo invernal durante el cual su temperatura baja a la vez que la de la atmósfera, quedando el animal en vida latente, como hacen muchos vegetales en la estación fría al perder sus hojas. Malos predictores, en todo caso...

Por lo que a la luz respecta, los animales se adaptan mucho mejor que las plantas a las variaciones ya que no dependen de la función clorofílica. Existen animales que viven en plena oscuridad —por ejemplo, los peces abisales o los animales zapadores (como los topos, sin ir más lejos)— y otros que prefieren la oscuridad de la vida nocturna a la luz solar, como los búhos o los murciélagos.

Del mismo modo, la humedad atmosférica es mucho menos importante para los animales que para las plantas. Aun así, se ha observado cierta periodicidad vital ligada al estado higrométrico. Así, muchos de los invertebrados que viven en lugares con estación seca, desarrollan su vida adulta durante la época húmeda, pasando la seca en forma de huevos o quistes.

Parece, pues, lógico que ante esta directa e innegable relación entre la fauna y el tiempo atmosférico, los humanos hayamos intentado a lo largo de la historia utilizar a algunos de los animales más familiares, domésticos o no, para realizar predicciones meteorológicas. Con desigual resultado, ya lo dijimos: algunas de esas recetas caseras y populares tienen cierta verosimilitud, pero la inmensa mayoría carecen de base racional alguna.

Algunos libros afirman que la predicción del tiempo a partir del comportamiento de ciertos animales podría englobarse en una ciencia, sin duda menor, llamada zooscopia. Más adelante veremos que la fitoscopia sería algo parecido, pero utilizando las plantas. A finales del siglo XVI, un autor francés llamado Gaston Peucer, que no tenía empacho en declararse mago de profesión, escribió en latín un libro sobre «artes adivinatorias» en el que, al referirse a la adivinación del tiempo, utilizaba la palabra fitoscopia para aquella rama de su oculto saber que se basaba en las plantas a la hora de emitir una predicción meteorológica. Que se sepa, la fitoscopia no ha conocido gran desarrollo ni ha llegado a ser muy popular entre los campesinos, ni siquiera en Francia; lo que podría ser indicio de su muy escasa fiabilidad.

En cuanto a los animales, existe alguna publicación reciente del máximo rigor que alude al tema, como el Manual del observador de meteorología, libro formativo escrito por un prestigioso científico y maestro de meteorólogos, Josep Maria Jansà i Guardiola, ya fallecido. En el capítulo sobre «Predicción local sin aparatos» hace intervenir la observación de ciertos animales a la hora de realizar una predicción local que no requiera demasiada precisión; es una buena muestra de que no todo es fantasía en esto que han dado en llamar zooscopia.

A título de curiosidad, cabe decir que es más que probable que el tiempo empeore si las golondrinas vuelan muy bajo, las gaviotas vuelan alto y se dirigen hacia la costa, el ganado se inquieta, el grillo canta a deshora y las arañas y otros insectos salen «en masa» y de forma casi repentina. Todo ello significa que se acerca una tormenta o un cambio brusco e intenso del tiempo.

1.3.3.2. Las plantas

La mayor parte de los vegetales son organismos de síntesis fotoquímica, un proceso dependiente de la acción de la luz y, por tanto, estrechamente subordinado a la energía solar. Pero precisamente el Sol es la fuente última de la energía que mueve a la atmósfera, y a la vida cabría añadir. Los intercambios de los vegetales con su entorno necesitan, además, un cierto margen de temperaturas, que en la mayoría de las especies tiene límites bastante restringidos; las diferencias del calor que recibe la planta de su ambiente también influyen de forma esencial en su vida. Lo que significa que la luz y el calor, ambos originados en su origen primero por el Sol, constituyen dos factores determinantes para la vida vegetal en nuestro planeta.

En un lugar determinado y en un clima que durante largos períodos de tiempo cambie poco o nada, las especies vegetales son también constantes. Pero si el clima cambia los vegetales suelen ser los primeros que lo sufren, aunque no todos desaparecen sino que se quedan un poco a la espera. Lo curioso es que muchos de esos vegetales «sufridores» del clima son también los que mejor soportan los bruscos cambios de tiempo que en algunos climas se dan a lo largo del año.

Estas plantas que se adaptan bien a las variaciones extremas son capaces de crecer mucho en años buenos y de crecer muy poco, quedándose en estado casi latente en momentos especialmente adversos, cuando los años son peores. Este comportamiento resulta crucial en los árboles; y los anillos concéntricos que muestra su tronco —y que se aprecian bien en el tocón, tras la tala— muestran bien esta adaptabilidad año tras año, que es mejor en unas especies que en otras.

Un anillo ancho y de un color determinado indica que aquel año el árbol tuvo un crecimiento adecuado debido a unas condiciones ambientales positivas, por ejemplo en lluvia y temperatura. Un anillo muy estrecho e irregular indica en cambio que el árbol creció poco y con dificultad a lo largo de aquel año, debido al estrés térmico o hídrico sufrido. Todo ello integrando los cambios del día a día, incluso del mes a mes, hasta mostrar anillos de crecimiento vegetativo que en cierto modo resumen el clima medio de todo un año.

Las modernas técnicas de análisis de esos anillos nos permitirían, pues, determinar con cierta precisión cómo fue el clima de la zona en la que el árbol vivió. Y eso es posible hacerlo con grandes árboles centenarios o incluso con los troncos utilizados en construcciones de siglos pasados. La climatología histórica tiene en este sistema de análisis un notable aliado para conocer con cierta aproximación las variaciones del tiempo en épocas en las que no existían los aparatos de medida; la especialidad, ya lo vimos, se llama dendroclimatología.

En cuanto al mayor o menor crecimiento de las plantas en cada época del año, en función de las condiciones de la temperie, su repercusión inmediata se observa en las especies aprovechables por el hombre, tanto las recolectadas como, muy especialmente, las cultivadas. La agricultura, que comenzó a desarrollarse en los primeros tiempos del Holoceno, por rudimentaria que fuera en sus inicios pudo hacer mejorar de forma notable nuestra dieta; y todo ello gracias a que los climas fueron mucho más templados que en la glaciación recién terminada. El tiempo acabó teniendo una importancia esencial en esta actividad de supervivencia básica, puesto que de ella dependía lo esencial de la alimentación de base. No es de extrañar que la magia, los mitos, la astrología y las religiones combatieran a la razón humana porque, en realidad, todo era poco a la hora de buscar cualquier tipo de ayuda a la hora de proteger los cultivos, el ganado y la actividad pesquera, cazadora y recolectora del mal tiempo o las adversidades ligadas a él.

El ritmo anual de la vegetación guarda una estrecha concordancia con las variaciones de la temperatura, y alcanza su máxima expresión cuando ésta alcanza sus valores más altos. Los ciclos vegetales son un fiel reflejo de la oscilación térmica tanto diurna como anual. Por debajo de cierta temperatura, diferente para cada especie, la vida de los vegetales se hace latente; y pasados ciertos límites de calor o frío característicos de cada especie, puede incluso llegar a ser aniquilada.

Existen, pues, dos límites absolutos de las temperaturas que puede soportar cada especie vegetal, tanto por arriba como por abajo, y existe igualmente un umbral óptimo, que oscila entre dos valores máximo y mínimo, en el que se desarrolla con plenitud. Por cierto, todo ello varía igualmente según las diversas fases de la vida de cada planta; por ejemplo, en la maduración de los frutos el umbral óptimo es muy superior al que corresponde al desarrollo de una hoja al comienzo de la primavera.

Todo ello puede ayudarnos a determinar, para cada especie, todos esos umbrales. Luego observando la distribución en cada región de unas especies u otras, podremos obtener datos relevantes acerca de las variaciones del tiempo en dicha región. Especialmente cuando los umbrales de variación son estrechos, porque eso introduce mayor precisión en esas estimaciones.

Una vez iniciada por la planta alguna de sus funciones vitales, a causa de las temperaturas de días anteriores y no tanto las que se producen en el momento de iniciar dicha función, esas funciones ya no se detienen ni, desde luego, retroceden. A lo sumo llegan a frenarse y en el peor de los casos detenerse irreversiblemente. Ésta es la causa de que las heladas tardías provoquen tan graves daños, por ejemplo: si a comienzos de abril el tiempo poco nuboso, el número creciente de horas de insolación diurna, la humedad ambiente suficiente y una temperatura benigna provocan la floración generalizada en un árbol frutal, una helada tardía a mediados de ese mismo mes de abril puede eliminar en todo o en parte esas flores, dejando al árbol sin los frutos que serían de esperar más adelante.

Y ya que hemos citado la insolación, sólo cabe recordar aquí, sin entrar en más complejidades, la esencial función clorofílica que realizan las plantas verdes gracias a la energía solar y la presencia de clorofila en las células de esos vegetales. La presencia, muy afortunada, en el aire de un gas imprescindible para dicho proceso vital, el dióxido de carbono, permite a esas plantas verdes incorporar en su biomasa el carbono, expulsando como residuo indeseable al corrosivo oxígeno. Por eso resulta incomprensible el odio desarrollado en los últimos tiempos hacia este gas esencial, hasta el punto de ser tildado de «contaminante» y ser considerado como la fuente de todos los males climáticos futuros.

En estos tiempos de demonización del dióxido de carbono por su influencia en el efecto invernadero conviene recordar su papel de gas de la vida vegetal. Lo mismo que el vapor de agua del aire, la humedad, que constituye no sólo el origen, por condensación, del agua vital para todos los seres orgánicos sino que en su faceta gaseosa es el gas de efecto invernadero más potente. Las precipitaciones, la proximidad de lagos y ríos y, por supuesto, la cercanía al mar propician valores más elevados de la humedad, en líneas generales, que en el interior de los continentes. Aunque lo esencial no es tanto la cantidad absoluta de vapor de agua por unidad de volumen de aire que pueda haber, como el valor relativo de esa cantidad en función de la necesaria para que el aire se sature. En ese momento, el vapor de agua se condensa en gotitas de agua líquida.

Esta humedad relativa, que es como se denomina técnicamente, juega un papel esencial como factor de limitación para todos los seres vivos, y especialmente para las plantas, que dependen de ella para su mecanismo de evapotranspiración (tecnicismo que viene a representar la respiración celular de las plantas en cuanto al intercambio de agua y energía con el aire). Lo curioso es que la humedad relativa depende de la temperatura, y si el aire es muy caliente admite mucho más vapor de agua que si está frío.

En suma, por su inmovilidad, es obvio que los vegetales dependen muy directamente del suelo en el que están y del aire en el que viven. Del suelo obtienen nutrientes, siempre que éste tenga bastante agua para disolver dichos nutrientes y aportarla a la planta a través de sus raíces, y del aire el vital dióxido de carbono que les ayuda a incrementar su biomasa. Todo ello depende, a su vez, de las características atmosféricas: temperatura, precipitación, humedad, insolación, viento...

Incluso se da el caso de que determinadas concentraciones vegetales, por ejemplo los bosques, pueden originar en su seno condiciones especiales de tipo microclimático. Allí dentro, las condiciones pueden variar a su vez de forma notable según sea la iluminación, la humedad y otros factores, incluida la altitud o la orientación. Por ejemplo, en la inmensa selva virgen amazónica los árboles tienen pocas raíces porque el clima es muy propicio, y la fauna y la flora de los pisos inferiores, cerca del suelo donde nunca llega la luz solar, no tienen nada que ver con la que existe cerca de las copas de los árboles más altos.

A la vista de estas consideraciones muy generales, no extrañará a nadie que los seres humanos se hayan fijado desde hace muchísimo tiempo en las plantas con el fin de encontrar en ellas algunas respuestas a los interrogantes casi permanentes que plantea el tiempo atmosférico. Y si los animales pueden, en algún sentido y sólo parcialmente, depender de eso que llamamos instinto, en el caso de las plantas es obvio que sus reacciones se deben sólo a los aspectos físicos y químicos que les afectan, desde la temperatura hasta la insolación o la humedad...

¿Garantiza todo ello el éxito de las predicciones meteorológicas basadas en la observación de las plantas? Obviamente, no. Sin duda, como ocurre con los animales, algunas de esas recetas populares tienen visos de verosimilitud, siempre de forma muy aproximada. Pero la mayoría de esas conjeturas no pasan de simples creencias antiguas, incluso se basan en fantasías tan imaginativas como carentes del menor sentido.

1

Antes de ser ciencia...

1.1. La Antigüedad clásica

Podemos comenzar nuestra historia en el momento en que el Homo sapiens sapiens prehistórico intentaba mal que bien sobrevivir en medio de los últimos coletazos de las prolongadas glaciaciones del Cuaternario. Nos estamos refiriendo, pues, a una época muy posterior a la desaparición hace unos 30.000 años, por causas aún inexplicadas, de los neandertales. Es probable que aquellas personas primitivas, los cromañones, sobrevivieran a sus primos hermanos, más rudos pero quizá menos «listos», los neandertales, aunque ambos eran ya inteligentes como nosotros. Eso sí, carecían de los muchos conocimientos previos que nosotros ahora atesoramos gracias a nuestros antepasados en las diversas actividades humanas, tanto artístico-literarias como científico-tecnológicas.

Para los humanos primitivos, el tiempo atmosférico debía suponer una variable esencial en sus vidas. Básicamente por los problemas que podía plantearles para su supervivencia el clima predominantemente frío e inhóspito, responsable de una obvia dificultad para abrigarse y alimentarse. La vida en las cuevas no debió ser precisamente agradable, pero las inclemencias meteorológicas no daban para mucho más.

Seguro que aquello no les impedía observar con atención los cambios atmosféricos, las nubes, los vientos, las precipitaciones, los cambios de estación, incluso el devenir de los astros nocturnos, de la Luna, del Sol... Pero todo aquello debió parecerles tan absolutamente fuera de su control que sin duda le atribuyeran un carácter divino: se trataba de poderes incontrolables y absolutamente fuera del alcance de la fuerza o el saber de los seres humanos. De hecho, todavía lo son hoy...

Por tanto, es normal que tomaran los aconteceres negativos del tiempo como mensajes o como castigos de los seres superiores que tenían que dominar aquellos elementos. Porque los humanos inteligentes, incluso cavernícolas, comprendían bien que todo efecto tiene una causa; y como la causa del frío, las tormentas o los vendavales escapaban ampliamente a su comprensión, parecía lógico atribuirla a seres superiores desconocidos. Con los que, en buena lógica, habría que contar para sobrevivir...

Cuando finalizó, bastante bruscamente, el coletazo final de la última glaciación, hace de unos 11.000 a 10.000 años según los sitios, llegó el Holoceno, el período geológico actual que goza de temperaturas mucho más benignas que las que hubo durante decenas de miles de años antes. El hombre sale de las cuevas y comienza a adaptarse con mucha mejor fortuna a un clima más favorable para actividades que antes parecían imposibles. La agricultura, la pesca, la ganadería sin ir más lejos. Para esas nuevas actividades humanas la observación de los fenómenos atmosféricos era aún más crucial que antes, si querían mantener e incluso mejorar el nuevo estatus de vida que iban adquiriendo. Un modo de vivir que mejoraba notablemente el anteriormente vigente, en la época cavernícola glacial.

Es más que probable que en esa época final de la Prehistoria que podríamos situar a mediados del Holoceno, pongamos que hace unos cinco o seis milenios, los humanos necesitaran considerar de forma primordial los distintos factores meteorológicos —lluvia, temperatura, períodos largos o no de sequía, riesgo de inundaciones, frecuencia de heladas...— por su trascendencia a la hora de obtener alimentos en cantidad y variedad creciente gracias a los distintos cultivos que comenzaron a dominar, y también para localizar emplazamientos cada vez más seguros y confortables a la hora de establecer su residencia.

Observar el cielo, las nubes, las estrellas, el viento y muchas otras variables es hoy tarea casi imposible: las luces de las ciudades, las diversiones diurnas y nocturnas y, en suma, todo lo que nos ofrece la vida moderna para ocuparnos o distraernos impide que nos acordemos siquiera de mirar hacia arriba. Es cierto que, a veces, los periódicos nos cuentan que tal o cual noche habrá una determinada lluvia de estrellas; casi nadie las verá, al margen, dicho sea de paso, de que casi nadie sepa que ni hay tal lluvia ni se trata de estrellas. Aunque eso no parece importarle mucho a casi nadie...

Hoy, por seguir con temas anecdóticos, de la temperatura lo único que sabe la mayoría de la población es lo que indican unos termómetros, por llamarles de algún modo, expuestos a pleno sol en la vía pública, que en pleno verano pueden sobrepasar temperaturas propias de un horno de pan. Temperaturas del propio aparato sometido a los rigores solares, que nada tienen que ver con la temperatura del aire...

Pero en aquellas épocas remotas —y mucho después también, por lo menos hasta bien entrado el siglo XIX—, quizá una de las pocas diversiones que pudieron tener los seres humanos, sobre todo en las noches de tiempo benigno, fuera la observación de lo que ocurría en el cielo. Y, por supuesto, la invención y transmisión de toda clase de historias, mitos, leyendas y demás productos de la imaginación humana en torno a todo aquello que desfilaba en la bóveda celeste, en el aire, en el suelo... Todo ello tan lejano como ajeno al limitado control que pudieran ejercer los seres humanos sobre ellos.

La potencia destructiva de los elementos atmosféricos y la muy escasa fortaleza humana para resistir algunas de sus peores manifestaciones explica la facilidad con la que se les atribuyó atributos divinos, es decir, sobrehumanos. Júpiter, divinidad suprema de los romanos como Zeus lo había sido de los griegos, era el dios de los rayos y truenos, Jehová se aparece ante Moisés en medio de una tormenta de arena y rodeado de relámpagos, Ra era el dios Sol de los egipcios, Thor el dios escandinavo de las tormentas, y así sucesivamente...

Pero eso no impidió que los humanos más observadores y racionales elaboraran algún catálogo de regularidades que, poco a poco, fueron acumulándose en forma de saberes, primitivos pero sensatos, en cuestiones geográficas, geológicas, astronómicas, incluso matemáticas... De tal modo que, aun sin instrumentos ni formas de registrar y almacenar datos en cuantía suficiente, sin duda pudieron determinar los mejores lugares y las mejores épocas para cultivar, pescar, cazar; para vivir, en suma.

La que quizá fuera la primera cultura civilizada del Holoceno, la babilónica —se suele aceptar que el Neolítico se inició precisamente en Mesopotamia, hace unos 8.000 años—, parece que atribuyó muy pronto a los astros y su danza inmutable en la bóveda celeste la responsabilidad de todo lo que ocurría aquí abajo, incluidos, por supuesto, los elementos meteorológicos.

Desde varios milenios antes de Cristo en aquella región se tiene constancia de la creencia en un dios supremo, Anu, padre de todos los dioses y de los fenómenos celestes. Enki era el dios de la tierra y la agricultura, Utu el dios de la Luna, Enlil el dios del viento... Con Hammurabi, emperador de Babilonia en el siglo XVII a.C., el dios principal fue Marduk, y en él se inspiró la mitología griega un milenio más tarde para crear su dios supremo, Zeus.

Los sabios mesopotámicos, tanto en la antigua Sumeria como luego en Babilonia, habían personificado en dioses de forma similar a los humanos pero dotados de poderes sobrehumanos, a las fuerzas de la naturaleza que no controlaban, lo que no les impedía encontrar ciertas ventajas en la observación de lo que ocurría y en su posterior aplicación a la vida práctica. Quizá por ello desde ocho siglos antes de Cristo los más sabios ya eran capaces de predecir eclipses, establecer calendarios lunares bastante precisos y calcular con exactitud en los sistemas decimal y sexagesimal. Aunque al mismo tiempo se erigían en augures mágicos del destino —mediatizado por dioses inspiradores y no poco caprichosos— de reyes y emperadores.

¿Cómo lo hacían? Sin duda, supieron conjugar sus observaciones racionales con la interpretación arbitraria —y muy rentable para ellos— de esos mismos elementos naturales. Y así, por ejemplo, la astrología se basaba en las realidades astronómicas observadas, pero luego era utilizada, abusivamente, para predecir el destino de batallas y reinos. O bien la predicción de cosechas y de fenómenos meteorológicos adversos, incluidas las crecidas de los ríos, que aunque se basaba en la observación sistemática de los ciclos estacionales, le era luego atribuida a ciertas deidades propicias o maléficas.

Uno de los testimonios escritos más antiguos es el que aparece en la famosa tablilla del planeta Venus de Ammi-Saduqa, que apareció en las ruinas de Nínive y fue escrita en el siglo VII a.C. La tablilla recoge datos mucho más antiguos, y sumamente precisos, acerca de la observación del planeta Venus durante un período ininterrumpido de veintiún años... ¡en el siglo XVII a.C! Precisamente bajo el reinado de Ammi-Saduqa (1646-1626 a.C.), que fue el décimo rey de la Primera Dinastía de Babilonia, y cuarto descendiente del famoso Hammurabi. Aquello ocurrió, pues, hace 3.700 años...

Uno de aquellos augurios de la tablilla, a la vez astronómicos y meteorológicos, dice textualmente: «Si el 15 Sabatu desaparece por el oeste, permaneciendo invisible tres días, y el 18 Sabatu aparece por el este, catástrofes para los reyes; Adad traerá lluvias y Ea aguas subterráneas». No sólo se deduce que los autores de aquellos textos conocían al lucero vespertino y matutino como un único cuerpo celeste —Sabatu, o sea Venus, es un solo planeta, no dos como se pensó en épocas posteriores—, sino que además relacionaban ese cambio de aparición del planeta en el orto o en el ocaso del día con eventuales aconteceres meteorológicos (lluvias, inundaciones...). Lo cual resulta más que discutible a la luz de lo que hoy sabemos, aunque seguramente se basaría en la observación año tras año de la ocurrencia casual de algunos de esos fenómenos.

En otras latitudes, probablemente más tarde que en Mesopotamia, también se atribuyeron condiciones divinas a los fenómenos de la atmósfera. Basta recordar en la mitología escandinava al dios supremo Thor, dios del trueno y el rayo —la misma idea que el Zeus griego, o el Júpiter Tonante latino—, o al dios Frey como dueño de la lluvia y la luz. Para los incas, Humanchuri era el dios de las tormentas, para los mayas Chac era la diosa de la lluvia y Huracán el dios del viento y fundador del Cosmos. Y si para los egipcios Amón-Ra era el dios Sol, Sati era la diosa del cielo, el viento y los relámpagos.

Y así sucesivamente...

En la América precolombina hay constancia de conductas muy antiguas que relacionaban las actividades humanas, sobre todo agrícolas, con los astros y las condiciones atmosféricas. Incluso hoy día, algunos pueblos indígenas del altiplano andino siembran más o menos pronto en función del aspecto de ciertas constelaciones, como las Pléyades de la constelación de Tauro, durante el inicio del verano, intuyendo la existencia de una correlación entre la apariencia de esas peculiares estrellas y la llegada o no de lluvias abundantes. En realidad, el aspecto más o menos brillante de las estrellas en esos lugares depende de los flujos de viento —seco o húmedo, más frío o más templado— que determinan una mejor o peor transparencia del aire. Quizá eso tenga cierta influencia en el régimen de lluvias posterior...

En todo caso los griegos fueron seguramente los primeros en la historia de la humanidad que intentaron racionalizar el asunto del tiempo y sus caprichos, apartando a las musas y a los dioses del análisis de la realidad. La doctrina de los cuatro elementos de la naturaleza —aire, agua, fuego y tierra—, aun siendo errónea a la luz de lo que hoy sabemos, tuvo al menos la virtud de atribuir la realidad natural a una combinación entre esos cuatros componentes de la realidad observable, combinación en la que los dioses no tenían ya cabida alguna.

Cabe suponer que los más inteligentes —hoy diríamos escépticos— de los babilónicos también tendrían sus dudas acerca de la inconsistencia de aquel sistema de dioses caprichosos que jugaban con el destino de los humanos y con los elementos de la naturaleza, pero no ha quedado constancia de ello. En cambio la Grecia antigua sí fue fértil en ese tipo de discusiones, aunque siempre se trató de movimientos minoritarios. Una polémica que no volvería hasta dos milenios después, al final de la Edad Media, en la época de Copérnico y, luego, de Galileo...

En cualquier caso, siete u ocho siglos antes de Cristo los griegos fueron recibiendo buena parte del bagaje cultural que iba dejando el todopoderoso imperio babilónico en descomposición. Esa transmisión se hizo a través de la costa mediterránea de la Turquía actual, en las costas jónica y anatólica, a través de ciudades famosas como Troya, Mileto, Éfeso, Pérgamo, Colofón, y también en las islas próximas de Rodas, Cos, Samos, Quíos...

En aquella época, las ideas religiosas fueron plasmadas en lo que hoy conocemos como Mitología gracias a los escritos y ensayos de Hesíodo y la popularización que hicieron de ellos las narraciones de Homero. No se conoce la fecha de nacimiento y fallecimiento de ambos autores, pero los historiadores están de acuerdo en que vivieron durante el siglo VIII a.C. Ellos dejaron bien claro, aunque fuera de un modo mucho más poético e imaginativo que realista y creíble, que los dioses manejaban la naturaleza a su libre albedrío, obedeciendo a designios y caprichos perfectamente humanos, pero desde una atalaya divina que les dotaba de poderes sobrenaturales y, principalmente, de la aparentemente mayor virtud deseada por los humanos: la inmortalidad. Muy imaginativo todo, sí; excepto que desde el punto de vista geográfico no hubo necesidad de inventar mucho. Los dioses residían en lo alto de la montaña griega más alta y segunda cumbre de los Balcanes, el monte Olimpo, a 2.917 metros de altitud.

En esa tesitura, los pobres mortales sólo podían resignarse a afrontar las consecuencias de los designios divinos, combatiéndolos eventualmente aun a riesgo de llevar siempre las de perder, salvo que algún dios se apiadara de algún humano en particular —si era humana y guapa, y el dios masculino, bastardo al canto—, o entrara en conflicto con algún otro dios —y en la divina batalla los mortales siempre acababan teniendo más problemas que antes—. En suma, real como la vida misma...

Las Musas eran las encargadas de inspirar en los mortales conductas adaptativas o defensivas que podían, o no, hacerles la vida algo más pasadera. Y eran ellas las que daban consejos prácticos a los elegidos, naturalmente de inspiración divina; mucho más tarde, los ángeles de la cristiandad jugarían un papel similar...

Así, por ejemplo, Hesíodo escribió un texto, sobre «Los trabajos y los días» que quizá fuera el primer testimonio de labores agrícolas relacionadas con el tiempo y las estrellas. Véase un ejemplo: «al surgir las Pléyades, hijas de Atlas, ha de empezar la siega. Y cuando se ocultan, la labranza».

¡Cuánta capacidad de fabulación debieron de tener aquellos escritores geniales, por mucho que se inspiraran en las tradiciones mesopotámicas! Lo cual, y esto sí que es curioso, no fue óbice para que sus ideas fueran aceptadas como dogma de fe por toda la sociedad griega de su tiempo, y luego durante muchos siglos después.

Un buen ejemplo podría ser su concepto de los dioses-vientos; nada que ver con la termodinámica, por supuesto... Los Anemoi, vientos en griego, eran dioses que se correspondían con ciertos puntos cardinales, de donde parecían proceder. Esos dioses solían estar relacionados con las distintas estaciones del año o bien con ciertos cambios anormales en el tiempo atmosférico habitual. Esos vientos-dioses eran gobernados por el dios Eolo, que residía en la región de la Eólida, al norte de la región jónica (lo que hoy es la costa oeste de la Turquía mediterránea). Los vientos beneficiosos eran libres de salir cuando quisieran, pero los perjudiciales estaban encerrados en un establo bajo custodia. Lo malo era que los demás dioses podían forzar a Eolo para que los soltara, si ello les interesaba por alguna razón no siempre generosa, y entonces hacían todo el daño que podían hasta que Eolo los capturaba de nuevo.

Los vientos benéficos, que debían esa característica al hecho de soplar con suficiente regularidad, lo que les hacía bastante predecibles, eran Noto (viento del sur que traía lluvias y tormentas al final del verano y en otoño, algo que en el Mediterráneo ocurre igualmente ahora), Bóreas (viento del norte que traía el frío invernal), Céfiro (viento suave del oeste, propio de la primavera y el verano) y Euros (viento del este, en general seco y cálido).

Los cuatro vientos perjudiciales, mucho más irregulares e impredecibles, eran obviamente más malvados; descendían de Tifón, que era una especie de monstruoso hijo de Gea (la diosa de la Tierra) y de Tártaro (el dios del infierno profundo). Se les llamaba Anemoi Thuellai (vientos de la tempestad) y se les consideraba como los equivalentes masculinos de las Arpías (Thuellai, en griego antiguo). Eran, literalmente, vientos arpíos...

Volviendo a los dioses mitológicos, todavía hoy nos sigue pareciendo asombrosa la fértil inventiva de quienes otorgaron atributos humanos, buenos y malos, a los dioses directamente relacionados con los fenómenos de la naturaleza. Incluso la plácida Aurora de rosados dedos —en inmortal descripción de Homero— era una diosa que acabó condenada al enamoramiento eterno por haberse acostado con Ares, el cruel dios de la guerra que los romanos llamaron Marte... Eran dioses, sí; pero mucho más humanos de lo que parece a primera vista. El cristianismo tomó la idea, ya que Dios hizo al hombre a imagen y semejanza suya; pero el nivel de abstracción y deshumanización de los poderes religiosos del cristianismo es muy superior al de la mitología griega. Aunque las guerras entre los ejércitos angélicos y la rebeldía de los ángeles caídos, que luego poblarían el infierno, suena mucho más natural que sobrenatural.

Algunas religiones animistas como el Shinto japonés también deifican a los elementos de la naturaleza y el paisaje, pero no los humanizan sino que aceptan su esencia divina como lo que son: viento, monte, bosque... Sin transformación, sin humanización posterior. Los sintoístas adoran a los Kami, los espíritus de la naturaleza, algunos de los cuales son muy locales —el monte por encima del pueblo, el río de al lado, el bosquecillo de más allá...—, mientras que otros son bastante más genéricos, como Amaterasu, el espíritu del Sol. Esta forma de religión incluye la veneración de los antepasados a través de la supervivencia de su huella en el paisaje que habitaron.

Volviendo a aquella incipiente civilización griega en pleno auge, cinco o seis siglos antes de Cristo, el tema de los vientos-dioses es un buen ejemplo de la asociación entre los seres sobrenaturales, los fenómenos naturales y los astros celestes. Porque la mitología asumía que todos los vientos, por el simple hecho de estar encima del suelo, debían tener el mismo origen que los astros y debían, pues, estar emparentados con ellos, como dioses que eran. Por ejemplo, Hesíodo describía en su Teogonía a los cuatro vientos buenos como hijos de Astraeo (dios de los cielos) y Eos (diosa de la aurora), que eran los padres asimismo de los cinco astra planetes (estrellas errantes) llamados Estilbo (Mercurio), Fósforo (Venus), Piroente (Marte), Fenonte (Júpiter) y Faetonte (Saturno). O sea, que los vientos y los planetas eran hermanos, dioses hermanos...

Tanta credulidad asombra, y no es de extrañar que apenas un par de siglos después de Hesíodo y Homero, algunos filósofos comenzaran a elaborar teorías bastante más racionales acerca de la naturaleza. Debía parecerles completamente superflua la necesidad de unos dioses manejando a otros dioses menores para que se manifestaran como fenómenos del aire, el suelo, las aguas y el cielo; aunque probablemente no proferían semejantes blasfemias en voz muy alta... Pero la pregunta obvia que sin duda se plantearían debía ser algo así: ¿y si ese comportamiento sólo obedece a leyes propias de la naturaleza, accesibles a la razón humana sin necesidad de apelar a la magia o a los dioses?

No era fácil entonces —nunca lo fue, tampoco ahora— sustraerse a la idea, bastante confortable después de todo, de que todo lo que nos rodea obedece a designios divinos superiores, a poderes muy por encima de los nuestros y que no tenemos por qué comprender; si acaso, adorarlos y tenerles contentos para que no nos castiguen con su poder. Pero, con todo, ¿y si las tormentas no tuvieran nada que ver con Zeus, los vientos no tuvieran nada que ver con Eolo, el oleaje no obedeciera a Poseidón...? ¿Y si todo eso ocurría por razones naturales, es decir, perfectamente comprensibles porque derivaban de leyes fijadas por el entorno natural que incluso pudieran ser bastante más sencillas de lo que se pensaba?

Jenófanes de Colofón (570-475 a.C.) fue quizá el primero en mostrar esa línea de pensamiento, destacado por su espíritu virulentamente crítico hacia Homero. En sus escritos y discursos desmontó las ideas sobrenaturales que salpicaban la obra tanto de Hesíodo como, sobre todo, del mucho más popular Homero, burlándose de la beatitud con la que impregnaban sus narraciones mostrando todo tipo de acciones caprichosas de los dioses como causa de los males de los humanos y responsables directos de los distintos mecanismos de la naturaleza. Para Homero, el héroe Odiseo (más conocido por su nombre latino, Ulises) no luchaba contra una naturaleza ocasionalmente hostil, con sus vientos, sus tormentas, sus corrientes contrarias y sus rompientes costeros, sino que en aquella odisea suya se enfrentaba nada menos que a los dioses, que se entretenían jugándole mil y una malas pasadas. Menos mal que de vez en cuando gozaba del favor de una de las divinidades más poderosas, Palas Atenea, y eso le permitía sobrevivir... Al fin y al cabo, tanto la Odisea como la Ilíada eran obras de ficción.

Pero ése no era el caso de la Teogonía de Hesíodo, que fue durante siglos como una especie de Biblia indiscutida de la mitología, y no sólo en el mundo griego sino, más tarde, también en el mundo latino.

Jenófanes criticaba duramente esa forma de ver el mundo natural; para él, lo que ocurría en el aire, la tierra o el mar no se debía al capricho de unos dioses, favorables o no, sino que podía ser estudiado y comprendido por la mente de los mortales. Bastaba observar y reflexionar para deducir la existencia de ciertas leyes naturales; o sea, no sobrenaturales.

Se puede decir que Jenófanes fue el iniciador de una escuela de pensadores griegos que tuvo su continuidad más tarde en la ciudad de Elea (hoy Velia), en la Italia peninsular. Los máximos exponentes de esa escuela eleática fueron Parménides (530-470 a.C.) y su discípulo Zenón (490-430 a.C.), quienes postulaban que el Universo es inmutable e infinito, más allá del conocimiento humano, pero que ése no era el caso de los fenómenos de la naturaleza que, con la reflexión, podían ser abordados sin necesidad de apelar al concurso de los dioses. Más o menos lo mismo que le ocurrió a Laplace frente a Napoleón cuando, tras explicarle su tratado de cosmología, el emperador le dijo que allí no había mencionado para nada a Dios. Laplace repuso: Sire, je n’ai pas eu besoin de cette hypothèse-là («Señor, no he necesitado para nada esa hipótesis»). Más de dos milenios después...

Volviendo a los eleáticos, suele decirse que un joven Sócrates pudo escuchar a Parménides en uno de los frecuentes viajes que éste hacía hasta Atenas; por eso hay quien piensa que Sócrates —como luego Platón y Aristóteles— mantuvieron una línea de pensamiento que, al menos en parte, quizá arrancaba en Jenófanes. En todo caso, Parménides también pudo inspirar directamente a Platón ya que en sus escritos afirmaba que los fenómenos de la naturaleza eran sólo aparentes y se debían en esencia al error humano al observarlos: o sea, parecen existir pero no tenían existencia real. ¿Salió de ahí el mito platónico de la caverna?...

Zenón de Elea seguía la misma línea de pensamiento que su maestro, aunque era más incisivo y mucho más imaginativo. Se hizo famoso por sus paradojas, puramente lógicas, que acababan demostrando, contra toda apariencia, que las cosas no eran lo que parecían ser —por ejemplo, el movimiento— y que, por tanto, nuestros imperfectos sentidos eran los que nos engañaban. No los dioses... De ahí la necesidad, según él, de recurrir a la lógica y la reflexión como elementos de conocimiento, y no tanto a la experimentación, que consideraba engañosa por culpa de nuestros imperfectos sentidos. Hoy la ciencia reclama para sí, como virtudes esenciales, tanto a la una, la observación, como a la otra, que supone la experimentación y la posterior demostración. Pero, claro, hoy nuestros sentidos se han visto complementados, mejorados y notablemente agudizados, por una infinidad de herramientas e instrumentos imposibles de imaginar en aquellos tiempos.

Con todo, el rechazo hacia lo empírico subyace en numerosos pensadores griegos y fue seguramente el principal obstáculo para que aquellas mentes, sin duda prodigiosas para su época, pudieran alcanzar un nivel de conocimiento real superior al que adquirieron por vía casi exclusivamente teórica. Lástima, porque luego vinieron muchos siglos de oscurecimiento intelectual y de rechazo total a lo que hoy consideraríamos como «científico», simplemente por mantener algunas de las líneas de pensamiento de determinados pensadores antiguos, como Aristóteles o Claudio Ptolomeo.

En cualquier caso cabe consignar que aunque la mayor parte de sus puntos de vista sobre la naturaleza y el conjunto del Cosmos pudieran parecernos, a la luz de lo que hoy sabemos, no sólo erróneos sino incluso ingenuos, nadie podrá negar que sus autores eran ciertamente imaginativos. Y, además, tenían un indudable mérito: se fundaban en la relativa certeza de que había unas leyes naturales que explicaban las cosas, sin tener por qué hacer intervenir a la voluntad, aparentemente caprichosa, de unos seres superiores.

Es obvio que no existen los cuatro elementos naturales de Empédocles, que las enfermedades no se deben a los humores del cuerpo como creía Hipócrates, que el Universo no es matemáticamente perfecto como afirmaba Pitágoras, que los átomos no son como los imaginaba Demócrito, que el mundo no está hecho de agua, según Tales, ni de aire, según Anaxímenes...

Hoy sabemos que la naturaleza no es perfecta ni inmutable, y que las matemáticas no rigen en ella con el rigor que, según los griegos, debería hacerlo... Para los científicos de hoy, el azar y el caos parecen reinar por doquier. La mecánica cuántica en el micromundo, y la mecánica relativista y los sistemas caóticos en el macromundo, nos han dotado de sistemas de análisis racional de la realidad física que distan mucho de aquella perfección, simple y elegante, que perseguían los griegos, y que parecieron corroborar las geniales aportaciones de Galileo y Newton.

Con todo, las ideas de Jenófanes —y, antes que él, de los primeros filósofos presocráticos (Tales de Mileto, 624-547 a.C., tenía ya 44 años cuando nació Jenófanes, aunque vivió aún treinta años más)—, según las cuales es posible encontrar en la naturaleza ciertas regularidades detectables por la observación y la reflexión, sentaba en cierto modo las bases de lo que hoy llamamos método científico, y que tiene mucho que ver precisamente con observar, reflexionar, deducir, aplicar, demostrar, predecir...

Y todo ello a pesar de que, en los inicios de aquella época gloriosa de Grecia de los siglos VI a II a.C., los pensadores hubieron de enfrentarse a enormes limitaciones, sobre todo de tipo tecnológico: sin instrumentos, sin herramientas, tuvieron que valerse de lo único que supieron desarrollar, su intelecto. Y eso les llevó mucho más a la reflexión y a la lógica que a la experimentación. Quizá por eso, porque carecían de instrumentación —a lo mejor, precisamente porque no la tenían—, en cierto modo acababan menospreciando el experimento. De ahí, quizá, los errores a los que llegaron con muchas de sus hipótesis: podrían parecer elegantes, razonables, incluso creíbles... pero luego resultó que la naturaleza ni es tan elegante, ni tan razonable, ni tan matemáticamente perfecta como creían.

Eso no quita para que, durante muchos siglos después, y hoy aún quedan no pocos residuos de ello, volviéramos a sumirnos en prolongados períodos de oscuridad e ignorancia que propiciaron enormes retrocesos en la forma de pensar y actuar. Y la historia está llena de episodios de barbarie relacionados con la intransigencia humana acerca de las afirmaciones que se pueden defender o no, incluso en campos tan aparentemente neutros como el de la física, la química, la astronomía... o la meteorología.

Así, por ejemplo, nos pasamos muchos siglos en Europa negando evidencias que algunos griegos ilustres ya daban por supuestas, como que la Tierra giraba en torno al Sol, y no al revés, o bien que las tormentas o las sequías nada tenían que ver con los dioses o los santos del Paraíso sino con fenómenos atmosféricos del cielo terrenal, de enorme amplitud pero explicables desde el punto de vista termodinámico.

En todo caso, y por lo que a la ciencia del tiempo atmosférico se refiere, las ideas de los griegos acerca de la concepción del mundo, de los dioses y de las leyes que regían en la naturaleza no dejaron de lado a lo que hoy llamamos meteorología; incluso, como buenos navegantes y agricultores que eran, aportaron datos, observaciones y teorías a veces imaginativas, y en otros casos ingeniosas e incluso provechosas. Muchas de aquellas hipótesis dejaban entrever lo que hoy la ciencia moderna ha ido demostrando; otras nos parecen hoy sólo poéticas, curiosas..., pero carentes de sentido.

En ese sentido, quizá el papel crucial en esta evolución del pensamiento griego lo desempeñó la escuela de filósofos agrupados en la ciudad de Mileto, centro comercial del mundo antiguo en los siglos VI y V a.C. Ellos buscaron la sustancia permanente frente al cambio caprichoso, lo universal antes que lo particular, la esencia de las cosas frente a su mera apariencia... Este predominio del mundo físico sobre el de las ideas mítico-religiosas caracterizó a aquella escuela milesia, que sin atacar a Homero y Hesíodo con la dureza con la que lo hizo Jenófanes en Colofón, sí defendía la idea de una naturaleza cuyo comportamiento era ajeno a los dioses.

Tales (murió en el año 547 a.C., a los 77 años) fue el fundador y máximo exponente de estas ideas, y su fama fue tal que mucho después, Aristóteles (384-322 a.C.) llegó a decir que fue el primero de los filósofos... Para Tales, el agua era la «materia primordial», y para afirmarlo se basaba en el descubrimiento de fósiles de animales marinos tierra adentro, en su omnipresencia en el aire, en el suelo y en el subsuelo, y en el hecho de que es un compuesto fundamental para la nutrición y el crecimiento de cualquier ser vivo. Pero su idea no era que todo lo que existe procede del agua o sea agua, sino más bien que la verdadera y profunda sustancia de todas las cosas sí que era, en última instancia, el líquido elemento. Por cierto, también pensaba que el tiempo atmosférico tenía que ir asociado con el movimiento de las estrellas y los planetas.

Anaximandro de Mileto (610-546 a.C.) consideraba que, a partir de algo ilimitado o indeterminado llamado ápeiron —lo que no puede ser definido—, se iban produciendo los opuestos de la naturaleza, como por ejemplo lo frío y lo caliente. Los físicos modernos quizá piensen que eso se parece a lo que hoy sabemos respecto a la energía —que podríamos decir que es inmaterial—, pero que acaba pudiéndose materializar en partículas y antipartículas. Por ejemplo, un fotón —inmaterial, es decir, en palabras de Anaximandro, ilimitado e indeterminado (¿?)— se materializa en un positrón y un electrón, que son partículas opuestas. Y la proporción entre masa y energía, que son la misma cosa, es el cuadrado de la velocidad de la luz...

Pero sería abusivo pensar que Anaximandro anticipaba estas cosas, por supuesto. Eso sí, fue el primero en definir el viento como aire en movimiento, aunque no le otorgaba importancia alguna como sustancia esencial. Además fue un pionero de la geografía: elaboró mapas de todo tipo y realizó diversos cálculos sobre equinoccios, solsticios y estaciones del año.

Su discípulo Hecateo de Mileto (550-476 a.C.) perfeccionó los mapas y datos de su maestro, y describió los pueblos y paisajes de casi todo el Mediterráneo, citando en cada caso los elementos atmosféricos más característicos de su clima. Quizá fue el primer climatólogo descriptivo de la historia.

Otro filósofo milesio, Anaxímenes (585-524 a.C.), consideraba que la materia primordial era sin duda el aire, un principio neutral como el ápeiron de Anaximandro, pero con la ventaja indudable de que sus propiedades se pueden estudiar y definir. De hecho, el filósofo describía cómo a partir del aire se origina lo cálido —es decir el fuego— por «rarificación», y lo frío —el viento, las nubes, el agua, la tierra, las rocas y montañas...— por «condensación».

Por su parte, Heráclito de Éfeso (535-484 a.C.) hizo del fuego el centro de todo lo natural. Ni aire ni agua... Para él todo lo vivo y lo inmutable se compone de un sustrato material basado en el fuego, una de cuyas manifestaciones visibles era el calor. Alguna de sus frases define bien su pensamiento: «El mundo no fue creado por dios ni hombre alguno sino que fue, es y será fuego eternamente vivo que se enciende y apaga rítmicamente». Esta idea del fuego la Física de hoy podría muy bien sustituirla por la idea de energía; al fin y al cabo, el calor es precisamente una forma de energía... Y esa energía eternamente viva que aumenta y se apaga rítmicamente se parece un poco al Universo oscilante (Big Bang y Big Crunch...) que algunos astrofísicos postulan.

Hemos de citar igualmente a Pitágoras (582-500 a.C.) y sus discípulos, que acabaron estableciéndose en Crotona, en la Italia peninsular. Se suele decir que mantenían que «todas las cosas son números», es decir, que la esencia y la estructura de todos los componentes de la naturaleza pueden ser determinadas con sólo encontrar las proporciones numéricas que expresan la relación existente entre ellas.

Así pues, queda claro que tanto los pitagóricos como los milesios centraban su afán en encontrar la respuesta a los problemas de la naturaleza en la reflexión más o menos abstracta, y no tanto en la experimentación. Pero, sobre todo, iban más allá de la idea simplista de que todo se debía a los dioses. En astronomía, Pitágoras sostenía que la Tierra era una esfera que giraba, como los demás planetas, en torno al fuego del Sol, moviéndose de acuerdo a un esquema numérico que explicaba las estaciones e incluso los climas. Todos esos movimientos eran armónicos y deberían dar origen a algún tipo de sonido musical, la famosa armonía de las esferas...

En suma, los filósofos presocráticos prescindieron de las deidades como gobernantes caprichosos del aire, el agua, el calor e incluso los astros que están por encima del aire. Claro que las conclusiones a las que llegan con algunas de sus reflexiones pueden ahora parecernos simples o, de puro evidentes, casi ingenuas. Pero para aquella época resultaban revolucionarias por negar precisamente ese protagonismo de los dioses.

Por cierto, otro filósofo racionalista y que es considerado como el antecesor de la medicina racional, Hipócrates de Cos (460-377 a.C.), describió en uno de los apartados de su Corpus hipocrático llamado «Sobre los aires, las aguas y los lugares» los efectos del clima sobre diversas afecciones, atendiendo a la humedad ambiente, la sequedad del aire, la temperatura, la insolación, y así sucesivamente. También aconsejaba acerca del comportamiento y la alimentación en función del acontecer meteorológico, y siempre según la pertenencia del enfermo a uno de los cuatro supuestos temperamentos de las personas (colérico, sanguíneo, flemático y melancólico).

La isla de Cos, dicho sea de paso, se encuentra no lejos de la costa del Egeo turco en la que estuvo enclavada Mileto; apenas distaban en línea recta unas decenas de kilómetros. Y Colofón y Éfeso eran también ciudades costeras de esa misma zona. Lo cual podría indicar que, precisamente porque los medios de comunicación de entonces eran muy rudimentarios, la proximidad debió de jugar un papel importante en la transmisión de unos u otros saberes.

Hacia el año 400 a.C., el centro de la sabiduría y la vida intelectual de los griegos ya se había ido poco a poco desplazando desde las islas y la zona costera de la actual Turquía hacia la Grecia continental y, en particular, hacia la capital, Atenas. Allí alcanzó su máximo nivel durante al menos tres siglos; luego comenzará a ser sustituida por Alejandría, un par de siglos antes de nuestra era, como capital intelectual del mundo griego y, en parte, del mundo romano. Recordemos que Egipto había sido conquistado por Alejandro Magno en el siglo IV a.C.

El esplendor de Atenas como capital intelectual del mundo antiguo se debió sobre todo a los tres grandes filósofos, Sócrates (470-399 a.C.) y Platón (427-347 a.C.), ambos de Atenas, y Aristóteles de Estagira (384-322 a.C.).

Por lo que a este libro se refiere, ninguno de los dos primeros aportó demasiado a lo que podríamos denominar prehistoria de la meteorología. En una línea parecida a la de los sofistas, Sócrates centró sus reflexiones en cuestiones relacionadas con la ética y la política, con el lenguaje, incluso con las leyes y las normas sociales. La cosmología y, en general, las ciencias de la naturaleza le interesaron más bien poco. En cuanto a Platón, aunque se convirtió en un pensador mucho más sistemático y abarcó prácticamente todos los temas, partía de la misma base que Jenófanes y los eleáticos según la cual lo observado adolece de un defecto fundamental: nunca podrá reflejar la realidad porque está fuera del alcance de lo que podemos observar. Esa realidad, en el mejor de los casos, sólo podrá ser concebida a través de la lógica y la reflexión.

En uno de sus últimos «Diálogos», Timeo, Platón expone algunas de sus ideas acerca del cuerpo humano y la medicina, con referencias, un poco de pasada, a las ciencias naturales y la cosmología. Él otorgaba a la geometría teórica —el círculo, el triángulo, el cuadrado, los cinco sólidos platónicos (hoy llamados poliedros regulares convexos)— características de perfección que las limitaciones de nuestros sentidos sólo podían ser capaces de concebir pero no de observar.

Aristóteles, en cambio, aunque fue discípulo de Platón, pensaba de forma diferente y colocaba los pies sobre el suelo, aunque sin renunciar, obviamente, al pensamiento especulativo. Fue un observador sobrio, un investigador tenaz de lo que se sabía antes que él y de lo que aún se ignoraba, y le otorgó a la experimentación un cierto derecho a existir, aunque nunca al mismo nivel que la reflexión pura. De ahí que, en conjunto, hiciera progresar de manera extraordinaria el conocimiento humano en torno a cuestiones no sólo filosóficas, lógicas, políticas o éticas, sino también de pura historia natural, en cuestiones zoológicas, botánicas, anatómicas, incluso astronómicas y, lo que más nos interesa aquí, meteorológicas.

De hecho, él fue quien inventó el término «meteorología»; uno de sus libros se llamaba precisamente así: Meteora (literalmente, «Meteoros»), que algunos historiadores también titulan Meteorologica, es decir, «Meteorológicos» o bien «Cosas meteorológicas». En suma, Tratado de meteorología. El primero de la historia con ese título.

No es que sus ideas acerca de los fenómenos del tiempo atmosférico fueran muy acertadas que digamos, incluso teniendo en cuenta su época. Pero al menos contenían distintos elementos de observación de notable interés, aunque siempre predominaba en sus reflexiones lo especulativo sobre lo predictivo, lo reflexivo sobre lo observado. También escribió en esa época, hacia el año 340 a.C., la obra Peri uranus («Acerca del cielo»), más conocida por su título latino De caelo. Aunque trataba esencialmente de astronomía, en algún momento hacía referencia a los climas e incluso al tiempo de todos los días, ya que para él los meteoros dependían directamente de los astros.

En sus obras Aristóteles establece una división tajante entre el cielo y la tierra. El primero es incorruptible e inmaterial, hecho de un elemento etéreo que acabaría siendo bautizado como quintaesencia. En el cielo sólo hay perfección matemática, simbolizada por los movimientos circulares de los orbes, que son las esferas que arrastran a los planetas. En cambio, la tierra consta de los cuatro elementos de Empédocles y es cambiante, además de residir en ella los accidentes, las pasiones, la corrupción...

Para Aristóteles, pues, la causa perfecta de todas las cosas está, lógicamente, arriba; y aquí abajo sólo podemos sufrir las consecuencias de nuestra imperfección. Lo cual significaba que las veleidades atmosféricas no podían tener causas terrenas sino que se debían exclusivamente a causas celestes. Por cierto, los meteoros habían sido definidos por Platón como «aquello que hay entre el cielo y la tierra», pero en su obra Aristóteles los define con mayor precisión. La traducción literal de meteoros podría ser la siguiente: «todos los efectos que se pueden llamar comunes al aire y al agua, así como las formas y partes de la tierra, y los efectos de sus partes». Aquí queda claro que son terrestres en sus consecuencias, aunque celestes en sus causas.

La potencia observadora del sabio heleno se refleja en la siguiente frase, que describe el ciclo de evaporación, condensación y precipitación en el aire: «Así pues el Sol, moviéndose como lo hace, provoca con su calor cambios de transformación y decadencia; por su acción, la más limpia y fresca agua es elevada día tras día para disolverse en vapor que, al llegar a las regiones superiores, se condensa de nuevo con el frío para así retornar a la tierra».

Su discípulo y amigo —fue nombrado por Aristóteles en su testamento tutor de sus hijos— Teofrasto de Lesbos (372-287 a.C.) acabó siendo quizá el primer gran divulgador de las ciencias naturales, y muy especialmente de la botánica. Precisamente por la enorme influencia de la atmósfera en las plantas, se acercó mucho al mundo de los fenómenos meteorológicos, concretando el pensamiento de Aristóteles en diversos casos particulares y acercándolo mucho más a la realidad cotidiana; lo plasmó en su Libro de los signos, en el que Teofrasto incluso daba claves para la predicción meteorológica basándose en el tiempo observado anteriormente, más que en la posición de las estrellas.

Es una verdadera lástima que las claves, incluso erróneas algunas de ellas, que comenzaban a desvelar acerca del funcionamiento de la máquina atmosférica tanto el Tratado de meteorológica de Aristóteles como, sobre todo, el Libro de los signos de Teofrasto, acabaran cayendo en el olvido. La humanidad hubo de esperar dos mil años antes de recuperar algunas de aquellas ideas, ya en pleno Renacimiento.

Un matemático llamado Conón de Samos (280-220 a.C.), que vivió en Alejandría casi toda su vida como astrónomo de la corte de Ptolomeo III —era, por cierto, muy amigo de Arquímedes—, escribió entre otras una obra llamada Astrología en la que relacionaba los elementos celestes —entre ellos los que llamaba «17 signos de las estaciones», asociados a la posición de ciertas estrellas a lo largo del año— con las fluctuaciones del tiempo atmosférico. Aunque hoy nos parezca una idea casi risible, tiene bastante sentido si se considera que esa correlación tiene que ver con las regularidades de un clima relativamente estable en la región de Alejandría, y la consecuente asociación de las variaciones de lluvia y temperatura con el devenir del calendario. La astrología no es, después de todo, más que una «calendariología», en la que los «signos» reemplazan a los meses...

No es de extrañar que mucho más tarde, ya en el siglo II d.C., Claudio Ptolomeo —que nada tenía que ver con la dinastía de los Ptolomeos que reinó en el Egipto helenístico en los tres siglos anteriores a nuestra era— recogiera en su Almagesto las teorías astronómicas basadas en las ideas de Aristóteles y las sugerencias de Teofrasto y Conón, pero en cambio ignorando las aportaciones geniales y mucho más acertadas de Aristarco, Hiparco y Eratóstenes, a los que luego citaremos.

Y ya puestos a encontrar coincidencias curiosas, cabe recordar que Copérnico, en su famoso libro De revolutionibus orbium coelestium, en el que defendía la teoría heliocéntrica, 18 siglos después, hubiera de tachar por prudencia sus referencias a Aristarco de Samos con la esperanza de que la autoridad eclesiástica apreciara que sus ideas sólo eran especulaciones matemáticas sobre la base de las ideas aristotélicas, que eran las que defendía la iglesia. Años más tarde aquel subterfugio de Copérnico (que murió antes de ver editado su libro) no les iba a servir de nada a Giordano Bruno ni a Galileo Galilei, condenados por la iglesia por mostrar su desacuerdo con... ¡Aristóteles! Cuántos siglos de oscuridad y cerrazón hubieron de transcurrir, tras aquel luminoso paréntesis de la Grecia jónica, ateniense y alejandrina. Es probable que el declinar de aquella era floreciente grecorromana y alejandrina en cuestiones filosóficas, matemáticas, astronómicas e incluso meteorológicas se iniciara con el deleznable asesinato de la matemática alejandrina Hipatia (355-415) por una turba de religiosos cristianos fundamentalistas, enemigos de la racionalidad...

Demos un salto atrás en el tiempo y regresemos por un momento a la Grecia de tres siglos antes de nuestra era. Aunque no estuvieron directamente relacionados con la meteorología, conviene recordar, aunque sea de pasada, a las tres figuras máximas de la astronomía alejandrina que hemos citado unas líneas más arriba, Aristarco, Hiparco y Eratóstenes. No tuvieron nada que ver con la escuela de pensadores atenienses pre y postsocráticos, en particular Aristóteles, porque ellos sí fueron observadores atentos, además de matemáticos geniales y racionalistas convencidos de que lo que veían y calculaban debía aproximarse a la realidad cuanto fuera posible, sin apriorismos acerca de la perfección del mundo o de sus formas.

Aristarco de Samos (310-230 a.C.) ha pasado a la historia como el primer y más genuino defensor de la teoría heliocéntrica. Ya hemos visto que los pitagóricos, antes que él, ya defendían la misma idea aunque por motivos quizá diferentes, ya que sobre todo se basaban en la abstracción de las ideas antes que en la observación real de lo que acontecía en los cielos.

Eratóstenes de Cirene (276-194 a.C.), por su parte, midió con precisión asombrosa la distancia de la Tierra al Sol, la oblicuidad de la órbita terrestre causante de los climas invertidos en los dos hemisferios terrestres, el diámetro de la Tierra... Fue un matemático genial, pero también supo utilizar sus dotes de observación y consiguió desarrollar elementos auxiliares, como la esfera armilar, que le ayudaron a precisar sus medidas. Publicó una Geografía con toda clase de datos sobre clima, regiones, dimensiones, zonas marinas...

Y, finalmente, Hiparco de Nicea (190-120 a.C.) fue otro observador atento de los cielos, con ayuda de nuevos instrumentos que él puso a punto: por ejemplo, el teodolito y algunos medidores de ángulos muy precisos. Elaboró un completo catálogo de estrellas, clasificadas según su intensidad en diversas magnitudes; en total 1.080 estrellas visibles a simple vista, una cifra asombrosa (más o menos, todas las que podemos contemplar hoy sin aparatos, suponiendo que tengamos muy buena vista), indicando su posición respectiva en coordenadas elípticas. También diferenció el año sidéreo del trópico, aplicó los conceptos de latitud y longitud, desarrolló la trigonometría, observó algunas concordancias entre el tiempo meteorológico y algunas posiciones astrales...

Otros astrónomos de esa época o posteriores —Eudoxo, Calipo y, sobre todo, Gémino de Rodas (siglo I a.C.)— sistematizaron muchos de aquellos conocimientos astronómicos, poniéndolos al alcance de las gentes al relacionarlos con la actividad doméstica y, sobre todo, agrícola. Esos datos astronómicos que se suponía en relación directa con el acontecer atmosférico, tan esencial en agricultura, se presentaban en forma de parapegma (en griego plural, parapegmata) que eran unos calendarios en piedra que llevaban grabadas las fechas de los principales sucesos astronómico-meteorológicos del año, en función del orto y ocaso de ciertas estrellas o grupos de estrellas. Se hacían públicos exponiendo diversas copias en las principales plazas de las ciudades y pueblos.

Esta correspondencia entre elementos meteorológicos y astronómicos, puesta al alcance de las gentes fuera del ámbito erudito de las bibliotecas, explica quizá el origen de algunas de las expresiones que pueden haber sobrevivido hasta nuestros días. Por ejemplo, la palabra «canícula» (curiosamente en inglés dicen «dog days») se refiere a las puntas de calor del verano justamente cuando la estrella Sirio, la más brillante de la constelación del Can Mayor, aparece por el horizonte oriental poco antes de amanecer. Aunque lo cierto es que eso ocurría hace unos 2.000 años; ahora, a causa de la precesión de los equinoccios, la brillante estrella que aparece en el este al amanecer por esas fechas es Proción, la alfa del Can Menor, a la que algunos llaman «la perrita». Recuérdese que las constelaciones de los dos canes acompañan a Orión, el cazador celestial...

Curiosamente, en la actualidad también estas dos constelaciones «caninas», con sus brillantes estrellas alfa, Sirio y Proción, respectivamente, parecen protagonizar otro dicho popular, inverso al de canícula: «hace un frío de perros». Y es que en lo más álgido del invierno, hacia el mes de enero, salen por el horizonte oriental al anochecer y luego se encuentran casi en el centro del cielo, bien visibles, en mitad de la noche, en esas noches de máximo frío.

Ya en la Alejandría del imperio romano, Claudio Ptolomeo (100-170) olvidó —o quizá es que simplemente las ignoraba— muchas de las racionales enseñanzas de predecesores suyos en temas astronómicos de gran calado. En cambio, contribuyó a difundir los saberes esencialmente aristotélicos y también muchas «recetas» astronómico-meteorológicas procedentes de la Antigüedad. De hecho, en la misma línea que los parapegmata de Gémino, pero bastante después, elaboró un completo calendario acerca del discurrir del tiempo atmosférico a lo largo del año en su obra llamada Phaseis (cuya traducción podría ser «Fases», o «Bandas»), que asociaba ciertas agrupaciones estelares en forma de bandas que ascienden o descienden a lo largo de la noche a la determinación del clima dominante en cada momento. Hoy eso nos recuerda, aunque sea de lejos, la clasificación climática actual simplificada, en función de las bandas paralelas al Ecuador: clima polar, subpolar, templado, subtropical, tropical, ecuatorial...

En su famoso Tetrabiblos, Ptolomeo también aludía a la predicción no tanto del clima como del tiempo, asociando a los elementos astronómicos otros signos locales complementarios como el color del Sol al atardecer o al amanecer, los halos en torno a la Luna, la coloración más o menos brillante de las estrellas, y otros del mismo estilo.

El interés por las ciencias de la naturaleza, en general, y por la meteorología en particular, no disminuyó en el mundo latino, heredero de la tradición y de la cultura de Grecia. El imperio romano, nacido de la anterior república romana —contemporánea de la etapa final del helenismo ateniense—, se fue extendiendo desde poco antes de la era cristiana por buena parte del contorno mediterráneo, e incluso más allá, y su esplendor, en asociación con la civilización egipciaalejandrina, duró al menos cinco siglos. Sus intelectuales prosiguieron la labor de los griegos sin solución de continuidad; de hecho, es difícil aludir a aquellas épocas con las actuales referencias de los estados modernos de Grecia e Italia. Ambos mundos antiguos, Grecia y Roma, interaccionaron en el tiempo y en el espacio durante un largo período histórico; lo mismo que el mundo mesopotámico y el mundo anatólico permeabilizaron y fecundaron lo que luego sería el esplendor heleno.

Además, en sus épocas de máximo esplendor —Grecia unos pocos siglos antes de Cristo, Roma en la época de Cristo y algún siglo después—, ocuparon territorios muy vastos de Asia Menor, Europa y norte de África.

En todo caso, con el imperio romano se mantienen las tradiciones filosóficas griegas, con similar apego por la retórica y si acaso una mayor inclinación por las aplicaciones prácticas.

Una de las más interesantes enciclopedias de las ciencias naturales fue la del historiador y naturalista Plinio el Viejo (23-79), cuya Historia naturalis —un encargo del emperador Nerón, que no llegó nunca a completar— recopilaba los trabajos de más de dos mil autores, tanto griegos como romanos, en campos muy diversos de lo que hoy llamamos ciencias naturales. Fue la primera enciclopedia de la naturaleza, aunque inacabada, de la historia, y ocupaba más de 160 volúmenes. En ella cohabitaban las observaciones realistas y a veces muy detalladas de ciertos procesos naturales, y las fábulas y leyendas más imaginativas aunque, sin duda, muy extendidas en el medio rural.

Uno de los libros, el XVIII, se refería específicamente al tiempo atmosférico y su título no puede ser más ilustrativo: De tempestatum praesagiis. En él, Plinio recopila creencias y observaciones populares en torno a la predicción del tiempo, escasamente científicas pero muy prácticas por su sencillez de aplicación. Se basaban en la repetición de ciertos acontecimientos celestes y probablemente también en la experiencia acumulada a lo largo de generaciones por campesinos y marineros. Un mecanismo de transmisión oral similar al que mucho más tarde se plasmaría en el refranero, tan popular en zonas rurales incluso ahora, en pleno siglo XXI.

Otros autores se habían ocupado ya de los problemas agronómicos, con alusiones al tiempo y sus veleidades. Por ejemplo, Virgilio (70-19 a.C.) elogiaba en sus Bucólicas la vida en el campo y en contacto directo con la naturaleza, incluidos los fenómenos atmosféricos, y en sus Geórgicas, obra dedicada específicamente a las labores agropecuarias, aludía a los ciclos meteorológicos beneficiosos para unas u otras labores. También Lucrecio (99-55 a.C.) escribió un extenso poema en seis tomos, De rerum natura («Sobre las cosas de la naturaleza»), cuya última parte se refiere a los fenómenos atmosféricos y los daños que pueden ocasionar. Séneca (4 a.C.-65 d.C.) escribió acerca de estos temas en una obra en siete tomos llamada Naturales quaestiones («Cuestiones de la naturaleza») donde mezclaba la meteorología con la oceanografía e incluso la geología. No aportaba grandes novedades pero, al igual que la obra de Plinio, fue una obra que gozó de mucha fama y enorme predicamento hasta bien entrada la Edad Media.

Muchos más autores romanos hablaron, aunque fuera como referencia lejana, del tiempo y el clima, pero sus aportaciones no añadieron gran cosa a lo que ya habían escrito otros antes de ellos. De hecho, la tradición oral entre las clases populares, e incluso entre los dirigentes sociales —nobleza, clero—, se guiaría durante siglos por las obras inspiradas en Ptolomeo —y, por tanto, en Aristóteles— y por los textos de Plinio y Séneca, esencialmente.

La caída del imperio romano a partir del siglo V y el creciente poder de la religión cristiana en el mundo greco-latinoeuropeo señalaron el comienzo de una época de estancamiento de los conocimientos acerca de la naturaleza, en general, y por tanto también de las cuestiones relacionadas con la atmósfera y sus fenómenos. Fue como si los seres humanos hubieran abdicado de su capacidad de observación y medida de los fenómenos naturales —meteorológicos, astronómicos, botánicos...— en aras de unas creencias que, por absolutas, no podían ni debían ser refutadas. En temas astronómicos fue imparable el avance de la astrología como método predictivo del futuro —incluso las más poderosas mentes del renacer de la astronomía como ciencia, como Kepler o Newton, creían en ella.

Tras la racionalidad y el rigor del mundo greco-romano se abrió así una larga etapa en la que los magos y adivinos, con o sin características religiosas añadidas, camparon por sus respetos en casi todos los campos, y muy especialmente en el atmosférico.

1.2. Magos y adivinos: racionalidad e ignorancia

1.2.1. Magia y religión, antes y ahora

La potencia intelectual de los grandes pensadores del mundo antiguo, tanto presocráticos como aristotélicos o, ya después, alejandrinos y romanos, pudiera llevarnos a pensar que en aquellas épocas, varios siglos antes y después del nacimiento de Cristo, todo era racionalidad y reflexión, matemática y astronomía, filosofía y rigor. Pero nada más lejos de la realidad. Las figuras que hemos plasmado en el apartado anterior fueron singulares, pero es indudable que el resto de la población, y no digamos sus dirigentes políticos, militares y, sobre todo, religiosos, vivieron en su inmensa mayoría al margen de todos esos avances.

Los dioses de la Antigüedad eran venerados por la población, y a ellos se les atribuían las bondades y maldades de la vida cotidiana de cada cual incluido, como no, el tiempo de todos los días. El culto y los sacrificios a unas u otras deidades formaban parte de la vida normal de todos los habitantes, no muy lejos del pensamiento reflejado por Homero en sus narraciones, casi ocho siglos a.C.

La cosmogonía helénica, además de muchos otros elementos culturales, fue trasladada casi sin cambios —excepto, por ejemplo, los nombres de los dioses— desde el mundo griego al nuevo poder romano, y luego al resto de las regiones que inicialmente habían pertenecido al mundo grecolatino. También ocurrió algo parecido, lo acabamos de ver, con los elementos más racionales basados en la observación y la experimentación, aunque a la larga fueron poco a poco eliminados del común saber de las gentes. El poder de las religiones fue siempre superior, quizá lo siga siendo, al poder de la razón. Luego, en los siglos IV a V d.C. la batalla entre el cristianismo y los residuos de las religiones mitológicas fue siendo poco a poco ganada por el primero.

Por supuesto, estamos refiriéndonos al mundo europeo. Es obvio que la evolución en estos campos fue muy diferente en la América precolombina o en las diversas civilizaciones asiáticas —hindú, china, japonesa...—. Con todo, es seguro que, con sus propias claves socioculturales, allí predominaron igualmente la magia y la religión sobre la más estricta racionalidad.

Desde siempre —y, lamentablemente, incluso todavía hoy— las supersticiones, la magia y las creencias religiosas más o menos trascendentes han campado por sus respetos en campos tan «vidriosos» como el de la ciencia, y muy especialmente la medicina, que no sólo tiene mucho que ver con la salud y la enfermedad sino sobre todo con la muerte y, por tanto, con el tránsito hacia un supuesto más allá. Y, por supuesto, igual que vimos que la mitología grecorromana otorgaba a sus dioses poderes absolutos sobre los elementos atmosféricos y astronómicos, lo mismo ocurrió luego con el cristianismo. No hay que olvidar que en aquellos tiempos el devenir atmosférico era de crucial importancia para la supervivencia de las gentes del campo y la mar, tanto los pobres como los ricos. ¿Cómo no iban los seres supremos a tener dominio absoluto sobre elementos tan esenciales para la vida de los humanos?

Desde luego, a nadie se le oculta que las manifestaciones más llamativas de la atmósfera pueden resultar sobrecogedoras. Pocos son los que no sienten que se les encoge el ánimo en el fragor de una tormenta, rodeados de vientos ululantes y truenos ensordecedores, con el paisaje iluminado fantasmagóricamente; y más aún si eso ocurre por la noche, cuando mejor se escuchan los chasquidos próximos de las descargas eléctricas. Eso les sigue ocurriendo a muchos incluso hoy, en pleno siglo XXI, así que no es difícil imaginar lo que pudieran sentir nuestros antepasados en pleno oscurantismo premedieval, librados al capricho de los meteoros en el campo, en la mar, en medio del bosque o al aire libre, incluso en el interior de infraviviendas mal construidas y peor aisladas...

Por eso no es de extrañar que, al margen de las tradiciones antiguas más eruditas y de la transmisión oral de las observaciones más básicas de los campesinos, florecieran y medraran mucho más las malas hierbas de la superstición y la charlatanería que defendían personajes estrambóticos y delirantes: brujas y hechiceros varios, magos y adivinos de todo tipo y pelaje, sanadores astrales y echadores de cartas, santones llenos de irreverencia hacia las religiones más oficiales... Junto, como es lógico, a las creencias religiosas más arraigadas en cada región; en Europa, esencialmente el cristianismo. Éstas se erigían en árbitro de los males infligidos por el mal tiempo, exigiendo sacrificios económicos junto a ceremonias diversas —procesiones, rogativas, ritos varios— para aplacar a Dios, ofendido por la mala conducta humana. O sea, el mal tiempo se debe... a los pecados de los hombres. Si el poder supremo que habita en los cielos manda tormentas, heladas o sequías, es porque los hombres se portan mal...

Lo malo es que todo eso convivió entonces, pero también convive hoy, con la ciencia de su tiempo. Tiene cierta lógica que aquello ocurriera en la Edad Media, pero no se explica que perdure en nuestros días. Por eso resultan asombrosos, por ejemplo, anuncios como el que apareció en el verano de 1982 en un diario londinense, y en el cual el ayuntamiento de una ciudad del norte de Gran Bretaña ofrecía una determinada suma, literalmente, «a aquella persona —sea mago, brujo, científico o astrólogo— que se comprometiese a impedir la lluvia durante los días de la Feria de la localidad». Suena a chiste, pero el anuncio era real, e incluía una coletilla que parece más bien cosa de Chiquito de la Calzada: «Abstenerse personas sin la seriedad debida».

Todavía más chusco resulta que, ya en el año 2009, nada menos que el alcalde de Río de Janeiro le pida a una espiritista que use su magia para evitar la lluvia en las fiestas de Año Nuevo. Por lo visto, los meteorólogos anunciaron un temporal que podría arruinar la famosa Nochevieja de la playa de Copacabana, a la que acuden un mínimo de dos millones de personas. La médium, llamada Adelaida Scrittori, pertenecía (supongo que aún pertenecerá) a la Fundación Espiritista Cacique Cobra de Coral, y aseguraba, entre otras cosas, que era capaz de detener la lluvia con la única fuerza de su magia. El alcalde, Eduardo Paes, quiso poner de su lado a todas las fuerzas oscuras y no sólo apeló a la espiritista sino que pidió ayuda igualmente a un párroco católico y a un pastor evangélico. Y no es que la cosa se hiciera con sigilo, como cabría imaginar; al contrario, el secretario municipal de Turismo de Río de Janeiro, Antonio Pedro Figueroa de Mello, explicó públicamente cómo era el contrato que se firmó con la maga, aunque aclaró enseguida que él en quien creía realmente era en Dios; no obstante, como cualquier ayuda espiritual era bienvenida, rezarían a todos los santos y todos los credos. Eso se llama...

Ecumenismo en estado puro. Recuerden, fue en el año 2009, en pleno siglo XXI.

Por cierto, el día 1 de enero de 2010, y durante todavía algunos días más, llovió intensamente en la importante ciudad brasileña, causando inundaciones y cuantiosos daños materiales. Entre el día 31 y el día 1, o sea, durante la Nochevieja, cayeron más de trescientos litros por metro cuadrado de lluvia, con rayos y truenos por doquier, tal y como habían pronosticado los meteorólogos... Y nos cabe una duda: ¿le pagarían sus honorarios a la maga? ¿Tendría ésta algún tipo de seguro contra ese tipo de contingencias adversas del más allá? Y ahora, un poco más en serio, ¿dimitieron el alcalde y el secretario municipal de Río de Janeiro?

Con el tiempo, especialmente en los países europeos, el rol de hacedor de lluvia fue quedándose confinado casi en exclusiva en los ámbitos religiosos, aunque eso no impidió su coexistencia con algunos ritos profanos remanentes y todavía en vigor, ahora o hasta muy recientemente. Por ejemplo, el baile del trençador de les aigues de Cadaqués, que el Martes de Carnaval convocaba las lluvias favorables para ese año, según aporta el historiador Rómulo Sans en su libro sobre el Ampurdán en el siglo XIX.

Pero a partir de la Edad Media las rogativas fueron convirtiéndose en el rito por antonomasia. La idea no es muy diferente de la de Homero y Hesíodo: puesto que los dioses tienen el poder de controlar a su antojo los fenómenos atmosféricos, conviene encomendarse a ellos, rezándoles o incluso ofreciéndoles algún tipo de sacrificio, con el fin de que sus caprichos meteorológicos acaben siéndonos favorables.

Si la cosa no salía bien, en el mundo cristiano se recurría a cambiar de sitio las imágenes de la iglesia y, en particular, a mover dentro o fuera de ella la del santo patrón. En algunos sitios incluso se realizaba el mito de la inmersión: la efigie era empapada en agua o incluso sumergida en ella (es lo que algunos denominan magia imitativa, que pretende conseguir grandes efectos en una determinada materia con una muy pequeña cantidad de esa misma materia; la misma magia absurda que practica, por ejemplo, la homeopatía). Como si con ello pudieran convencer mejor al santo para que echara una mano con las lluvias ausentes...

El teólogo navarro Martín de Arles (1451-1521) cuenta de qué modo utilizaban en su tierra a la imagen de san Pedro para pedirle lluvia en época de sequía: «sacaban la imagen y la llevaban en procesión a orillas del río donde le suplicaban hasta tres veces “¡San Pedro, remédianos!”. Si no respondía —como era usual— la multitud pedía a gritos que se sumergiera la imagen en el río hasta que los principales del lugar tomaban partido y tranquilizaban a las gentes saliendo garantes de que el santo traería la lluvia, prestando fianza pecuniaria, que era desde luego aceptada por el pueblo, empobrecido por la sequía. Y nunca dejó de llover en el día siguiente». Este final de relato optimista es difícilmente creíble y sin duda contrasta con la famosa copla burlesca de origen alcarreño que, por cierto, alude, según las crónicas, al apodo que por esa razón llevan los habitantes de la localidad de Alcocer: «brutos». La copla dice así:

No he visto gente más bruta

que la gente de Alcocer,

que echaron el Cristo al río

porque no quiso llover.

En general, los días de rogativas eran días de penitencia: había que aplacar la ira divina y pedir perdón por los pecados cometidos, porque por culpa de ellos venía el castigo de la falta de lluvia. La misma idea que los mayas, que los griegos, que... En época de rogativas solían cerrarse los comercios y se acudía a las ceremonias con trajes oscuros o negros...

En épocas más recientes, incluso en la actualidad, las rogativas católicas suelen consistir en una oración que se dice en las misas, y en casos más graves, en una procesión solemne acompañada del rezo Ad petendam pluviam, o bien de las Letanías de los Santos y otras oraciones. Conviene aclarar que el caso de las lluvias excesivas, aunque mucho menos frecuente, también está contemplado. En esa ocasión la principal plegaria se llama Pro serenitate.

Este asunto de las rogativas puede parecer anecdótico, pero los historiadores del clima han encontrado en los registros parroquiales que dan cuenta de ellas todo un filón informativo acerca del tiempo que hubo en los últimos siglos. Puesto que las rogativas eran después de todo un recurso extremo, parece obvio que cuando se convocaban era porque había una sequía notable, unas lluvias insólitamente abundantes, unas heladas excesivas, unos calores abrasadores... El procedimiento de convocatoria estaba bien regulado burocráticamente y, desde la Edad Media, quedaba debidamente registrado no sólo en los archivos de iglesias y parroquias sino también en las actas municipales y en los archivos de los capítulos catedralicios.

De ahí su interés para los investigadores actuales, tal como señalan, por ejemplo, dos conocidos climatólogos de la Universidad de Barcelona, Mariano Barriendos y Javier Martín-Vide, en uno de sus trabajos; la frase es elocuente: «El potencial para el análisis climático sobre diferentes elementos meteorológicos y, especialmente, la capacidad de iniciar su recopilación en cualquier país dentro del ámbito cultural católico, convierten a las rogativas en una herramienta nada despreciable de la climatología histórica».

Incluso hoy se siguen produciendo las rogativas a poco que el tiempo se muestre más adverso de lo normal. Sin ir más lejos, en los «Principios y orientaciones», del Directorio sobre Piedad Popular del concilio Vaticano II (en 1966), se dice que la fecha de las procesiones de rogativas deberán ser determinadas por la Conferencia Episcopal de cada país, y define tales actos como súplicas públicas de la bendición de Dios sobre los campos y el trabajo de los hombres, con carácter penitencial.

Parece coherente con todo lo anterior: si Dios no hace llover es porque los hombres hemos pecado y habremos de hacer penitencia para que nos perdone y nos mande la necesaria lluvia. No es, pues, de extrañar que el Arzobispado de Madrid difundiera, ante la prolongada sequía de 1997, la plegaria a la que antes aludíamos, Ad petendam pluviam, con el siguiente contenido literal: «Para que Dios todopoderoso, en quien vivimos, nos movemos y existimos, nos conceda la lluvia necesaria, y así, ayudándonos con los bienes de la tierra, podamos aspirar confiadamente en los bienes del Cielo, roguemos al Señor».

En todo caso, los ejemplos que hemos citado, más que actuales, quizá basten para recordarnos que, a pesar de toda la soberbia tecnocientífica que nos caracteriza hoy, todavía los seres humanos guardamos en nuestro interior altas dosis de irracionalidad en esto del tiempo y del clima (y en muchas otras cosas). Nos distinguimos muy poco de los habitantes del aquel mundo medieval, incluso de la Antigüedad clásica, que sin embargo tendemos a menospreciar por oscuro e ignorante.

1.2.2. La Edad Media

Pero retrocedamos de nuevo a la caída del imperio romano; quizá no sea muy exagerado afirmar que aquello supuso una auténtica catástrofe para la cultura europea. En apenas un par de siglos, el esplendor grecorromano acabó siendo pasto, quizá más que nunca, de las creencias y conductas más burdas: brujería, hechizos, quiromancia, supersticiones, cultos demoníacos... Sin olvidar el papel, nada brillante, de las autoridades eclesiásticas cristianas.

Abundaron las quemas de brujas —lo que implicaba que quienes las condenaban, y la Inquisición sabía mucho de eso, creían en ellas—, los autos de fe y muchas otras ceremonias más o menos sórdidas y ocultas que traslucían una vuelta de tuerca a la creencia, indudablemente primitiva, en los poderes supremos que dirigían la vida de los hombres y el comportamiento de la naturaleza a su antojo.

En líneas generales, por toda Europa quedó el conocimiento del medio natural —que había sido explorado con no poca racionalidad por mesopotámicos, griegos y romanos— en manos de la charlatanería popular y, por supuesto, de una religión cristiana cada vez más poderosa. Sólo se mantuvieron al margen, y aun así de forma muy parcial y obviamente sectaria, los escasos reductos donde sobrevivieron los restos de la cultura antigua —en esencia, los monasterios y las minorías cultas de la jerarquía eclesiástica—, en los que las ideas aristotélicas eran veneradas como verdades absolutas. Aunque fue muy anterior al nacimiento de Cristo...

Por contraste, el mundo árabe de los siglos posteriores a la caída del imperio romano había ido conservando, por tradición predominantemente oral, los saberes grecorromanos difundidos a través de Alejandría. En la transmisión de ese conocimiento los árabes lo fusionaron con retazos de otras culturas lejanas, como la persa o la hindú. Es curioso que una parte de esa cultura compleja y llena de mestizaje científico-religioso retornara a Europa por vías indirectas, en parte a través de los restos del imperio romano de Oriente —donde Bizancio resultó de especial importancia—, pero sobre todo a través del mundo árabe de España, desde donde se difundiría luego poco a poco hacia Italia, Francia e incluso los países escandinavos. Aquí fueron Toledo, y más tarde Córdoba, quienes desempeñaron un papel esencial.

La escasa racionalidad que podríamos encontrar, pues, en la meteorología medieval europea se debe precisamente a la conjunción de saberes babilónicos enriquecidos luego por la cultura griega (sobre todo, las ideas de Aristóteles y algunas aportaciones de los grandes astrónomos), junto con algunas ideas del mundo hindú y persa (astrología oriental, mansiones lunares), y algún añadido posterior a la hégira (año 622), como por ejemplo el hermetismo o el complejo mundo del sufismo. Una mezcla de lo más extraño que, no siempre bien difundida ni aun menos entendida, acabó enriqueciendo las ya abundantes prácticas de hechicería y adivinaciones que se le aplicaban a las cosas de la atmósfera —y a casi todas las demás cosas, claro.

Uno de los trabajos más respetables de aquellos tiempos procede, como no, de un autor árabe medieval, Al-Kindi (800-873), que después sería conocido como «el filósofo de los árabes» por sus traducciones y adaptaciones de, por ejemplo, la obra de Aristóteles. Una de sus obras se llamaba Tratado de la causa eficiente de los flujos y los reflujos marinos; no sólo abordaba el problema de las mareas, relacionándolas con la temperatura del aire —lo cual es erróneo—, sino que asimismo mostraba con precisión cómo el agua se convertía en aire y viceversa, en función de la temperatura, lo que parecía indicar una vía de explicación a la formación de las nubes, la nieve y otros fenómenos. En esto sí se acercaba mucho a lo que ocurre en realidad.

Sonaba revolucionario porque en cierto modo destrozaba la inmutabilidad de los cuatro elementos pitagóricos: el agua y el aire se entremezclaban como si fueran la misma cosa... Parecía chocante, sí. Otra obra que le atribuyeron los traductores que la vertieron al latín cinco siglos más tarde fue De mutatione temporum («Sobre los cambios de tiempo»), donde recopilaba una serie de observaciones acerca del tiempo cambiante, con numerosos datos pero muy pocos elementos de predicción.

Al-Kindi y otros filósofos de su época, como Ibn-Hayyan, defendían la importancia de la observación y la experimentación como elementos de conocimiento de la naturaleza, añadiendo una nueva implicación esencial en aquella primitiva filosofía de la ciencia: la cuantificación en las medidas. Todo un paso adelante, que luego caería en el olvido hasta la llegada de Galileo.

Y es que, en paralelo, se desarrollaban no sólo las brujerías de muy diversa índole y las creencias en casi cualquier cosa, sino también otras formas de adivinación con mayor apariencia de seriedad, aplicadas a las cuestiones prácticas de la vida cotidiana de las gentes y basadas en los retazos de la cultura astrológica que le llegaba a la población a partir de la tradición oral o los comentarios filtrados desde algún monasterio. Por supuesto, ocupaban un lugar privilegiado las predicciones meteorológicas, que tanta importancia revestían para los campesinos.

Todo ello, obviamente, al margen de la religión dominante, la cristiana, que por su parte intentaba conjurar toda esa actividad confusa y clandestina mediante condenas ejemplares —las brujas eran quemadas, los sospechosos de hechicería eran sometidos a la «ordalía», también llamado «juicio de Dios», una prueba jurídicamente válida durante la cual sólo el inocente salía ileso de la quemadura de un metal al rojo o de la inmersión prolongada en agua— y a través de juicios sumarísimos. Estas prácticas represoras de la iglesia duraron hasta el Renacimiento, a pesar de que ya habían sido formalmente desautorizadas por el papa Alejandro III, a mediados del siglo XII.

La alquimia, cómo no, floreció en medio de todo ese despropósito de ignorancia y superstición. Por supuesto, buscando la transmutación del plomo en oro con el que enriquecer aún más a nobles y reyes, pero también intentando encontrar nuevas formas de matar —venenos sólidos, líquidos corrosivos, vapores letales— con los que liquidar a los enemigos. Lástima, porque de aquellos experimentos bien pudiera haber salido alguna reflexión racional, aunque fuera empírica y primitiva. Pero no; los únicos avances en ese campo se dieron en el mundo árabe. Por ejemplo, Al-Hassan (965-1039) no sólo descubrió el concepto de peso específico sino que analizó la reflexión y la refracción de la luz, observando el arcoíris y reproduciéndolo en su laboratorio. Luego habría que esperar más de seis siglos, hasta Newton, para acceder al paso siguiente que, sin embargo, podría haber parecido inminente si Al-Hassan hubiese tenido sucesores: la descomposición de la luz blanca mediante un prisma de cristal.

Ya en el siglo XIII, dos británicos intervinieron positivamente en el campo de la filosofía de la ciencia, con referencias abundantes a la meteorología: por supuesto, Roger Bacon (1214-1294), pero también su contemporáneo John Pecham, quien llegó a ser arzobispo de Canterbury. Bacon defendía la idea de que no toda la filosofía de los griegos era válida, y que había que seguir experimentando y razonando más allá de aquellas ideas brillantes para descubrir la verdad de las cosas. Pecham, sobre todo en su juventud —antes de cumplir los treinta ya era superior de los franciscanos—, fue un puntilloso observador de elementos de meteorología, climatología y óptica atmosférica, para luego acabar su vida dedicándose en exclusiva a las cuestiones doctrinales.

Por cierto, Bacon fue encarcelado durante muchos años por defender unas ideas que por entonces parecían excesivamente radicales; cosas como que el tiempo dependía mucho más del viento dominante, de las nubes y de otros elementos, que de la conjunción de las estrellas en el firmamento nocturno o de las oraciones de los fieles en una iglesia. Claro que tres siglos más tarde, Giordano Bruno (1548-1600) fue quemado en la hoguera por afirmar la herejía —así lo consideraron sus jueces eclesiásticos— de que el Universo era infinito y que podía haber muchos sistemas solares como el nuestro... ¡Fue en el último año del siglo XVI!

En la Edad Media se daban métodos muy pintorescos para predecir el tiempo y otras cosas. Por ejemplo, la «escapulimancia», que practicaban tanto los árabes como los cristianos, en función de las señales que aparecían en paletillas de cordero hervidas después de haber sacrificado al animal siguiendo un determinado rito. Se supone que luego se comerían la paletilla, que eran tiempos de hambre y miserias... De esta práctica en concreto hay referencias en conductas tan dispares como la de los chamanes de los amerindios, o bien de los hechiceros de las tribus antiguas de Siberia y Mongolia.

En otras ocasiones se utilizaba también el esternón de aves domésticas de gran tamaño —patos, ocas, gansos— para encontrar en ellos signos de buenos o malos augurios acerca del tiempo que se avecinaba. Esa práctica procedía de las tribus bárbaras del norte que invadieron el imperio romano y que, ya en el mundo cristianizado, se fue concentrando hacia la fecha de San Martín, que es la época tradicional (11 de noviembre) para la matanza del cerdo y otros animales de granja cuyos productos podrían conservarse gracias al frío del invierno que se avecinaba.

Por cierto, este santo es el de mayor número de advocaciones en muchos lugares, por ejemplo en Cataluña, y su fecha es famosa en los calendarios de buena parte de Europa; no sólo debemos, pues, recordarlo por el dicho, muy expresivo por otra parte, de que «a todo cerdo le llega su San Martín».

Para adivinar el tiempo, una vez comido el pavo o el ganso se tomaba el esternón, y por su aspecto, se prejuzgaba cómo iba a ser el invierno: si salía blanco, habría mucha nieve. Si estaba moteado o con manchas, tiempo muy variable. Si la mitad era de color blanco y la otra mitad oscura, significaba medio invierno riguroso y el otro medio suave. Y así sucesivamente.

Resulta pintoresco, sin duda; pero aún lo son más otras recetas adivinatorias que la humanidad ha venido practicando desde hace siglos, y que incluso hoy continúan siendo usadas en determinados reductos campesinos. Por ejemplo, la siembra. Una actividad banal en el mundo agrícola pero que, practicada al modo que recomendaba en la India el matemático y astrólogo Daivajna Varahamihira (505-587), tuvo luego muchos adeptos en Europa, donde acabó siendo conocida a través del legado árabe. El agrónomo renacentista español Gabriel Alonso de Herrera publicaba en 1523 un tratado sobre técnicas agrícolas donde, en el apartado de los ritos, explicaba cómo predecir el tiempo sembrando semillas (de trigo, cebada, centeno, mijo, garbanzos, habas, lentejas...) en una era pequeña y húmeda, al modo hindú, veinte o treinta días antes de los días caniculares.

Esos días veraniegos, recordémoslo, corresponden a la época en que la constelación del Can Menor y, en particular, su estrella de primera magnitud Proción (cuyo nombre griego significa «que precede al perro») coincide con el Sol; eso ocurre aproximadamente desde finales de julio hasta finales de agosto. Al parecer, según hubieran germinado bien o mal las semillas, así sería el año agrícola siguiente. Dice Alonso de Herrera: «Es cosa averiguada que la constelación de la Canícula, con sus caninos calores, inficiona algunas semillas y les quita virtud, y a otras dexa libres. Con la salud o vicio en cada semilla de presente da señal del daño o beneficio, falta o abundancia que de futuro pudiera resultar».

Otra forma de adivinar el tiempo futuro en cuanto a la lluvia tenía que ver con la cebolla y la sal. Estos «calendarios cebolleros» se han seguido haciendo en los medios rurales hasta nuestros días; se coloca en un desván media cebolla dividida en doce partes, colocando cada una de ellas sobre un cuenco y poniéndoles encima una pizca de sal, nombrando cada una con el nombre del mes correspondiente. A la mañana siguiente se observa en qué trozos se disolvió la sal y en cuáles no, lo que se corresponde con los meses lluviosos o secos. Suena un poco a broma, pero en Italia el Calendario delle cipolle se publica en Internet cada año. El del año 2010, por ejemplo, se puede consultar en la web siguiente: http://www.comune.jesi.an.it/opencms/export/jesiit/ sito-JesiItaliano/Contenuti/SchedeServizi/ambiente/visualizza_asset. html_796781808.html.

Algo parecido ocurre, por cierto, en Portugal y Brasil con la experiência de Santa Luzia, sólo que ésta se realiza en la noche del 12 de diciembre.

Pero aún hay más. Por ejemplo, la prueba de la lana expuesta al aire libre en ciertos momentos clave del año. Una tradición beréber escogía, en el norte de África y en Andalucía, la noche de San Juan (23 a 24 de junio) como fecha clave. Si la hebra de lana se humedecía, el año siguiente sería lluvioso y cargado de bienes. Claro, son regiones de clima seco; allí la lluvia suele ser una bendición... casi siempre.

En Canarias se utiliza un sistema parecido, pero basado en el estado del pelo de los camellos al amanecer del día de San Román y San Odón, que es el 18 de noviembre. Si es húmedo, ya se sabe, año lluvioso. Si no, pues año normal, o sea, seco. Todavía se hace, al parecer, en la isla del Hierro...

Todo esto, volvemos a repetir, nos parece hoy ingenuo, si no pueril. Y sin duda lo es. Pero fue muy usado desde antes incluso de la Edad Media, y la tradición se ha mantenido, por curioso que nos parezca, hasta hoy: ya hemos visto que algunas de estas prácticas sobreviven en el mundo rural centroeuropeo y español, aunque lo más probable es que las gentes del campo sólo se lo crean ya a medias. Después de todo, el Meteosat es mucho Meteosat...

1.2.3. Los poderes astrales

Los antiguos mostraron el camino de la relación, que les parecía obvia, entre lo que ocurría en el cielo y... lo que ocurría en el cielo. Hoy distinguimos los distintos niveles atmosféricos —medidos en kilómetros, quizá centenares de kilómetros en las zonas más exteriores—, de los distintos niveles cósmicos —medidos en muchos millones de kilómetros para el Sol y los planetas, y en muchísimos billones de kilómetros para las estrellas—. Pero para los antiguos todo ello ocurría... en el cielo. Y los astros y las nubes, por ejemplo, sin duda tenían que tener orígenes comunes; todo el asunto consistía en determinar esas relaciones.

No pensaban que el asunto de los astros y la meteorología fuera, pues, un método mágico sino que lo consideraban como lo más selecto y granado de la ciencia en su tiempo. Un tiempo de hace varios milenios, claro. Pero esas ideas cristalizaron en las civilizaciones posteriores, y la relación entre los fenómenos atmosféricos y el estudio de los astros acabó siendo todo un dogma de fe. La prueba, lo que le sucedió al prudente Copérnico y a los bastante menos prudentes Giordano Bruno y Galileo Galilei.

La actividad predictiva —y no sólo en cuestiones meteorológicas— basada en la observación del mundo de los astros permitió a los antiguos determinar las fechas de los eclipses, equinoccios, solsticios... Y, abusivamente, intentaron predecir igualmente el destino de los hombres, de los reyes, de las batallas. Esta rama de adivinación puramente esotérica nada tiene que ver con la ciencia. Pero, al igual que la predicción científica del movimiento de los astros ha hecho avanzar enormemente a la astronomía, la predicción esotérica del destino de las personas según la disposición de los astros en el cielo se ha convertido en una actividad mágica desprovista del menor indicio de seriedad. Lo curioso es que hoy la astrología sigue difundiendo sus confusos horóscopos para predecir el destino de las gentes, pero ya no se atreve a predecir el tiempo atmosférico porque, una vez más, el Meteosat es demasiado poderoso. Ya se comprenderá que cuando aludimos al Meteosat estamos englobando a la actividad meteorológica científica de hoy...

En el pasado, la astrología gozó del favor de algunos de los mejores pensadores de la humanidad, tanto de la Antigüedad clásica, ya lo hemos visto de pasada, como de épocas posteriores y, sobre todo, del mundo renacentista. Incluyendo a figuras como Kepler o Newton; insistir en ello quizá sea un indicio casi inconsciente por nuestra parte del asombro que nos produce el hecho de que mentes tan poderosas cayeran en errores tan obvios, sin duda debido al peso de la tradición, mucho más poderosa de lo que parece en todos los órdenes de la vida.

Conviene recordar que los saberes eruditos antiguos, refugiados al llegar la Edad Media en los conventos o, de manera más dispersa pero bastante más eficaz, en el mundo árabe, tomaban casi como doctrina suprema al conjunto de la obra aristotélica y ptolemaica; en temas astronómicos, por supuesto, pero también por lo que a la atmósfera y el tiempo meteorológico se refiere. Partiendo de los parapegmas y otras predicciones basadas en los astros, propias del mundo grecolatino, resulta lógico que se mantuviera, incluso mitificada, la tradición de la adivinación (palabra que viene de divinidad, subrayémoslo, y que tiene que ver, por tanto, con la interpretación de los designios de los dioses) meteorológica basada en los astros.

Astrología y meteorología siempre se llevaron bien a lo largo de los cuatro milenios largos de civilización humana, desde el mundo mesopotámico (y egipcio, grecolatino y europeo) hasta hoy, pero también en muchas otras culturas antiguas, tanto americanas como asiáticas. Algunos ilusos proclaman hoy que, precisamente por ello, «algo» tendrán de cierto. Pero el criterio de antigüedad o universalidad a la hora de defender una idea no vale gran cosa, en ausencia de demostración acerca del cómo o el porqué de sus causas, o bien si no resulta aceptable a la luz de lo que hoy la sociedad se exige a sí misma. La esclavitud, incluso el canibalismo, y por supuesto las guerras por muy diversos motivos, generalmente fútiles, han sido universales durante épocas muy prolongadas de la historia de la humanidad; las guerras siguen siéndolo, es triste reconocerlo. Pero no por ello son defendibles ni justifican ninguna otra conducta al respecto... Lo mismo que la astrología que, por muy antigua que sea, carece igualmente de base racional alguna, aunque obviamente no tenga nada que ver con la crueldad de las otras conductas.

Sin duda, el tránsito de las Pléyades en el cielo o la posición relativa de los canes de Orión en el cielo estrellado —por cierto, ¿qué hacían los antiguos si se daban muchas noches nubladas seguidas?— poseen un lado romántico y estético de indudable potencia. Incluso eso de otorgarle al planeta Venus un carácter benéfico y prolífico —al fin y al cabo, es la diosa de la belleza y el amor— resulta mucho más poético que la realidad horrible de un planeta infernal, con una densa y corrosiva atmósfera a más de 400 grados de temperatura y presiones que aplastarían a los seres vivientes, si es que allí pudiera haberlos... Venus es un planeta demoníaco, no un lucero brillante y benevolente ligado a la diosa del amor.

Y aún resulta más impresionante el uso que los navegantes le dieron, y aún le siguen dando a pesar del GPS, a las estrellas para situarse en medio del mar cuando la costa no es visible. Ésa sí fue una manera racional de usar la posición de los astros en el cielo nocturno, sobre todo cuando se inventaron aparatos ópticos de observación más precisa, desde los simples astrolabios, cuadrantes y ballestillas, hasta los nocturlabios y sextantes más sofisticados.

El problema de la latitud geográfica se determinaba con más que aceptable precisión gracias a la observación de la altitud de una estrella, comparándola con la existente en el puerto de partida. En cambio, la medida de la longitud depende de la calidad de un buen reloj embarcado, que debía ser inmune al movimiento del barco; aquí los astros no sirven de ayuda, y hubo que esperar hasta el invento del cronómetro marino por John Harrison, en el siglo XVIII para medir con efectividad la longitud. Con esa medida, Colón nunca hubiera pensado que llegaba a Asia cuando todavía le faltaba por recorrer un buen trecho hacia el oeste, casi medio mundo...

Lo curioso es que los marinos de la Edad Media, e incluso los de la Edad Moderna, en sus singladuras hacia el Nuevo Mundo a partir de los siglos XVI y XVII no sólo usaban las tablas de posición de los astros para situarse en alta mar sino que también disponían de otras tablas que, en función de las estrellas, indicaban el tiempo atmosférico que se esperaba y, en particular, la llegada de los temporales destructores o bien de la no menos temida calma chicha. Incluso Colón utilizó esas tablas astrológico-meteorológicas para la predicción del tiempo en sus diversos periplos.

O sea, que esa forma de meteorología basada en los astros, aplicada a la predicción del tiempo futuro tuvo, e incluso sigue teniendo ahora, una muy buena acogida entre las gentes del campo y de la mar. Como hoy le ocurre a alguna otra pseudociencia —por ejemplo, la homeopatía o la parapsicología—, la llamada astrometeorología está inmersa en cierto contexto psicosocial que le otorga una apariencia un poco más «científica» que la de otras adivinaciones que cuesta más tomar en serio.

Quizá por eso gozó del favor de grandes nombres de la ciencia. Sin ir más lejos, uno de los mejores y más precisos observadores del cielo estrellado del Renacimiento en la segunda mitad del siglo XVI, el astrónomo danés Tycho Brahe (1546-1601), publicaba regularmente sus predicciones meteorológicas basándose en los escritos de los antiguos y en sus propias apreciaciones. Más tarde, Johannes Kepler (1571-1630), aunque era copernicano convencido y fue capaz de enunciar las tres famosas leyes del movimiento planetario y la teoría de que la gravitación lunar tenía que ver con las mareas, también publicó tablas astrometeorológicas. Ya ha quedado dicho que incluso Isaac Newton creía en el poder predictivo de la astrología, incluyendo obviamente el tiempo atmosférico.

Sólo hubo un sabio, anterior a ellos y en plena confusión medieval sobre estos temas, que negó de manera rotunda esa validez de los pronósticos astrológicos, muy especialmente en el campo de la meteorología: Nicole Oresme (1325-1382). Algunos le han apodado como el «Einstein del siglo XIV» porque fue, en efecto, un sabio muy adelantado para su tiempo, que defendía vehementemente las relaciones físicas de causa a efecto, y declaraba, por ejemplo, que sólo podría predecirse el tiempo cuando hubieran sido descubiertas las reglas exactas que gobiernan el movimiento del aire, de las nubes y de los demás meteoros. En uno de sus libros, el Tratado del cielo y del mundo, ya anticipaba lo que luego Copérnico escribiría dos siglos después, y además explicaba algunos fenómenos atmosféricos —ópticos, como el arcoíris o el relámpago; sonoros, como el trueno; mecánicos, como el viento...— en función de la interacción energética del aire y del agua en la baja atmósfera.

Fue una lástima que Oresme no fuera difundido y que sus escritos pasaran relativamente desapercibidos; al menos, en contraste con la autoridad de la que gozaron, durante demasiados siglos quizá, los escritos de Aristóteles y Ptolomeo.

Por cierto, la astrología meteorológica llevó a ciertas predicciones quizá más absurdas aún que la propia ciencia que las sustentaba. Por ejemplo, el hecho de creer que si el día de Navidad caía en viernes, por ejemplo, el año siguiente iba a ser propicio debido a que viernes viene de Venus (dies veneris, en latín), que por supuesto era una diosa benéfica. O sea, que a partir de una diosa mitológica, un día de la semana arbitrariamente llamado así, un día de Navidad que representa el día en que nació, supuestamente, Jesucristo (que en realidad nació en otro momento del año, probablemente a comienzos del otoño)... No importa: con todo ese conglomerado de inventos es posible, según el día de la semana en que caiga la Navidad, predecir cómo va a ser el año siguiente desde el punto de vista meteorológico.

Te lo crees, y punto.

Así lo recoge Joan Amades en su libro en catalán Astronomia i meteorologia populars, editado en 1993. Por la misma razón —o sea, porque sí—, también era creencia arraigada que si la Navidad caía en domingo, el año sería seco y con malas cosechas. El domingo, aunque es el día del Señor —Domine, en latín—, es también el día del Sol —por eso los ingleses dicen «sunday»—. Pero conviene recordar que el Sol es un astro caliente y seco. O sea, que si la Navidad cae en domingo, o sea en un día dominado por el sol, pues ya está: el año que viene será seco y, por tanto, malo para el campo. Todo vale a la hora de predecir... sin base alguna. Los refranes, siempre al quite, corroboran esta creencia; por ejemplo: «Navidad en domingo, vende los bueyes y échalo en trigo».

En su Lunario y pronóstico perpetuo general y particular, de 1594, el astrólogo y matemático valenciano Gerónymo Cortés (m. 1613) da cuenta de estas y muchas otras predicciones meteorológicas basadas en los astros, en el calendario, en la mitología, en las fiestas religiosas o paganas... Todo parecía servir. Pero como hacía intervenir a los astros y también, por supuesto, a las fiestas religiosas —especialmente una de las más señaladas, la Navidad—, gozaba de una pretensión de seriedad de la que carecían otros sistemas de adivinación bastante más «mágicos».

En la misma línea, Diego de Torres y Villarroel (1694-1770), autor satírico donde los haya pero, al mismo tiempo, gran aficionado a la astrología y la adivinación, sobre todo en sus años mozos, publicaba en sus almanaques y revistas futurológicas las predicciones anuales del tiempo bajo el pseudónimo «El Gran Piscator de Salamanca». Tuvo un enorme éxito, aunque es más que probable que no acertara gran cosa; claro que lo mismo podría decirse del Calendario Zaragozano, y sin embargo ahora, en pleno siglo XXI, sigue gozando de una salud más bien boyante...

Quizá el compendio de todos esos supuestos saberes meteorológico-astrológicos lo constituya un extenso tratado escrito y editado en Lisboa en 1632, de la mano del cosmógrafo luso Antonio de Nájera: Summa astrologica y arte para enseñar a hazer pronósticos de los tiempos. En realidad, se limita a recoger la mayoría de las ideas de Ptolomeo, añadiendo algunas cosas de origen oriental como las «mansiones lunares» o la «apertura de las puertas». También incluye un intento de cuantificación de las fuerzas que los planetas ejercen sobre nosotros y sobre la naturaleza y, quizá lo más valioso, numerosos refranes, dichos y afirmaciones populares en torno al asunto de la atmósfera y sus cambios.

En ese mismo siglo XVII un agustino valenciano, Leonardo Ferrer, escribe un libro sorprendente, Astronomía curiosa y descripción del mundo superior e inferior, en el que la predicción del tiempo se vincula directamente al zodíaco y ciertos astros. Y así, afirmaba, por ejemplo, que la posición relativa de Mercurio y Júpiter era la que estaba detrás del origen de la tramontana.

Si bien se mira, como en última instancia el confuso mundo de la astrología no es más que una forma de «calendariología» —ya quedó dicho anteriormente—, no es de extrañar que el calendario mismo (o sea, la sucesión de fechas que se repiten regularmente año tras año, asociadas o no a alguna figura importante del santoral o a algún suceso notable como el solsticio o el equinoccio) haya servido también, y desde antiguo, para predecir el tiempo.

Sin ir más lejos, todo el mundo conoce la fiesta de la Candelaria, aunque casi nadie sepa el porqué de ese nombre. Es el 2 de febrero, celebración de la Purificación de Nuestra Señora. Durante mucho tiempo lo usual era realizar una pequeña procesión nocturna con velas, o sea, candelas. Pero la que portaba el oficiante era una candela especial: si en el transcurso de la ceremonia no se apagaba eso quería decir que lo que quedara de invierno habría de ser todavía muy duro. Si se apagaba, quería decir que lo peor ya habría pasado. Lo curioso es que esa vela se guardaba luego porque habría de servir como amuleto para conjurar los daños provocados por las tormentas... del verano siguiente.

Y ésa es la tradición que recoge, de manera florida y abundante, el refranero en torno a la Virgen de las Candelas, o Candelaria; más adelante lo veremos. Por cierto, un residuo de aquella tradición, bastante más mágica que religiosa, quedó bajo la forma de bendición de todas las candelas que habrían de usarse a lo largo del año, que así protegerían de los malos espíritus a las casas en las que fueran utilizadas (antes de la llegada de la luz eléctrica, claro).

También el Domingo de Ramos era una fecha señalada como propicia para la predicción del tiempo. Durante la misa, lo normal era que, más o menos a la mitad, los asistentes salieran a la puerta para observar el estado del tiempo en ese momento, porque ése sería el tiempo predominante en el año siguiente. En algunos sitios, por ejemplo en Navarra, el momento elegido debía ser el canto del Evangelio de la Pasión, y sólo los hombres salían del coro para observar el tiempo; las mujeres debían quedarse rezando...

La Nochevieja era igualmente una fecha notable; en zonas de cereales, los campesinos colocaban esa noche, en la parte exterior de la ventana, granos de la cosecha anterior. Si los primeros pájaros que acudían eran pequeños, podía esperarse un año favorable. Pero si aparecían aves de mayor tamaño, y sobre todo córvidos, el año se presentaba bajo auspicios nada propicios; quizá porque los cuervos, por ser negros, siempre fueron tenidos por pájaros de mal agüero. Aunque se suele decir que son las más listas de las aves, e incluso bastante más que muchos mamíferos...

Todas estas cuestiones pueden dar mucho más de sí, ya que nos han llegado mayoritariamente gracias al compendio popular que suponen los refranes, además de las prácticas todavía en vigor de las Cabañuelas, las Témporas y otros sistemas populares. También es cierto que existen tratados y documentos conservados desde antes de la Edad Media y luego en siglos posteriores, de tal modo que los textos y la tradición oral se unen para darnos abundantes muestras de la forma en que se expresaba popularmente el saber de las distintas civilizaciones en torno a la predicción del tiempo.

1.2.4. Cabañuelas y Témporas

De los refranes y su relativa seriedad climatológica, asociada esencialmente al calendario de labores rurales y marineras, trataremos en el siguiente capítulo. Pero en cuestiones de magias y adivinanzas meteorológicas no podemos terminar este apartado sin analizar con cierto detalle las Témporas y las Cabañuelas que, conviene repetirlo para los incrédulos, siguen gozando de notable popularidad. De hecho, en muchas zonas rurales, y no sólo de España, su autoridad suele ser aceptada por tratarse de «prácticas muy antiguas que, de no cumplirse, no hubieran sobrevivido»; al menos, eso aducen sus defensores en numerosas páginas que se pueden consultar en Internet. Como si ese argumento fuera aceptable... Basta recordar que la tradición, el principio de autoridad y la revelación son los tres pilares poderosos sobre los que se asientan las creencias, pero obviamente no la ciencia.

Las Témporas están esencialmente ligadas a las estaciones —el término viene del latín tempus, tiempo— y se calculan en determinados días ligados a fiestas religiosas muy señaladas, como Pentecostés o Cuaresma; una vez más, la magia de la calendariología, aquí reforzada por su alianza con la religión. Así, las de primavera —también llamadas Témporas primeras— se calculan en función del tiempo que hace el miércoles, viernes y sábado de la segunda semana de Cuaresma. Las de verano, o Témporas segundas, se analizan el miércoles, viernes y sábado de la primera semana después de Pentecostés. Las Témporas de otoño (terceras) el miércoles, viernes y sábado siguientes al 14 de septiembre, fiesta de la Exaltación de la Santa Cruz. Pero si ese día 14 cae precisamente en miércoles, entonces se toman el miércoles, viernes y sábado de la semana siguiente. Finalmente las Témporas de invierno (cuartas) se calculan en función del tiempo que hará el miércoles, viernes y sábado siguientes al 13 de diciembre, día de Santa Lucía. Como antes, si ese día cae en miércoles, entonces serán el miércoles, viernes y sábado de la semana siguiente.

Para predecir el tiempo de todo un trimestre en función del que hace en sólo tres días se suelen observar diversos parámetros de dichos días y se supone que ésos serán los que dominen en los meses siguientes. Todo ello resultaba de especial trascendencia para labores que pueden o no adelantarse en función del tiempo que hará, como por ejemplo la vendimia. Si se prevén heladas anticipadas, es mejor adelantar la fecha de recogida de la uva para no perder parte de la producción.

El método predictivo de las Témporas se diferencia del de las Cabañuelas en que aquéllas se basan en la Luna; las referencias a las fiestas religiosas sólo reflejan la necesidad de acoplarse al calendario religioso para no ser consideradas predicciones heréticas o, peor aún, demoníacas o brujeriles. Como es sabido, Pentecostés es una fiesta religiosa que tiene que ver con la Pascua, ya que cierra precisamente el tiempo pascual, siete semanas después de aquella fiesta. Y la Pascua tiene lugar el domingo siguiente a la primera Luna llena de primavera del hemisferio norte, cerrando la Semana Santa. En cuanto al período de Cuaresma, incluye los cuarenta días anteriores a la Pascua, que comienza el Miércoles de Ceniza y concluye la noche del Jueves Santo. Por cierto, el día anterior a ese período de austeridad es el Martes de Carnaval (del latín caro levare, evitar la carne) o martes de carnestolendas (que procede igualmente del latín carnes tollendas, que significa más o menos lo mismo, carnes suprimidas), cuando se relajan las costumbres para luego hacer penitencia en Cuaresma.

El significado, mitad pagano, mitad religioso, de todas estas festividades justifica por qué se le atribuye a ciertas fechas señaladas del calendario litúrgico un carácter predictivo para el año siguiente; pero nadie explicó nunca el porqué de esa extraña virtud... En realidad, y salvando todas las diferencias culturales y religiosas, estos métodos se pueden asimilar a otros ritos predictivos de carácter bastante más festivo, como el Día de la Marmota que indicará si el invierno se ha acabado o no, o el absurdamente famoso pulpo que se supone que predice resultados deportivos.

Las Cabañuelas constituyen un sistema predictivo con la misma ausencia de fundamento, pero curiosamente están extendidas por todas partes, incluso hoy, en pleno siglo XXI. Las Témporas suelen ser tomadas como cosas de viejos, pero las Cabañuelas siguen siendo tomadas en serio. Sorprendente, sin duda, a poco que se indague en qué consisten: se basan en el análisis del tiempo que hace durante doce días seguidos, en medio del verano o en diciembre, haciendo luego corresponder cada uno de esos días con los correlativos meses posteriores, con lo que se obtiene en doce días una predicción del tiempo para los doce meses del año siguiente.

Existen diversas «escuelas» cabañuelísticas, y son bastante populares en muy diversos países europeos. En España competían antiguamente con las Témporas, sobre todo en las regiones del norte, pero hoy se puede decir que son el único sistema predictivo calendariológico superviviente. En Canarias tienen su propio sistema basado en la observación del mar, que llaman Cabañuelas de los Marineros.

Este antiguo método es tan popular que en cada sitio lo llaman de una manera; en castellano se llaman también cabanillas, cabichuelas, caniculares, calandrias, cariñuelas, signos... En las regiones de idioma catalán y valenciano, cabanelles, tretzenades, cabanyoles, caniculars, es compte de Salomó... En inglés se llaman The twelve nights y en francés incluyen este método predictivo dentro de su famoso Calendrier Rural Traditionnel, tan popular o más que nuestro Calendario Zaragozano. En Francia goza también de cierta notoriedad un tipo de calendario para predecir el tiempo que se basa en los astros y en los... ¡ángeles! Se llama, claro, Calendrier Astro-Angélique. También existen las cabañuelas en América del Sur, donde usan el mes de enero. E incluso en la India, donde efectúan las predicciones también en invierno, durante la estación seca.

Se supone que tomar doce días cualesquiera para obtener de ellos la predicción del tiempo que hará durante el año siguiente no es cosa que deba hacerse a la ligera. Por eso no es de extrañar que haya diversos métodos; de momento consignaremos algunos de ellos, para solaz del lector curioso:

1. Los doce primeros días del año

El día 1 correspondería a enero, y así sucesivamente. Se toman como base de la predicción sólo las horas con luz solar, no la noche. Este método se usa mucho en Aragón y parte de Castilla, aparte de Francia y la mayor parte de América del Sur.

2. Los doce primeros días de agosto

El 1 sería enero, y así sucesivamente. Es el método más utilizado en el centro y sur de la península Ibérica: son las cabañuelas directas, o maestras.

3. Cabañuelas inversas, o retorneras, o barruntos

Lo mismo que antes, pero al revés, partiendo del último día de las cabañuelas directas. En agosto comenzarían el día 13, que correspondería al mismo mes que el 12 (diciembre), y así sucesivamente.

4. Cabañuelas de Navidad y Santa Lucía

El método es el mismo, pero tomando como ciclo de predicción los doce días que van del 13 de diciembre, Santa Lucía, al 24, que es Nochebuena. El día de Navidad no cuenta, y a partir del 26 se toma el ciclo inverso hasta el 6 de enero. Se interpretan luego a gusto del consumidor..., perdón, del adivino experto.

Lo de tomar el día de Santa Lucía parece arbitrario, pero en realidad es un anacronismo y procede de la época medieval en que el retraso adquirido por el calendario juliano hacía que el solsticio de invierno no fuese el 21 sino bastantes días antes; en los siglos XV y XVI esa fecha rondaba precisamente el 13 de diciembre, que es la fiesta de la santa patrona de los ciegos. El cosmógrafo y marino sevillano —aunque nacido en Valladolid— Rodrigo Zamorano (1542-1623) escribe en uno de sus tratados, Cronología y repertorio de la razón de los tiempos, que «las verdaderas cavañuelas son las que toman los doze días que siguen al solsticio de invierno», que en esa época era el 13 de diciembre (fue escrito a finales del siglo XVI pero muy poco antes de que el papa Gregorio XIII impulsara, en 1582, su reforma del calendario juliano, reintegrando el solsticio al día 21). Pero Santa Lucía se había convertido en una fiesta popular, casi mítica. Y, además, lo es en todas las latitudes de tradición cristiana (recuérdese la famosa fiesta sueca en Suecia, cuando las niñas se visten de blanco y portan una corona con siete velitas).

Con todo, no está de más recordar que la santa vivió en Siracusa a finales del siglo III, en época de Diocleciano. Dice la leyenda que, perseguida por su fe, la torturaron sacándole los ojos, pese a lo cual ella seguía viendo; por eso es la patrona de los ciegos.

5. Cabañuelas de la Luna de octubre

Dice el refrán que «siete lunas cubre, y si llueve, nueve». Estas cabañuelas difieren de las anteriores en que no aplican la predicción de un día a todo un mes, sino que hay que interpretar el tiempo que hay durante la luna de octubre y aplicarlo a los meses que siguen. El porqué de ese supuesto poder predictivo de la Luna en octubre es difícil de explicar; algunos historiadores piensan que la primera Luna llena después del equinoccio quizá sirviese para iluminar el camino de los pastores o viajeros que se encaminaban al sur, huyendo de los fríos del norte que ya se barruntaban.

6. Cabañuelas de la India y de Babilonia

En el Rig Vedá, el libro sagrado en sánscrito de la época védica —de 1500 a 330 a.C.—, uno de sus himnos hace referencia a la predicción del tiempo del año siguiente a partir del tiempo que hubiera hecho en los doce días del centro del invierno.

En cuanto a Babilonia, en tiempos de Hammurabi, en el siglo XVIII a.C., y sin duda también mucho más tarde, el ceremonial del Año Nuevo o Akitu duraba doce días, y se celebraba el Zamhuk, la Fiesta de la Suerte, cuando se elaboraban las predicciones del tiempo para el año recién estrenado.

Y, ya que lo hemos citado anteriormente, no podríamos terminar este capítulo sin referirnos al Calendario Zaragozano. Digamos antes que nada que se llama así en honor a un astrónomo español del siglo XVI, Victoriano Zaragozano y Gracia, que al parecer redactaba almanaques con referencias astrometeorológicas, en directa competencia con el astrónomo valenciano ya citado, y contemporáneo suyo, Gerónymo Cortés. Fue otro astrónomo, Mariano Castillo —se autoproclamaba «el Copérnico español»—, quien inició casi tres siglos después la publicación del más famoso de nuestros calendarios adivinos, en 1840; y lo llamó Zaragozano en honor a aquel antecesor suyo, aunque cabe la duda de si era una dedicatoria interesada debido a que él mismo había nacido en Villamayor, provincia de Zaragoza. El caso es que desde hace 170 años se viene publicando sin interrupción el famoso calendario.

Además de los datos normales en cualquier calendario —meses, fechas, festividades, fases de la Luna y cosas así—, incluye las predicciones del tiempo, a menudo ligadas a la Luna o bien referidas a las Témporas o a las Cabañuelas; esas predicciones, siempre confusas, imprecisas e incluso contradictorias, han llegado a gozar de enorme popularidad. El Calendario Zaragozano lleva por subtítulo «Juicio Universal Meteorológico y Calendario, con los pronósticos del tiempo, santoral completo y ferias y mercado de España». Ahí es nada.

Bien, la pregunta que surge inevitablemente después de todo lo visto hasta ahora podría ser la siguiente: ¿tiene todo esto sentido en pleno siglo XXI, cuando los satélites y los ordenadores nos muestran el comportamiento de la atmósfera con un detalle inusitadamente preciso?

Pues, en realidad, parece que sí. Tiene el mismo sentido... que la astrología que aparece, en forma de horóscopos o incluso de artículos especializados, en casi todos los periódicos y revistas, y en todos los canales televisivos en sus emisiones de madrugada. O los curanderos que siguen estando en boga, y no sólo en los pueblos pequeños. Sin contar con los demás engañabobos que ejercitan sus pseudociencias o simplemente autoproclaman sus poderes mágicos cuasidivinos.

Claro que no habría tanto engañabobos si no hubiese tantos bobos por engañar...

1.3. ¿Sabiduría popular?

1.3.1. Calendarios y almanaques

Desde muy antiguo, la forma de relacionar la temperie, por seguir nuestro empeño en resucitar un término olvidado, con el transcurrir del tiempo cronológico se basó en los relojes naturales a disposición del ser humano, en particular el Sol, la Luna y quizá las estrellas. Desde el momento en que cada año se repiten más o menos unas condiciones atmosféricas bastante parecidas, sobre todo las más trascendentes para sobrevivir, no fue difícil asociar determinadas épocas, incluso alguna fecha concreta, con algunos de los principales sucesos meteorológicos.

La medida del tiempo cronológico pudo, pues, ofrecer valiosas informaciones, anualmente repetitivas acerca del devenir de la temperie. De ahí la enorme importancia que tuvieron los primeros calendarios y almanaques, generadores de métodos populares de predicción que eran inmediatamente asociados a determinadas fiestas, paganas o religiosas, con las que en los albores de la civilización los humanos celebrábamos... sencillamente el hecho de estar vivos. Una característica exclusivamente humana, dicho sea de paso.

La palabra calendario viene del término del latín kalendas, que eran los primeros días de cada mes. Los romanos agrupaban los días en meses lunares, que comenzaban el primer día después de la noche de Luna nueva; ése era precisamente el día de la calenda. Por ejemplo, el 1 de abril se decía en latín kalendis aprilis. Fiesta que, por cierto, celebran actualmente, y desde hace unos años, en la localidad murciana de Fortuna, en una cueva cercana que tiene pinturas romanas. Para no coincidir con la Semana Santa, en lugar del 1 de abril suelen celebrar la fiesta el fin de semana siguiente al Domingo de Resurrección; todo sea por tener nuevas fiestas con las que hacer más grata la vida...

La palabra kalenda seguramente procede del verbo latino kalare, gritar. El primer día de cada mes, siempre después de la Luna nueva como hemos visto, era festivo y se celebraba una procesión y un sacrificio animal en honor a la diosa Juno; la procesión recorría las calles con un kalator al frente, que avisaba a voces de que era fiesta y no había que trabajar. Probablemente, al volver de la procesión ese mismo kalator se convertía en cobrador de tributos —en latín, kalendarii curator— porque anotaba las deudas y los intereses en unas tablillas que se llamaban, obviamente, kalendarii (plural de kalendarium). El verbo reclamar —como clamar, proclamar, exclamar, declamar...— procede de la raíz indoeuropea kla, de la que derivó el latín klamare y luego kalare.

Todo esto significa que los primeros calendarios así nombrados sólo eran libros de cuentas referidos a los impuestos y las deudas contraídas por préstamos, mes a mes, y no la sucesión de fechas, días y meses de ahora.

Desde luego, los romanos no inventaron los calendarios, aunque podríamos decir que sí dieron origen al nombre que hoy les damos. Mucho antes, otras civilizaciones habían recurrido a la observación de las estaciones y su relación con el movimiento aparente del Sol en el cielo, día tras día. En el mundo mediterráneo, los egipcios y los mesopotámicos, y luego la Grecia clásica. En otras civilizaciones, en China y su entorno o bien en las civilizaciones precolombinas también tenían sus propios calendarios. Lo supimos cuando se dijo que el 21 de diciembre de 2012 se acabaría el mundo según una profecía del antiguo calendario maya. Hubo sus bromas al respecto, claro, pero también quien se lo tomó tan en serio que hasta la sesuda NASA intervino en el asunto negando formalmente que eso fuera a ocurrir. Suena exagerado, sin duda; ¿no tiene la NASA cosas mejores que hacer?

Veamos, en todo caso, de forma breve cómo fueron las diversas formas de medir el tiempo de aquellas civilizaciones tan lejanas ya en el tiempo.

Ante todo, cabe decir que los primeros calendarios, quizá incluso en épocas prehistóricas, se basaron en las fases de la Luna, los meses lunares. Ya hemos visto que así era también el calendario romano. Parece lógico; se trata de un ritmo repetitivo y constante (al menos, a escala de siglos, incluso milenios, aunque no lo sea en intervalos de tiempo superiores). Se han documentado calendarios lunares mesopotámicos y egipcios con más de cuatro mil años de antigüedad. Pero en algunas fases de la historia de Babilonia, se corrigió la dificultad de esos calendarios lunares —debido a que no hay un número exacto de meses lunares en un año, siempre sobran unos cuantos días— mediante la adopción de un calendario solar en base a doce meses de 30 días cada uno. Eso supone 360 días, por lo que también aquí sobran días aunque sólo cinco y pico cada año, no casi medio mes como en el caso de los meses lunares.

Con algunas variaciones, ese mismo proceso de combinación lunisolar se dio en China y otras regiones de Asia. Y también en el mundo egipcio, hasta que en el año 238 a.C. el faraón Ptolomeo III ordenó añadir un día más cada cuatro años. Casi como los calendarios modernos de hoy. No era exacto del todo, pero fue una mejora sustancial.

En la Grecia antigua seguramente fue trasvasado el calendario mesopotámico, que luego fue poco a poco modificado. También en el mundo romano primitivo tenían su propio calendario, pero ya en la época de Julio César, unos años antes de nacer Jesucristo, se veía que era imprescindible una reforma que hiciese coincidir los meses con las labores agrícolas —es decir, con los cambios atmosféricos en cada estación.

Los antiguos egipcios habían comenzado a utilizar hace más de cuatro mil años un calendario solar muy exacto basado en la salida poco antes del amanecer de la más brillante estrella, Sirio. Eso les permitió calcular con exactitud lo que hoy llamamos año sidéreo: 365,2564 días. O sea, doce meses de 30 días, más cinco días que se añadían al final como festivos. Como se perdía un día cada cuatro años, eso iba retrasando las fechas hasta que volvían a coincidir unos 1.460 años después; y aun eso es aproximado porque con tantos decimales en las cifras es imposible una coincidencia absolutamente exacta...

Antes de seguir adelante, y como las dos nociones de año sidéreo y año trópico van a ser citadas en más de una ocasión, aprovecharemos para recordar las diferencias que hay entre uno y otro, y las variaciones que experimentan con el tiempo. Lo que, obviamente, complica notablemente la posibilidad de que exista algún tipo de calendario que sea realmente exacto y para siempre...

El año sidéreo es el tiempo que tarda nuestro planeta en dar una vuelta completa en torno al Sol, tomando como referencia una estrella que se considera fija (ninguna lo es, aunque sí suelen serlo durante un plazo largo de tiempo). Es el dato que suelen manejar los astrónomos y dura ahora, poniendo seis decimales, 365,256363 días solares medios (también hay días sidéreos y trópicos, claro, pero se suele tomar un promedio). Eso significa que el año sidéreo dura 365 días, 6 horas, 9 minutos y 9,7632 segundos. Estos decimales en el cálculo de los segundos del día solar medio cambian con el tiempo, aunque muy lentamente, aumentando 0,01 segundos por siglo.

En cuanto al año trópico es el promedio del tiempo que tarda el planeta en darle la vuelta completa al Sol entre cada equinoccio de primavera. En ese momento exacto, el eje de la Tierra se pone perpendicular a la línea Sol-Tierra, y es un punto fijo de la órbita año tras año. El año trópico es algo más corto que el sidéreo, porque no depende de la visual de las estrellas desde la Tierra; y es que esa visual cambia un poco de año en año debido a que el eje de la Tierra va girando, dando una vuelta completa (como una peonza) cada 26.000 años. Bien, el caso es que el año trópico dura actualmente 365,242198 días solares medios, o sea, 365 días, 5 horas, 48 minutos y 45,77 segundos; y disminuye 0,53 segundos por siglo (recuérdese que el año sidéreo aumenta 0,01 segundos por siglo).

Los babilónicos de épocas remotas usaban un calendario lunar, con doce meses de 30 días (no exactos del todo, puesto que una lunación completa no llega a esos treinta días, sino que se queda en 29 días y algo más de doce horas... Sobraban, pues, al cabo del año unos cuantos días. Y eso, varios años después, suponía ya demasiado tiempo debido a que, por ejemplo, las fechas de comienzo de determinadas labores del campo —siembra, cosecha...— comenzaban ya a alejarse mucho de lo señalado por el calendario. Esperaban, pues, varios años seguidos, y luego añadían un mes suplementario, más o menos cada cinco o seis años.

Los primitivos griegos, bastantes siglos antes de Cristo, tomaron lógicamente el calendario babilónico, pero pronto hicieron una innovación: los doce meses alternaban la duración de 29 y 30 días; de ese modo los meses lunares se ajustaban muy bien, pero en cambio el total de días al año se quedaba corto: sólo 354. Es decir, unos once días. Lo que significaba añadir un mes suplementario cada tres años más o menos.

La primera corrección fue en el año 432 a.C. El ciclo metónico —en honor del astrónomo Metón de Atenas, que fue quien lo calculó— tenía en cuenta el período de 19 años en los cuales la Luna nueva vuelve a coincidir en la misma fecha. No es del todo preciso porque no son 235 lunaciones exactas sino que, en esos 19 años, sobran unas pocas horas; pero el error era pequeño, y la corrección metónica pudo valer durante varios siglos.

Muy poco más tarde, pero en el Lacio, el calendario romano primitivo, también unos siglos antes de Cristo, tenía sólo diez meses (terminaba en December, el décimo), con un total de 304 días. Duró poco, claro; por eso en el siglo VII a.C., en tiempos de Numa Pompilio (716-673 a.C., un rey de cuya existencia real dudan hoy algunos historiadores), hubo que añadir dos meses, uno delante —Ianuarius, en honor del dios Jano de los caminos y los principios— y el otro al final —Februarius, en honor de Februus, Plutón, dios de los infiernos y la muerte—. Como aun así seguía siendo muy corto, cada dos años se añadía un mes más en medio de febrero, de 22 o 23 días (Mercedonius). Pero entonces sobraban días porque el año medio era de 366 días y cuarto. O sea, que en el año 450 a.C. se comenzó a intercalar cada ocho años tres veces el Mercedonius, en lugar de cuatro veces.

Un lío, sin duda. ¡Menudo quebradero de cabeza para las gentes del campo, que era a quienes principalmente interesaba esto de los calendarios y las labores del campo ligadas a las estaciones! También suponía no poca incomodidad para la vida religiosa, debido a que las festividades en honor de unos u otros dioses no siempre coincidían con la época en que debían coincidir.

Así que fue Julio César quien liquidó de forma definitiva, cuatro siglos y pico después de esa última reforma, tan complejo sistema. César constató, en el siglo I a.C., que el desfase era ya de tres meses; de ahí la urgencia de un cambio en tan deficiente sistema.

Fue aquella reforma juliana un cambio trascendental por muchas razones pero, sobre todo, porque acabó siendo tan útil que pronto predominó en el mundo occidental. Y lo fue durante mucho tiempo, hasta finales del siglo XVI, cuando la reforma gregoriana dio origen al calendario actual.

¿Y en otras latitudes? Por ejemplo, en el mundo azteca, y gracias a la famosa «Piedra del Sol», sabemos que el calendario náhuatl se basaba en el Sol; lo llamaban xiuhpohualli, «cuenta anual» (de xiuhitl, año, y pohualli, cuenta). Constaba de 18 meses de veinte días cada uno, lo que suma 360 días. Se le sumaban al final cinco días más llamados nemontemi (días aciagos). La versión maya es conocida como haab, y el mes de veinte días se llamaba uinal; los días aciagos se llamaban wayeb. Coexistía este sistema con otro de tipo astrológico o mágico, el año ritual llamado tónalpohualli, que utilizaban por ejemplo los mexicas y que constaba de un año de 260 días (13 meses de veinte días). El siglo indígena, como lo llamaron los españoles cuando llegaron, constaba de 52 años solares o 73 años rituales.

El mundo incaico, en cambio, utilizaba un calendario lunisolar, que hacía comenzar el año en el solsticio de invierno, fecha que era señalada por un sistema idéntico al del gnomon de los griegos. En Cuzco, la capital de los incas, se había erigido un círculo de doce pilares —sucanga— colocados de tal forma que señalaban por dónde salía y se ponía el Sol en cada uno de los doce meses. El año de los incas tenía 365 días, pero estaba dividido en meses lunares; los once días sobrantes los repartían mes a mes. Comenzaba en la Luna nueva de enero; una coincidencia más entre continentes que no tenían contacto alguno...

Los chinos tuvieron, a partir de la dinastía Xia (unos 2.000 años a.C.), meses lunares, por lo que debían ajustar el calendario añadiendo un mes extra cada tres años. De hecho, este antiquísimo sistema sigue siendo usado como calendario ritual y en los festivales tradicionales. Como curiosidad añadida conviene decir que, en el año 480 d.C., un matemático chino llamado Ju Chongzchi calculó que el año duraba exactamente 365,2428 días, sólo 52 segundos más que el valor que hoy conocemos. Una precisión increíble para aquella remota época, hace más de 15 siglos...

Los japoneses utilizaron probablemente un sistema idéntico al chino en la remota antigüedad, pero luego fue imponiéndose, probablemente ya en nuestra era, un curioso calendario solar-meteorológico que dividía el año en 24 estaciones, señaladas por los 24 cambios atmosféricos más señalados del año. De la importancia tradicional de este tipo de calendario puede dar una idea el hecho de que resulta imprescindible conocer bien las estaciones para, por ejemplo, escribir los famosos poemas breves llamados haiku, que constan sólo de tres líneas y pocas sílabas por línea; los haiku, por referirse a cuestiones de la naturaleza, deben incluir la referencia a una de esas estaciones.

En fin, como puede verse, imaginar un calendario que funcione de manera satisfactoria y durante mucho tiempo no es tarea fácil. Y en defensa de aquellos formidables pensadores antiguos es de justicia reconocer que ni siquiera hoy hemos conseguido resolver el problema más o menos definitivamente. El tiempo cronológico, tan regular e inexorable como parece, no se deja cuadricular tan fácilmente; sobre todo porque si tomamos a los astros como referencia, no se trata de un sistema tan inmutable y ordenado como pensaban los griegos sino que tiene variaciones, pequeñas pero significativas, que a la larga destrozan el mejor de los calendarios.

Volviendo a Atenas, los meses de aquel sistema lunisolar bastante aceptable duraban 29 o 30 días, y se dividían en tres décadas; la primera, por cierto, se llamaba noumenia, que significa nueva Luna. Por cierto, el día comenzaba con el crepúsculo de la mañana, no a medianoche. Pero, como en lógico, los griegos no pudieron nunca utilizar el sistema romano de las calendas. De ahí la broma, ciertamente erudita, que alude a las calendas griegas, ad kalendas graecas. Significa literalmente hasta las calendas griegas, y quiere decir que esa cosa nunca se va a realizar. Cuenta el historiador Suetonio (70-140) que el emperador Augusto empleaba esa expresión para significar algún suceso imposible. Hoy utilizamos otras afirmaciones igualmente absurdas, como cuando las ranas críen pelo, o bien cuando las gallinas tengan dientes...

En todo caso, ya en nuestra era, las calendas cristianas primitivas, fiestas de Año Nuevo, gracias a la reforma de Julio César caían en invierno. Luego la fiesta fue pasando progresivamente al día de Navidad, cuando supuestamente nació Jesucristo. Ese día fue conocido hasta hace pocos siglos como la fiesta de las calendas.

No deja de ser curioso que el 25 de diciembre celebremos hoy el nacimiento del niño Jesús, porque el año comienza el 1 de enero. Y si el 1 de enero del año 1 nació Jesús, ¿cómo se explica esa semana de intervalo entre el 25 de diciembre y el 1 de enero?

Con todo, Sosígenes ignoraba que a la duración del año que él había calculado —365 días y cuarto— le sobraban once minutos y pico cada año. No son 6 horas sino 5 horas, 48 minutos y 51 segundos... Eso supone unos 1.100 minutos cada cien años: ¡18 horas y pico por siglo! No es de extrañar que en el Renacimiento, 15 siglos después, el retraso fuese de bastantes días...

En 1582, bajo el pontificado de Gregorio XIII, el equinoccio de primavera se producía bastantes días antes del 21 de marzo, lo cual era ya completamente inaceptable. En los 1.257 años de vigencia del calendario juliano, desde el concilio de Nicea, el retraso superaba ya los diez días. El papa se basó en un comité de expertos, que a su vez se guió por el contenido de un librito escrito por un matemático italiano, Luigi Lillio. Tras consultar con los príncipes de la iglesia y con los reyes cristianos, Gregorio XIII promulgó una bula llamada Inter gravissimas (las bulas se nombran con las primeras palabras del texto que, en este caso concreto, eran las siguientes: Inter gravissimas pastorales officii nostro curas..., que significa más o menos que «Entre las muy nobles tareas de nuestro ministerio pastoral...»). La bula decidía que el día siguiente al jueves 4 de octubre de 1582 sería el viernes 15, en lugar del viernes 5. Precisamente esa noche murió, en Alba de Tormes (Salamanca), santa Teresa de Jesús. El hecho de que el día siguiente fuese 15 de octubre y no 5 ha sido considerado por muchos como un signo revelador de la singularidad de su figura.

También se ratificó contar los años desde el nacimiento de Cristo (el 1 de enero del año 1 de nuestra era), costumbre que se practicaba en el mundo cristiano desde que en 527 el monje Dionisio el Exiguo determinó que Cristo había nacido el 25 de diciembre del año 753 ab urbe condita. De ahí que se feche la reforma juliana en el año 46 antes de nuestra era (707 ab urbe condita). El lío entre el 25 de diciembre y el 1 de enero se hace aquí bien patente.

Pero hay más complicaciones. Porque cuando Gregorio XIII aceptó la fecha ya se sabía que era errónea en al menos 4 años. En suma, ni Jesucristo nació en el año 1 sino antes, ni sabemos tampoco si fue el 25 de diciembre o el 1 de enero. De hecho, las últimas investigaciones parecen indicar que nació al final del verano, seguramente en septiembre, y cuatro o cinco años antes del año 1.

O sea, que la era cristiana de nuestro calendario comienza el 1 de enero del año 1, que no fue ni el día ni el año del nacimiento de Cristo. Y además celebramos dicho nacimiento el 25 de diciembre; ¿no tendríamos que empezar el año el 26 de diciembre? Mejor no, claro; pero son bien curiosas estas paradojas de los calendarios...

Eso sí, la reforma gregoriana corrigió el principal defecto del calendario juliano, ya que siguen considerándose bisiestos los años múltiplos de 4, pero con la excepción de los que son múltiplos de 100 (aunque, de éstos, los múltiplos de 400 siguen siendo bisiestos). Parece lioso, pero en el fondo es bastante sencillo. Por ejemplo, el año 1900 no fue bisiesto pero sí lo fue el año 2000. Y han sido bisiestos 2004, 2008 y 2012... Pero cuando llegue, el año 2100 no será bisiesto. De este modo, en cada período de cuatro siglos sólo hay 97 años bisiestos, no 100. Y así la duración media del año es de 365,2425 días, muy próxima al año trópico real (365,2422)...

Pero, siendo rigurosos, tampoco es del todo exacta.

En realidad, la medida del tiempo mediante los distintos elementos astronómicos se complica notablemente debido a que existen toda clase de distorsiones en los distintos movimientos —que los griegos creían perfectos, como buenos pensadores desprovistos de instrumentos— de los astros unos respecto a otros. La Tierra no sólo tiene un eje que gira como una peonza cada 26.000 años aproximadamente, lo que ocasiona que los equinoccios vayan retrocediendo poco a poco; el fenómeno se denomina, por esta razón, precesión de los equinoccios, porque se van precediendo año tras año. Pero es que, además, la Tierra se bambolea en pequeños giros. Y tiene otros minúsculos movimientos irregulares causados por lejanas atracciones gravitatorias, además de que su velocidad de giro en torno a su eje, y de traslación alrededor del Sol, también varía por múltiples causas.

Tampoco el Sol se está quieto en su sitio, sino que se mueve, arrastrando con él a todo el Sistema Solar, en torno al centro de nuestra galaxia, la Vía Láctea. Y, de hecho, el Sol, la Tierra y los demás cuerpos celestes relativamente próximos sufren todos ellos pequeños movimientos parásitos derivados de las atracciones relativas con los demás cuerpos, en el Sistema Solar e incluso fuera de él.

Todo ello influye para que los días hayan sido más cortos o largos en el pasado, y para que el año fuera más o menos largo, y tuviera más o menos cantidad de días. Por ejemplo, en el Cretácico, hace 85 millones de años, la Tierra giraba sobre sí misma más deprisa que ahora, por lo que el año tenía algo más de 370 días. En el Cámbrico, hace algo más de 500 millones de años, la cosa era aún más llamativa: el año tenía 425 días... Y es que la rotación de la Tierra va disminuyendo poco a poco, por lo que el año tiende a tener menos días. Pero eso ocurre con un ritmo de millones de años; así que todos tranquilos...

Menos mal que desde que tenemos relojes atómicos podemos considerar por fin un patrón de tiempo fijo, que no depende de toda esa enorme y variable complejidad astronómica. El ajuste de estos relojes atómicos exactos a los diferentes tiempos medidos mediante parámetros astronómicos —posición relativa de la Tierra, el Sol y otros astros— es muy complejo. Pero, en realidad, para usos civiles está claro que el día solar medio —y por tanto el año solar medio— son ampliamente suficientes. Aunque de vez en cuando haya que ajustar algún segundo en la duración de un año determinado, lo que lleva a la prensa a preguntarse el porqué, con no poco asombro. La explicación es sencilla: el Universo no se deja cuadricular fácilmente, y es en cambio muy amigo de las cifras aproximadas. No es exacto, es «casi» exacto. De ahí la necesidad de contar con unidades —de tiempo, pero también de masa y otras magnitudes— independientes de cuestiones que tengan que ver con la gravitación o el movimiento de los astros.

La adaptación del calendario juliano al gregoriano que hoy predomina en Occidente no fue inmediata en el mundo europeo. La España de Felipe II lo hizo, junto a la Santa Sede, de forma inmediata, y pocos días después les imitó Portugal. Francia cambió ese mismo año de 1582, pero no en octubre sino en diciembre. Dos años después lo hicieron los católicos de Alemania y Suiza. Polonia cambió en 1586 y Hungría en 1587. Inglaterra y Suecia esperaron hasta 1752, por lo que hubieron de corregir ya once días. Y Grecia y otros países ortodoxos, entre ellos Rusia, esperaron al siglo XX. Turquía fue uno de los más tardíos: lo hizo en 1927. En Asia, China aceptó el calendario occidental en 1912; en cambio, Japón ya lo había adoptado en 1873.

Por cierto, la de la fecha de la muerte de santa Teresa no es la única anécdota que tiene que ver con el cambio de fecha de la reforma gregoriana. Por ejemplo, siempre se ha dicho que Cervantes y Shakespeare murieron el mismo día, el 23 de abril de 1616. Pero no fue así: aunque la fecha «oficial» en sus respectivos países es la misma, el bardo de Avon murió diez días después, o sea, el 3 de mayo según nuestro calendario ya reformado. Resulta que por aquella época los ingleses aún no habían adaptado su calendario —lo hicieron en 1752, como acabamos de ver— como sí lo habíamos hecho en España, y mantenían los diez días y pico de desfase. O sea, que, en realidad, Cervantes murió diez días antes que Shakespeare.

En nuestro calendario, tan arbitrario como todos los demás pero absolutamente predominante hoy en el mundo occidental y en parte del mundo oriental, ya hemos visto que el primer año comenzó el 1 de enero del año 1 (no existe el año cero porque cero, por definición, es nada; se trata de un instante que sirve de punto de partida y que no podría, por tanto, durar todo un año). Ése es el momento origen del calendario —punto cero—. Ese primer año de nuestra era terminó a las 12 de la medianoche del 31 de diciembre. El siguiente año fue el año 2, o sea el segundo de la era. El primer siglo había comenzado, obviamente, el 1 de enero del año 1 y terminó al final del año 100. El segundo siglo comenzó el 1 de enero del año 101, y así sucesivamente. Por esa razón carecía de fundamento alguno el hecho de festejar el cambio de siglo (y de milenio) al comienzo del año 2000. Lo suyo era celebrarlo en el momento de la transición entre el año 2000 y 2001, es decir, a las cero horas del 1 de enero de 2001. El siglo XXI comenzó el 1 de enero de 2001. Todos los siglos terminan al final del año terminado en 00, y comienzan al inicio de los años terminados en 01.

Un calendario excepcional en el mundo occidental, en realidad poco usado a causa de las inevitables relaciones internacionales unificadoras, es el del actual estado de Israel. Procede del antiguo calendario hebreo y tiene finalidad estrictamente religiosa. Es de tipo lunisolar, basado en meses de 29 y 30 días. Cada tres años se intercala un mes extra, llamado embolísmico (sin duda, basándose en el calendario ateniense reformado por Metón). Su punto de partida es el 7 de octubre del año 3761 a.C., que es el año de la creación del mundo calculado más o menos fielmente según el relato bíblico recogido en la Tora, el libro sagrado hebreo equivalente al Pentateuco del Antiguo Testamento cristiano.

El 17 de septiembre de 2012 se inició el año judío número 5.773; fue el día del Año Nuevo judío —fiesta de Rosh Hashanah— cuando el año pasó de 5772 a 5773. Por cierto, el día comienza a las 6 de la tarde... El 5 de septiembre de 2013 comenzará el año judío 5774. Y así sucesivamente.

Otro calendario excepcional próximo a nosotros es el islámico, que se utiliza en la mayoría de los países musulmanes. Es de tipo lunar y toma como punto de partida el año posterior a la hégira, cuando Mahoma viajó de La Meca a Medina; fue el 16 de julio del año 622 d.C. No añaden meses suplementarios por lo que las estaciones van cambiando de fecha año tras año. El 15 de noviembre de 2012 comenzó el Año Nuevo musulmán (Muharram) número 1.434. El 4 de noviembre de 2013 comenzará el Año Nuevo musulmán 1435.

Por cierto, la fecha de comienzo del año no es siempre el 1 de enero en el mundo cristiano; los griegos y rusos ortodoxos esperan al 7 de enero, y los coptos (segunda religión en Egipto tras el islamismo) esperan al 1 de septiembre, fiesta que conmemora la muerte de san Marcos.

UN CALENDARIO LITERALMENTE REVOLUCIONARIO

La Revolución Francesa adoptó en 1793 un curioso calendario que reemplazaba al gregoriano. Dividía el año en doce meses de treinta días cada uno, y cada mes se dividía en períodos de diez días llamados, obviamente, décadas (deca diem, en latín). No es la primera ver que ponemos de manifiesto la extrañeza por el uso, aceptado por la Academia, de década para diez días y también para diez años, sobre todo existiendo el vocablo decenio, que significa etimológica y fonéticamente diez años.

El último día de cada década era el día destinado al descanso. Y los cinco días que sobraban al final del año (del 17 al 21 de septiembre en el calendario gregoriano) eran de fiesta nacional; la vacación anual, en cierto sentido. Eso significa que el año nuevo comenzaba en el momento del equinoccio de otoño, que es una fecha variable de año a año (en torno al 22 o 23 de septiembre). El nuevo calendario fijó como primer día del Año Nuevo el 22 de septiembre.

El primer año del nuevo sistema se conoció como año I (en francés An I) y así sucesivamente, siempre en números romanos. Cada estación tenía tres meses y los nombres de éstos no podían ser más poéticos porque se relacionaban con fenómenos naturales o agrícolas: en otoño, que es cuando empezaba el año, estaban Vendimiario, Brumario y Frimario (de vendimia, brumas y frío). En invierno, Nivoso, Pluvioso y Ventoso (nieve, lluvia, viento). En primavera, Germinal, Floreal y Pradial (semillas, flores, prados). Y en verano, Mesidor, Termidor y Fructidor (mieses, calor, frutas).

Este calendario literalmente revolucionario y no poco bucólico tuvo una vida muy efímera: apenas doce años. Napoleón lo abolió sin más en agosto de 1805 para regresar al uso del gregoriano, vigente en toda Europa.

¿Lástima? Bueno, Floreal en lugar de Mayo, o Ventoso en lugar de Marzo, son apelaciones sin duda más expresivas, hoy casi diríamos que propias del mundo hippy... Pero muy apetecibles en este mundo de hoy, subyugado por el materialismo pragmático.

¿Y los almanaques? ¿En qué se diferencian de los calendarios? En primer lugar, y por ceñirnos a su etimología, si calendario viene del latín kalendas, como ya hemos visto, almanaque en cambio tiene un indudable origen árabe: al manak significa sencillamente «el clima». Los almanaques, al menos designados con tal nombre, deben ser, pues, más recientes que los calendarios.

De hecho la primera referencia histórica a la palabra es probablemente el Almanach perpetuum, publicado en 1496 por un astrólogo de Salamanca llamado Abraham Zacuto, huido a Lisboa a raíz del decreto de expulsión de los judíos dictado por los Reyes Católicos en 1492. Zacuto referenciaba sus datos astronómicos con el meridiano de Salamanca (lo de Greenwich vino muchísimo después, claro). Aquel almanaque contenía, por supuesto, predicciones meteorológicas asociadas al discurrir de los astros, además de muchos otros datos de tipo religioso y festivo, e incluso toda clase de noticias y comentarios sobre temas sociales y económicos que pudieran interesar a las gentes.

En el siglo siguiente se generalizaron estas publicaciones por toda Europa, con consejos no sólo meteorológicos sino también médicos, agrícolas, geográficos... De hecho, fueron utilizados como libros de texto y como elementos de acceso a la cultura para muchas personas que no tenían acceso a la educación sistemática.

Fuera de España, ya en el siglo XVIII se hizo muy famoso el Poor Richard Almanack, «Almanaque del pobre Richard», que se publicó durante 25 años seguidos a partir de 1732. Lo escribía nada menos que Benjamín Franklin, bajo el pseudónimo de Richard Saunders o «el pobre Richard». Se editaban anualmente 10.000 ejemplares, que no es poca cosa para la primera mitad del siglo XVIII y una especie de folleto editado en las colonias británicas americanas. En su interior predicaba normas de economía, sobriedad y otras cualidades éticas, además, por supuesto, de los datos típicos del calendario tales como fechas, efemérides astronómicas, refranes... Y, por supuesto, predicciones meteorológicas globales...

Por esa misma época, Diego de Torres y Villarroel, que ya hemos citado más arriba, publicaba en España con notable éxito un divertido almanaque que alternaba las curiosidades y los chascarrillos con las predicciones meteorológicas y astrológicas; se llamaba «El Altillo de San Blas».

Por cierto, por ser considerados perjudiciales para la moral y las buenas costumbres, los almanaques fueron prohibidos por la iglesia en la segunda mitad del siglo XVIII, en 1767; el mismo año que se decretó la expulsión de los jesuitas... Bastante más tarde volvieron a ser tolerados, aunque siempre fueron vistos por las autoridades religiosas con cierta suspicacia. Porque algunos almanaques populares no dejaban títere con cabeza, y el mundo de la religión no era precisamente el menos aludido.

Hoy existen almanaques, especializados o no, prácticamente en todo el mundo. En Estados Unidos, por ejemplo, aunque son bastantes los periódicos que publican Anuarios con resúmenes noticiosos del año que acaba —como hacen muchos otros grandes diarios de todo el mundo—, el New York Times sigue usando la palabra inglesa almanac. Y el National Journal edita cada año un Almanac of American Politics. En las extensas zonas agrícolas de América del Norte es muy popular el Old Farmer’s Almanac («Viejo almanaque de los agricultores»), con más de un siglo de existencia; se generalizó a finales del siglo XIX, antes de la llegada de la era del petróleo. Mantiene ciertas predicciones agrometeorológicas a largo plazo, pero cada vez remite más a los informes del Weather Channel o a la información de la NOAA (Agencia Norteamericana de la Atmósfera y el Océano).

Ya en Europa, podemos encontrar en Italia almanaques antiguos pero aún en vigor, como el Almanacco Barbanera, según ellos mismos dicen en su página web, «el almanaque más famoso de Italia», muy orientado hacia la astrología y cuestiones prácticas de la vida en el campo. En Portugal es muy famoso O seringador (cuya versión digital es muy crítica en temas sociales y satiriza a menudo el mundo de la política). Los alemanes siguen consultando el Old Moore’s Almanack, y también el Mondplaner, almanaques clásicos repletos de curiosidades y consejos relacionados con diversos temas, incluidos el clima y el tiempo.

Y así sucesivamente...

Es un mundo que resulta asombroso hoy, en pleno siglo XXI; incluso perturbador, por ignorar de manera tan obvia los avances de la ciencia que, precisamente en el campo meteorológico, han sido espectaculares en apenas un siglo. Pero eso sí, seduce a muchos millones de personas en todo el mundo, incluidos los países occidentales desarrollados. Algo que no conviene ignorar, aunque sólo sea porque se trata de un signo de la escasa cultura científica y la total ausencia de espíritu crítico de muchísimas personas. Un aspecto preocupante de las sociedades modernas, si analizamos estas cuestiones bajo el prisma de la racionalidad más elemental.

Porque esta supervivencia de tradiciones después de todo bastante absurdas —y más, si las pasamos por el tamiz de lo que la ciencia sabe hoy— sigue impregnando la vida cotidiana en cuestiones de todo tipo debido a los almanaques, calendarios y diversas tradiciones orales, en particular por lo que respecta a sus supuestas predicciones meteorológicas que, como en otros órdenes de la vida, suelen dejarse guiar por criterios de lo más variopinto. Sin ir más lejos, cuando aluden a algo tan aparentemente arbitrario como el número cuarenta.

No es un número anodino. De hecho, existe una tradición religiosa asociada a ese número, como era de suponer. En la tradición judía y cristiana, por ejemplo, están los cuarenta años que pasó el Pueblo de Dios en el desierto, los cuarenta días que estuvo Moisés en el Sinaí, los cuarenta días de la marcha de Elías hasta el monte Horeb, los cuarenta días del diluvio universal, los cuarenta días que pasó Cristo en el desierto ayunando, las cuarenta horas que pasó el cadáver de Cristo en el sepulcro... Y así sucesivamente. La Cuaresma misma dura cuarenta días, desde el Miércoles de Ceniza hasta el Jueves Santo.

Quizá la razón de este extraño número se deba a diversos motivos, todos ellos relacionados con el simbolismo del guarismo 4. En la Biblia, el universo material tiene mucho que ver con el 4. El Génesis describe el jardín del Edén con cuatro ríos que fluyen en la dirección de los cuatro puntos cardinales. Hay cuatro Evangelios, cuatro jinetes del Apocalipsis... Quizá todo ello se base en el hecho de que una lunación y media, o sea, seis semanas, son aproximadamente 40 días, si no se cuentan ni el día inicial ni el final. Pero no es fácil saberlo...

El caso es que en medicina es tradicional el uso de las cuarentenas para prevenir contagios infecciosos, y el período femenino del puerperio, tras el parto, también ha sido designado tradicionalmente como cuarentena. Un tiempo durante el cual la madre, entre otras cosas, no debía tener actividad sexual alguna. Esto es algo rebatido hoy; tener relaciones sexuales o no en esas fechas sólo ha de depender de cómo se encuentre la mujer tras el parto. Cosa que tiene más que ver con la fisiología femenina de cada madre y, eventualmente, con la pareja misma, que con los cuarenta días, o bien 39, quizá 41, o bien...

La tradición musulmana, de raíces similares a la judeocristiana, afirma que el alma de un difunto ha de esperar 40 días antes de ser juzgada y enviada o no al Paraíso; será a partir de entonces cuando los familiares puedan visitar la tumba. Y, curiosamente, esta tradición del número 40 ha perdurado en la sabiduría popular en cuestiones relacionadas con la vida cotidiana. Por ejemplo, «de los 40 para arriba no te mojes la barriga»; ¿quiere eso decir que una persona de 42 años ya no se puede bañar? Suena de lo más divertido, al menos hoy... O el conocido Avís de festa de la localidad alicantina de Castalla, que se realiza el 25 de julio, 40 días antes de la fiesta patronal de la Virgen de la Soledad, que es el 2 de septiembre. Incluso en meteorología existe algún que otro refrán, como por ejemplo el famoso «Hasta el 40 de mayo no te quites el sayo».

Precisamente de refranes meteorológicos tratará el siguiente apartado. Pero como colofón a este apartado dedicado a contar el tiempo —días, semanas, meses, estaciones, años, siglos...— con el fin de establecer los correspondientes calendarios, a menudo en correspondencia con el tiempo atmosférico, no nos resistimos a incluir unas reflexiones en torno a lo difícil que resultaba, y sigue resultando, el hecho de tener que contar cosas. Sí, sabemos hacerlo desde pequeñitos; pero en realidad no somos conscientes de las contradicciones que implica, según sean las cosas que contamos.

¡QUÉ DIFÍCIL ES CONTAR!

¿Por qué decimos «dentro de ocho días», o «de quince días» para referirnos a la fecha que corresponde al mismo día de la siguiente semana o de la semana posterior? Son siete y catorce días más, no ocho ni quince...

Pues resulta que, sin ser conscientes de ello, seguimos usando en realidad un antiguo hábito numeral propio de la época romana, hace unos 2.000 años. La definitiva inclusión en las matemáticas de magnitudes continuas como suma de infinitas magnitudes discretas —llevada a cabo por el cálculo diferencial a partir del siglo XVII— fue modificando gradualmente el concepto popular de número, que pasó de designar el número cardinal de un conjunto de objetos, a convertirse en la «etiqueta» de un punto concreto, de un momento efímero y, como tal, sin dimensiones. La suma de infinitos puntos sin dimensión proporciona un número finito y entero; ésa es la base del cálculo infinitesimal. Porque no es lo mismo decir el kilómetro 5 de una carretera (se trata de un punto concreto, quizá indicado por un mojón) que la distancia de 5 kilómetros, que es la suma de cinco espacios de mil metros, de 5.000 espacios de un metro...

Lo segundo es una magnitud, la distancia que separa a dos mojones; mientras que lo primero, o sea, el mojón mismo, sólo representa un punto, teóricamente sin dimensión.

Si Cristo fue crucificado en viernes, ése fue el primer día de su muerte; el sábado el segundo y el domingo el tercero. Normal en el cómputo romano; pero resulta que hoy no contamos ya así... excepto las agencias de viajes cuando publicitan sus estancias turísticas, que incluyen tanto el día de partida como el de llegada. Por tanto, si Jesucristo falleció por ejemplo a las seis de la mañana del viernes (esto es, jueves + 1/4 del viernes), a las seis de la mañana del domingo habrán transcurrido solamente dos días completos para nosotros. Resucitó al tercer día, si consideramos «día» como un entero, pero sólo habrían transcurrido dos días completos, o sea 48 horas. Y antes se celebraba su resurrección el Sábado de Gloria; para más confusión.

La forma romana de contar a base de enteros no ha desaparecido del todo; por ejemplo, en catalán y en alemán se cuentan las horas de forma distinta al resto de las lenguas próximas al castellano. Las 8.15 horas (ocho y cuarto) se llaman «un cuarto de nueve». Esto es, la cuarta parte de la novena hora. Esta novena hora no es, pues, el instante temporal en que el reloj marca las nueve en punto sino todo el intervalo que va desde las 8.00 hasta las 9.00 (hora número nueve, contando desde el instante cero, o sea las 8 y cero segundos). La hora primera (hora número uno) va desde el instante cero, que es la medianoche, hasta la una de la madrugada: es decir, empieza en el instante cero y termina en el instante uno. Del mismo modo, la hora novena empieza en el instante 8 (las ocho en punto) y termina en el instante 9, a las nueve en punto.

El idioma inglés cuenta igual que el castellano o el francés, aunque en lugar de decir doce menos cuarto dicen un cuarto para las doce; o sea, falta un cuarto de hora para el instante número 12. No es lo mismo que en catalán o en alemán, pero tampoco lo dicen como nosotros...

En cambio, sí usamos el antiguo modelo romano para nombrar los años. Pero, más lío aún, no lo hacemos para decir la edad que tenemos aunque también la medimos en años.

Todo esto da lugar a otra confusión a la hora de determinar, por ejemplo, cuándo empieza un siglo o un milenio —la famosa y absurda polémica del año 2000—, o bien cuando decimos nuestra edad. Por ejemplo, cumplir 32 años significa haber completado nuestro año de vida número 32, de modo que al día siguiente comenzará nuestro año 33. O sea que, al día siguiente de nuestro cumpleaños número 32 deberíamos decir que estamos ya en el año 33 de nuestra vida (porque lo acabamos de empezar); pero lo que decimos es que «tenemos» 32 años, y lo seguimos diciendo durante todo ese año 33 de nuestra vida y hasta el final. Se supone que dejamos sobreentender que lo que tenemos son 32 años completos y, ADEMÁS, los días o meses que hayan transcurrido del año 33.

Si fuéramos honestos, a partir del sexto mes deberíamos redondear al alza; o sea, decir 33. Pero, ay, la coquetería —en este caso, no sólo femenina— nos hace decir que tenemos 32 hasta el último día, cuando se acerca el cumpleaños número 32 y entremos en el año 33...

Pero lo divertido es que para contar los días del mes no hacemos eso; decimos que estamos a 12 de agosto, no que estamos en el día 11... y pico. O sea, para la fecha cuenta una cosa, para decir la edad que tenemos cuenta otra cosa. Ésta, qué curioso, supone «quitarnos» un año. ¿Un engaño para sentirnos más jóvenes?... Bien pudiera ser.

Habitualmente, entendemos lo que significa estar a mediados de 2010; eso coincide más o menos con el verano. Pero si lo dijéramos con el mismo sistema que usamos para hablar de las horas deberíamos decir «estamos en el 2009 y medio» (más imprecisamente, «2009 y pico»). Lo mismo que decimos, cuando la hora está entre las diez y las once, que son las diez y pico.

Veamos un ejemplo sencillo, referido a una fecha importante para el autor —el cumpleaños— y a una hora cualquiera de ese día, por ejemplo, a las 17 horas y 15 minutos de ese 3 de agosto de 2013. En lenguaje coloquial, las cinco y cuarto de la tarde del 3 de agosto.

Las tres posibles formas de decirlo serían las siguientes:

1) Modelo «matemático»: 2012 + siete meses de enero a julio + dos días de agosto + 17 horas + 15 minutos. O sea, año 2012 + 7 meses + 2 días + 17 horas + 15 minutos.

2) Modelo «romano»: 15 minutos de la hora decimoctava del día tercero del mes de agosto del año dos mil decimotercero. O sea, faltan 45 minutos para las 18 horas del día 3 de agosto de 2010.

3) Modelo «actual»: 3 de agosto de 2013, a las cinco y cuarto de la tarde.

El modelo actual es una curiosa, y más bien absurda, mezcla de los dos sistemas; aunque, como estamos acostumbrados a ello, nos parece de lo más lógico.

La cosa resulta bastante confusa: el día 3 de agosto no puede ser contado como tal hasta no estar completo, a las 12 de la noche. Del mismo modo, 2010 no lo será hasta no llegar a su final, al terminar el 31 de diciembre. A las 17.15 de ese día 3 de agosto estaremos, pues, todavía en una fecha señalada en primer lugar por el día 2 ya transcurrido, al que habría que sumarle las 17 horas y 15 minutos ya transcurridos del día 3.

Si lo dijéramos como decimos la hora y los minutos, pero en días y horas, serían «los 2 y 17» de agosto; o sea el día 2 y 17 horas. No el 3 de agosto, a las 17 horas.

O bien, deberíamos decir que estamos en el día tercero (aún no terminado) del mes de agosto del año dos mil decimotercero (aún no terminado), como en el modelo romano. Pero, entonces, ¿por qué decimos las 17.15 —o las cinco y cuarto de la tarde— y no el minuto 15 de la hora 18, es decir el minuto decimoquinto de la hora decimoctava?

Es un jaleo curioso, ¿no? Y demuestra que sí que es difícil contar cosas tan sencillas como días, horas y años... No es raro que haya habido, que aún siga habiendo, tantos calendarios; al fin y al cabo, sólo son la consecuencia de su asociación con las más diversas actividades humanas que se dan a lo largo y ancho del planeta.

1.3.2. Los refranes

En idioma castellano existen pequeñas diferencias entre las diferentes formas de paremias —enunciados breves, sentenciosos e ingeniosos que transmiten mensajes instructivos o que incitan a la reflexión intelectual y moral— que utilizamos de manera más o menos generalizada. Nos hemos quedado con los refranes porque son las paremias más comunes, especialmente cuando se aplican a las labores del campo y a los fenómenos atmosféricos. Pero podríamos igualmente hablar de adagios, aforismos, axiomas, proverbios, máximas, apotegmas, sentencias...

Decía don Quijote que «los refranes son sentencias breves sacadas de la experiencia y especulación de nuestros ancianos». Pues de eso trata el presente apartado, de la experiencia y la especulación acumuladas a lo largo de siglos en torno a las cuestiones del tiempo y el clima, y expresadas en forma de frases breves, que suelen rimar y resultan sentenciosas cuando no irónicas.

Es tan variada y fecunda la presencia de toda clase de refranes meteorológicos en nuestro mundo —en idioma español y en muchas otras lenguas, por cierto— que no podemos obviar el análisis de lo que suponen, en cuanto a fiabilidad, de cara a la predicción o la descripción del tiempo y del clima. Porque es indudable que compendian —a veces acertadamente, a menudo con muy poca o nula garantía— una sabiduría popular basada en la tradición de generaciones de campesinos y marinos, los «ancianos» aludidos por don Quijote, que luego fue transmitida oralmente de padres a hijos, generalizándose mediante el muy eficaz método de la vox populi, en paralelo —y quizá aún antes— con lo que por escrito comenzaron a hacer los almanaques y calendarios.

Las culturas antiguas —mesopotámica, egipcia, grecolatina, árabe...— supieron condensar ese conocimiento esencialmente rural, y lo fueron transmitiendo verbalmente y de forma sintética. Más tarde esa tradición oral fue enriqueciéndose con nuevas aportaciones de tipo local, según las distintas regiones, y finalmente los refranes quedaron constituidos por frases cortas, más o menos en verso —las más de las veces con rima asonante— y, en todo caso, buscando siempre cierta armonía tanto en la forma como en el fondo, dentro de la brevedad.

Ya hemos visto que el modo de situarse en el tiempo anual, fundamental para conocer el momento de la labranza, de la siembra, de la siega, de la recogida de la fruta, de las trashumancias y de muchas otras labores y actividades del campo y de la mar, fue aceptablemente resuelto desde tiempos neolíticos mediante la asociación de las apariciones y desapariciones de determinados grupos de estrellas en el ciclo anual de la naturaleza, incluyendo al Sol y a la Luna, obviamente. Sin tener en cuenta la precesión de los equinoccios (que es de sólo 1 grado de arco cada 72 años, una vuelta entera cada 26.000 años), el movimiento de los astros en la esfera celeste desde el horizonte Este hacia el Oeste tiene un período casi idéntico al del año solar, responsable de las estaciones.

O sea, que los primeros refranes que hubo en la Antigüedad, y no pocos de los que han sobrevivido hasta hoy, tienen a las fechas del calendario —señaladas por ese ciclo anual progresivo del Sol y de ciertos astros señalados— como ineludible referencia a la hora de buscar regularidades en la temperie, que pudieran luego ser reflejadas en el correspondiente aforismo. Las predicciones así elaboradas servían para un determinado día, o bien abarcaban un período de tiempo nunca muy largo, en una determinada época del año.

Los refranes, hasta entonces de transmisión oral, al final de la Edad Media y, sobre todo, con la imprenta, fueron recogidos parcialmente en escritos más o menos apócrifos, y finalmente recopilados en libros, almanaques y diversas publicaciones ligeras. Aunque lo esencial de su transmisión fue hasta casi el presente de tipo verbal.

Uno de los primeros libros que recogen refranes meteorológicos fue la Cronología y repertorio de la razón de los tiempos, de Rodrigo Zamorano, publicado en Sevilla en 1585. Y podríamos citar muchos otros a partir de ahí. Por ejemplo, el Repertorio de los tiempos e historia natural de esta Nueva España, de Henrico Martínez, editado en México en 1606, o bien la Agricultura general, de Alonso Herrera (Madrid, 1645), e incluso la Cartilla rústica, physica visible y astrología innegable: lecciones de agricultura y juicios pastoriles para hacer docto al rústico, con Diego de Torres Villarroel, otras vez él, como autor (Salamanca, 1727).

Muy recientemente cabe citar El libro de los Refranes de la Temperie, compilado, dispuesto y ordenado por el meteorólogo José Sánchez Egea, que fue publicado por el Instituto Nacional de Meteorología en 1986.

Los refranes suelen referirse a diversos signos anunciadores de un determinado tipo de tiempo. Desde la observación del Sol, la Luna y las estrellas, incluyendo a los fenómenos ópticos como el arcoíris u otros, hasta la presencia de determinados meteoros en función de las fases de la Luna, o bien la observación de muy diversas plantas silvestres o cultivadas y del comportamiento de los animales más conocidos, especialmente los domesticados, e incluso el análisis de objetos materiales como paredes, pozos, suelos de arcilla y hollín de las chimeneas.

En toda Europa los refranes tienen una estructura parecida a la que se observa en España, buscando cierta rima y explicando concisamente lo que pretenden afirmar. La interpretación de la observación del vuelo de las aves, de los insectos, de los batracios y reptiles, del ganado, incluso de los peces en el río y en las costas, incluyendo muchas plantas silvestres, permite emitir pronósticos sentenciosos que incluso son bastante coincidentes en países de clima similar —por ejemplo, Grecia, Italia, Francia y España—, cada uno, por supuesto, en su propio idioma. Incluso en España hay refranes similares expresados en catalán-valenciano, castellano, gallego e incluso euskera, debido a que en las regiones correspondientes se dan conocimientos similares sobre determinados fenómenos.

Es obvio que en la actualidad gran parte de esa tradición oral se ha ido perdiendo. Y a pesar del esfuerzo de algunos libros, como los anteriormente citados y otros, lo cierto es que eso nos parece más bien lamentable, aunque sólo sea por razones estrictamente antropológicas e históricas. Y quizá también porque se nos priva de una información —más climatológica que meteorológica— de primera mano, especialmente de cara al estudio de los cambios de clima a lo largo de los siglos pasados.

Algunos refranes de los que han sobrevivido hasta hoy se cumplen en un elevado porcentaje de casos. Lo cual no debiera sorprendernos, por otra parte, ya que su existencia viene avalada por siglos de observaciones repetidas año tras año. El refrán que no se cumplía con regularidad solía acabar por caer, casi inexorablemente, en el más negro olvido. Lo cual, a primera vista, supone ciertas garantías de credibilidad hacia aquellos que han logrado llegar hasta nosotros; lo que no quita para que una gran mayoría de ellos nos parezcan completamente gratuitos y sin fundamento.

En las páginas siguientes hemos incluido muy diversos tipos de refranes; incluso los hemos agrupado en una especie de calendario popular de refranero meteorológico. Pero comenzamos con un puñado de refranes que ofrecen cierta base científica y que, por eso mismo, suelen resultar en general bastante acertados. Algo así como la aristocracia del refranero.

1. Cerco de Luna, lluvia segura; cerco de Sol moja al pastor

La explicación tiene que ver con los meteoros ópticos llamados halos y coronas, producidos por nubes muy altas, los cirrostratos, casi transparentes y que producen los famosos «cercos». Aunque no siempre, suelen ser indicio de lluvia porque anuncian, bastantes horas antes, la llegada de un frente de lluvias. Otro excelente refrán abunda en la idea: Luna anillada o rojiza, la lluvia profetiza.

2. Cielo aborregado, antes de tres días mojado

Los cielos aborregados se deben a la presencia de nubes altas o medias que forman ese empedrado como baldosas unidas entre sí (altocúmulos) o lana de ovejas (cirrocúmulos). Suelen ir tras los cirros citados en el anterior refrán, indicando la llegada del cambio de tiempo. Existe una segunda versión del mismo refrán: Cuando el cielo está de lana, si no llueve hoy lloverá mañana.

3. Cuando la sierra lleva montera, llueve aunque Dios no quiera

El fenómeno de la montera, o boina, que se forma en las montañas próximas se debe a la presencia de una nube orográfica debida al viento que, en las cumbres, se condensa por enfriamiento formando una nube baja —estrato o estratocúmulo—. Suele indicar la llegada de vientos más húmedos, quizá un frente de lluvia. Otro refrán alude indirectamente al mismo asunto: Neblina en el valle, pescador a la calle, neblina en la montaña, pescador a la cabaña. La neblina se produce cuando el aire frío y denso resbala por las laderas y se acumula en el valle, condensando su humedad: tiempo estable. En cambio si hay neblina en la montaña, precede a la boina o montera del primer refrán.

4. Tarde de arcos, mañana de charcos

El responsable es el arcoíris, indicio seguro de lluvia cercana: este meteoro óptico se produce al pasar la luz solar por las gotas de la lluvia que caen. Si se ve al atardecer, la lluvia está próxima y a la mañana siguiente habrá charcos.

5. Cirros y estratos, hembra con macho

Curioso refrán este, bastante certero sobre todo en el noroeste de España, donde las borrascas atlánticas se anuncian con masas previas de cirros y luego de estratos lluviosos. Igual que hembra y macho, juntos acaban engendrando... lluvia, claro.

6. Año de nieves, año de bienes. Con su negativo corolario El mal año entra nadando

Parece lógico. Si en enero llueve mucho, las cosas van a ir muy mal porque eso significa un invierno inusualmente cálido y húmedo en lugar de frío y seco. Por el contrario, la nieve en su momento es excelente: recarga los acuíferos en el llano y los manantiales en las alturas, conserva el agua, permite que las plantas jóvenes enraícen, protege del frío extremo. Otro refrán proclama lo que debe ser: Enero claro y heladero. Es lo normal.

7. Febrerillo el loco, un día peor que otro

Acertado aforismo, ya que el invierno se resiste a despedirse a pesar de que los días son ya más largos, lo cual provoca, a veces, fuertes asoleos: En febrero busca la sombra el perro, que es un dicho quizá un poco exagerado. Pero es mes en general loco... y gélido. Sol, mucho frío, nieve... Febrero no se priva de nada, y eso que es el mes más corto.

8. Por San Blas la cigüeña verás, y si no la vieres, año de nieves

Buen refrán, basado en el increíble instinto de estas aves migratorias —ya no lo son tanto, por lo bien que las tratamos— tan comunes en España. Hay que recordar que San Blas es el 3 de febrero.

9. Sol madrugador y cura callejero, ni Sol caliente ni cura bueno

Una auténtica perla del refranero. Al margen de consideraciones sociológicas que no vienen al caso —el medio rural es bastante conservador en temas costumbristas, es bien sabido—, lo cierto es que en primavera los días suelen ser cambiantes: amanece con Sol, y por la tarde, llueve; o bien amanece niebla, y por la tarde luce el Sol. Y a veces todo eso se alterna con rapidez... Otro refrán lo dice bien: Marzo varía siete veces al día. 10. Abril tiene cara de beato y uñas de gato

Genial... Es difícil encontrar nada mejor para decir que el tiempo de abril engaña siempre. Días espléndidos, luego fuertes heladas muy dañinas, por tardías. Aún hay más perlas refranero-sociológicas sobre el tema: Abriles y condes los más traidores, con su corolario alargado: Los abriles y los señores, pocos hay sin ser traidores. Curas, beatos, señores, condes... El pueblo llano «fabrica» los refranes, es obvio.

11. En abril aguas mil

Uno de los refranes más famosos, muy válido en general: borrascas atlánticas, inestabilidad atmosférica primaveral... La lluvia de primavera es bendición; y si falla, maldición. Lo mismo que en marzo y mayo, por cierto.

12. Hasta el 40 de mayo, no te quites el sayo

Otro conocido refrán, subrayado un mes antes por los dos siguientes: En mayo puede helar hasta el diez alguna vez, y Mayo mediado invierno acabado. En efecto, suelen ocurrir en mayo esporádicas invasiones de aire frío del noreste procedente de la Gran Llanura Europea que puede incluso dar heladas en las tierras altas de la Meseta. Si ocurre ya iniciado junio, aunque es raro que hiele, eso justifica lo del famoso 40 de mayo.

13. El granizo empobrece pero no encarece.

Tiene un corolario, que viene a decir más o menos lo mismo: No hay año malo por piedra y sí por sequía. Son refranes llenos de resignación rural, bastante exactos en lo que afirman. El granizo —y aún más el pedrisco— es terrible para cosechas y frutales, pero afecta sólo de forma muy localizada a superficies poco extensas. O sea, que empobrece al que le ha tocado la china —nunca mejor dicho— pero no reduce la producción total tanto como para que haya encarecimiento de los precios. Por otra parte, es obvio que las grandes sequías afectan a casi todas las regiones; por eso son más temibles.

14. Julio normal seca el manantial

Poco hay que añadir: julio es el mes más seco y caluroso del año... ¿Cómo no se van a secar los manantiales, sobre todo en la bien llamada España Seca?

15. Septiembre, o seca las fuentes, o se lleva los puentes

En efecto, si septiembre sale seco, el estiaje habrá durado ya varios meses, lo que puede bastar para secar fuentes y manantiales. Pero a veces se adelantan los temporales de otoño y las lluvias, a menudo tormentosas, hacen época. No sólo pueden llevarse los puentes sino provocar graves problemas de riadas, sobre todo en el Mediterráneo.

16. Octubre las mejores frutas pudre

Estamos ante el mes lluvioso por excelencia, caracterizado precisamente por la llegada de frecuentes borrascas atlánticas arrastradas por vientos de componente oeste o suroeste —los ábregos o llovedores— que riegan buena parte del interior del país. Las regiones mediterráneas suelen quedarse al margen.

17. Por San Andrés, la nieve en los pies

San Andrés es el 30 del mes de noviembre, fecha que marca el principio de lo más crudo del invierno. De hecho, aunque el invierno astronómico —solsticio de invierno— ocurre en torno al 21 de diciembre, la ciencia climatológica considera que diciembre pertenece al invierno, junto a enero y febrero. Con la Pequeña Edad del Hielo del siglo XVII el invierno llegaba muy pronto; quizá de ahí nació otro refrán: Del 20 en adelante el invierno ya es constante. Y existe un tercer refrán que alude al comienzo de noviembre: Por Todos los Santos, la nieve en los altos. El invierno acecha...

18. Cuando en diciembre veas nevar, ensancha el granero y agranda el pajar

Cosa rara en el mundo rural, esta sentencia rebosa optimismo. Quizá sea propio de la cerealista Meseta, en plena coincidencia con aquel primer refrán del año de nieves año de bienes. Unanimidad: la nieve invernal siempre es deseada.

19. Tiempo pronto en declararse no tardará en ausentarse, pero si viene despacio en irse es también reacio

Muy acertado aforismo. Las cosas que pronto llegan, pronto se van; aunque algunas, sin duda, a veces hacen mucho daño, por pasajera que haya sido su estancia. En cambio, los fenómenos que llegan despacio son menos explosivos, en conjunto menos dañinos, pero también duran luego mucho más. Y eso vale para lo bueno, como para lo malo...

20. El que desee mentir le bastará predecir

Resignadísimo refrán, lleno de honestidad campesina: incluso los mejores agoreros de la Antigüedad, los mejores magos y adivinos, los hombres del campo más experimentados, las Cabañuelas, los santos... Todos se equivocan mucho. Con cierto humor quizá haya quien piense que eso podría valer igual para los meteorólogos de hoy, pero sería faltar a la verdad: las predicciones a corto plazo aciertan ahora más de un 90 por 100 de las veces. La ciencia consigue que los que predicen hoy «mientan» cada vez menos.

Esta veintena de refranes conforma lo que bien podríamos llamar esqueleto creíble del anecdotario meteorológico. Quizá haya unos cuantos aforismos más merecedores igualmente de cierta confianza. El resto, o sea, la inmensa mayoría, son escasamente realistas, y muchos de ellos se basan en cuestiones mágicas, astrológicas, religiosas o míticas que nada tienen que ver con el comportamiento termodinámico de la atmósfera. Sobre todo, aquellos que dicen predecir el tiempo con semanas y hasta meses de adelanto.

La Luna es protagonista en muchos de estos aforismos. Cuando abordábamos la prehistoria meteorológica, veíamos que nuestro satélite era considerado como un elemento esencial en cuanto a su influencia, no siempre buena, sobre las cosas de este bajo mundo. Hoy conocemos bien su influencia en las mareas, por ejemplo. Pero nada tiene que ver en cuestiones meteorológicas. Desde luego, el aire es una mezcla de fluidos y, por tanto, también ha de sufrir esa atracción lunisolar que origina las mareas en los océanos. Pero, en cualquier caso, la influencia del Sol debería entonces ser considerada además de la de la Luna, quitándole a ésta buena parte del protagonismo del que goza, especialmente de noche (como si de día la Luna desapareciese, y con ella su posible acción sobre nosotros, debido simplemente a que no la vemos). Que no tiene sentido, vamos. Al margen de que al ser el aire casi mil veces más ligero que el agua, la atracción gravitatoria que se ejerce sobre él habrá de ser muchísimo menor. Y despreciable frente a otros movimientos del fluido atmosférico debidos a la rotación de la Tierra o los factores térmicos derivados de las variaciones en la insolación recibida debido a la alternancia noche-día, la latitud, la continentalidad, la altitud y muchos otros factores.

La Real Academia dice que un refrán es «un dicho agudo». Hemos seleccionado, pues, un pequeño conjunto de aforismos que tienen auténtica chispa, algo muy característico del pueblo español, por otra parte. De ellos, incluso los hay que ni siquiera aluden al tiempo, pero quizá merezcan ser citados precisamente por su agudeza, ya que con ellos tuvimos la fortuna de topar en nuestra búsqueda por libros y almanaques de todo tipo. Con ellos completamos nuestra peculiar aristocracia refranera.

21. En mares serenos no se forman marineros

Es obvio que la gente de la mar adquiere mucho más conocimiento de su oficio cuando las condiciones meteorológicas son cambiantes. Especialmente en el mundo de la vela, donde sin viento, y por tanto sin olas, no hay navegación posible. Otro refrán abunda en la misma idea, afirmando que ni el mismísimo diablo podría aprender a navegar si no aprende algo de meteorología: El diablo es mal marinero si no sabe mirar al cielo.

22. El agua en marzo es buena hasta que se moje el rabo el gato

Frase ingeniosa y sutil... que no se entiende demasiado. Probablemente alude a la reluctancia de los gatos por lavarse. Si llueve en marzo hasta el punto de que un gato se moje incluso el rabo, es que entonces el agua caída es ya considerable.

23. Si mayo vuelve el rabo, no deja oveja con pelleja ni pastor enzamarrado

Lástima que el idioma castellano esté perdiendo, sobre todo en el habla popular, la fuerza expresiva que se plasma en este refrán. Además, se entiende bien lo que dice.

24. Sale marzo y llega abril, nubecitas a llorar y campitos a reír

Bucólico, ¿no? Y, además, muy real; aunque suene al cuento del abuelito...

25. Mal tiempo para el molinero... para el burro bueno

No precisa comentarios. Si acaso esta apostilla, procedente a buen seguro de algún molinero resentido con su burro: Molino cerrado, contento el asno; pues asno de molino, andar, andar y no adelantar camino. La vida de los burros de carga nunca debió de ser grata...

26. Aguas por San Lorenzo, puercas vendimias y gordos borregos

Adjetivos rotundos, propios del campo. Tampoco necesita mucha explicación.

27. Pastor cucharero y lector, hace al lobo gran señor

Malo será para el dueño de las ovejas que su cuidador engorde, por comer mucho y no cuidar de su rebaño, o por instruirse demasiado. Todo eso le distraerá de sus labores. Otro refrán incide en la misma idea: Labrador con mucha astronomía pasa en ello todo el día. Quien mira al cielo poco trabaja; salvo, quizá, san Isidro que tuvo, eso sí, ayuda angelical...

28. El que duerme en agosto, duerme a su costo

Las vacaciones no existen para el hombre del campo; y aún menos en agosto, por más que sea el mes de los veraneantes de ciudad.

29. Eche agua Dios, que oro es para nos

La España Seca, claro.

30. El arado rabudo y el arador barbudo

Huelgan los comentarios. En el hombre del campo que ha de trabajar, el aseo y la apariencia son menos importantes que el trabajo intenso. Afeitarse... ¿es de ociosos?

31. Árame llorando y me segarás cantando

Sutil y poética forma de mostrar la necesidad de lluvia (o riego) al arar; quienes habrán de llorar son las nubes, por supuesto.

32. Que llueva que no llueva, desde luego riega

Si ello es posible, claro. Otra vez sale a relucir la España Seca.

33. Ni en invierno viñadero

ni en otoño sembrador

ni con nieves seas vaquero

ni de ruines seas señor

Refrán elevado a la categoría de cuarteta por méritos poéticos propios.

34. Viña en lugar pasajero, ni de balde la quiero

Lo cual dice mucho de la escasa honestidad de los viandantes... o del hambre endémica en la España rural de otros tiempos. Otro refrán insiste en la misma idea: Cara me cuesta la viña de la cuesta. Las gentes que suben la cuesta se cansan, se paran y, claro, cogen algún racimo cercano.

35. Un año bueno y dos malos, para que nos entendamos

Vuelve a aflorar el pesimismo del campesinado español.

36. Si se oyen truenos en marzo, el obispo comerá pan blando

Todavía no habían salido obispos en nuestros refranes; cosa rara... Las tormentas tempranas son de buen augurio, al parecer. En el mundo pobre medieval, quizá incluso en épocas más próximas, los obispos eran considerados como personajes no sólo ricos e influyentes, sino también buenos vividores.

37. En febrero mete obrero; pan te comerá pero buena labor te hará; de la mitad en adelante, que no antes

Todo un tratado de economía agrícola. Suponiendo, claro está, que el tiempo se porte como debe. Es decir, como suele. La normalidad, ¡ay!...

38. Enero frío y heladero, febrero verdero, marzo pardo y abril lluvioso, sacan a mayo florido y hermoso. Es la versión larga del conocido: Marzo ventoso y abril lluvioso hacen a mayo florido y hermoso. Todo un excelente compendio de climatología rústica.

39. Si el año temprano miente, el tardío siempre

Puede que este refrán, más bien resignado, una vez más, no tenga mucha base racional pero en el fondo supone una loa, nada indirecta, a la normalidad climática. La idea subyacente es que todo lo que se aleje de lo habitual resulta como mínimo sospechoso. No deja de tener su aquel.

1.3.3. El tiempo y los seres vivos

1.3.3.1. Los animales

Numerosos refranes aluden a los seres vivos, esencialmente los animales, como indicadores del tiempo que se acerca. Las aves quizá sean las más representativas, por razones obvias, puesto que se mueven y prácticamente viven en el aire, pero también muchas otras especies animales y vegetales viven y mueren sumergidas en el aire, incluidos nosotros, los humanos.

Algunos de esos refranes son famosos, y a menudo muy acertados. Por ejemplo, en lo que a la lluvia que se acerca se refiere: Si la golondrina vuela baja, agua recela. Referido al frío existe un refrán parecido al anterior pero mucho más popular, y un poco rústico en la expresión, que dice: Cuando el grajo vuela bajo hace un frío del car..., y cuando vuela a trompicones hace un frío de coj... Ambas rimas son obvias, aunque no muy elegantes. Y no fáciles de explicar: la palabra grajo se ha elegido por su peculiar rima, bien sonora, con otras palabras igual de contundentes; pero la conducta que describe —volar a baja cota cuando hace o va a hacer mucho frío— es probablemente algo propio de los córvidos en general que con aire frío y denso quizá puedan planear mejor en busca de comida en forma de insectos, resguardada cerca del suelo para protegerse de las inclemencias atmosféricas.

Un curioso artículo publicado por la santanderina Carmen Gozalo, hace ya algunos años, en la web de Meteored (http://www.tiempo. com), glosaba el contenido de un detallado trabajo de mediados del siglo XIX escrito por un experto llamado Juan Mieg, en el que describía el papel que juegan las ranas, las sanguijuelas y los misgurnos (peces de origen asiático muy apreciados en acuariofilia, con dos largas antenas y otras más cortas en la cabeza, de nombre científico Misgurnus anguillicaudatus) en la predicción del tiempo. Juan Mieg los llamaba, por lo visto, animales meteorológicos o barómetros vivientes, y lamentaba que en aquella época en la que la ciencia humana era capaz de pronosticar con mucha antelación y precisión cualquier eclipse de Sol o de Luna, no supiera en cambio hacer lo mismo con el tiempo atmosférico. En su opinión, algunos animales tenían la capacidad de captar alteraciones del aire que no sabía percibir el ser humano, por lo que podían prever e incluso evitar con cierta antelación cualquier cambio del tiempo.

De hecho, en el siglo XIX era frecuente en las casas rurales tener pequeños acuarios con ranas, o bien bocales de agua con sanguijuelas, costumbre que también ha sido reseñada en Francia y en Inglaterra unos cuantos siglos antes. El agua se cambiaba cada semana, y estaba tapada por una tela que la mantenía limpia pero dejaba pasar el aire. Incluso existía impreso algo parecido a unas instrucciones, con afirmaciones tan pintorescas como que si la sanguijuela se quedaba en el fondo enrollada era señal de buen tiempo, mientras que si subía hacia la superficie era anuncio de lluvia. El comportamiento de este anélido tenía diversas interpretaciones para predecir también el frío, el viento, las tormentas, la nieve... Incluso se acuñó en el norte de España un verso más bien ripioso:

Cual barómetro animado

de experimental doctrina

la sanguijuela adivina

de la atmósfera su estado.

En cuanto a la rana que utilizaban sobre todo los franceses desde bastante antes de la Revolución, se trataba de la ranita verde, de nombre científico Hyla arborea. Posee en la extremidad de sus patitas unas protuberancias adhesivas que le permite trepar por superficies lisas e incluso colgarse de los árboles sobre los riachuelos con una sola pata. En el acuario se le ponía una escalerita para hacerla subir fuera del agua si tal era su deseo. Y según lo que hiciese al respecto, así sería el tiempo futuro a corto plazo. Por ejemplo, si se metía en el agua sin parar de moverse es que iba a llover, pero si subía por la escalerilla, era anuncio de tiempo seco y anticiclónico.

Un librito francés llamado Météorologie populaire, escrito por Paula Delsol (Ed. Mercure de France, 1970), ofrecía multitud de interpretaciones del comportamiento de la ranita, recordando que los romanos ya afirmaban que se podía interpretar el croar de las ranas para predecir el tiempo, lo mismo que el canto del grillo era un buen termómetro.

Algunos de estos animales viven en libertad, pero los humanos los domestican con fines predictivos. Por otra parte, muchos animales de granja y la mayor parte de los que se observan en pleno campo ofrecen comportamientos susceptibles de ser interpretados como premonitorios de cambios atmosféricos. Pero es difícil pensar que la precisión vaya mucho más allá de eso. Por sensibles que sean a los cambios de la presión, la humedad, las cargas eléctricas, la temperatura y otros factores del tiempo, parece difícil otorgar a esos comportamientos un valor predictivo poco menos que anecdótico.

La lista de animales sensibles a los cambios de tiempo podría ser interminable, aunque no todas las interpretaciones que se hacen de su comportamiento tienen sentido. De hecho, es obvio que todos los seres vivos sufrimos en mayor o menor medida la influencia de los cambios físicos de nuestro entorno, que es el agua para los animales y plantas marinos, y el aire, el suelo y el agua en el caso de los seres vivos que podemos vivir sobre tierra firme.

Conviene no olvidar que la fauna terrícola puede vivir bajo tierra, o bien en la superficie y por encima de ella. Lo mismo ocurre con los vegetales: epigeos son los que viven con parte de su organismo en el aire, e hipogeos los que viven bajo tierra. Una tercera categoría la formarían los que viven parcial o totalmente sumergidos en el agua.

Pues bien, parece que los seres vivos que viven por encima del suelo, especialmente las aves, debieran ser los más sensibles a las variaciones de las características atmosféricas. En cambio, los subterráneos como, por ejemplo, gusanos y topos, consiguen con ello atenuar las oscilaciones meteorológicas bajo tierra, lo que en cierto modo constituye una forma de defensa más vegetal que animal; pero, claro, de poco han de servir para pronosticar nada acerca de lo que ocurre fuera de su territorio subterráneo.

La fauna aerícola consta de especies de movimiento rápido, y algunas de ellas son grandes viajeras. No hay duda de que las aves deben ser los animales mejor dotados para luchar contra las inclemencias meteorológicas o para evitarlas. Lo que sin duda debe requerir ciertas dotes predictivas innatas, aunque sea a corto plazo. Es cierto que aún no se han descubierto los mecanismos internos que hacen que las aves migratorias, por ejemplo, puedan saber cuándo deben partir o regresar, o bien qué rutas deben adoptar en su periplo. Pero lo cierto es que se equivocan bien poco: les va en ello la supervivencia de la especie.

En cuanto a las formas de vida acuícolas, dependen sólo indirectamente de las condiciones meteorológicas; en realidad, esa dependencia es más o menos la misma que la de su medio natural, el agua. Con todo, los peces que viven a escasa profundidad o se alimentan muy cerca de la superficie pueden verse más afectados por los bruscos cambios de tiempo, y especialmente por los temporales, que aquellas especies que viven a profundidades superiores.

Finalmente, los animales terrestres no dependen de las temperaturas de forma tan directa como las plantas, aunque en general son más sensibles a las oscilaciones térmicas bruscas que al valor absoluto en un momento dado. De hecho, todos los animales son sensibles a los cambios térmicos en general, pero aquellos que no se adaptan bien a climas diversos y cambiantes sino que sólo sobreviven en climas estables se denominan estenotermos. Están muy bien adaptados a sus entornos respectivos, pero los cambios de temperatura y otros parámetros meteorológicos les afectan muchísimo. Por esta razón son excelentes indicadores del clima, puesto que se limitan a vivir en zonas muy localizadas con climas poco cambiantes.

En cambio, los animales que presentan gran adaptabilidad y son capaces de vivir en un amplio rango de temperaturas se denominan euritermos. Como viven en muchos sitios y se adaptan a climas muy diversos, son malos bioindicadores del clima.

Al margen de esta distinción, es sabido que existen animales de sangre caliente, que son capaces de hacer variar su temperatura interna dentro de ciertos márgenes gracias a un metabolismo termorregulador. En cambio los de sangre fría dependen mucho más de la temperatura ambiente, hasta el punto de que necesitan un período de letargo invernal durante el cual su temperatura baja a la vez que la de la atmósfera, quedando el animal en vida latente, como hacen muchos vegetales en la estación fría al perder sus hojas. Malos predictores, en todo caso...

Por lo que a la luz respecta, los animales se adaptan mucho mejor que las plantas a las variaciones ya que no dependen de la función clorofílica. Existen animales que viven en plena oscuridad —por ejemplo, los peces abisales o los animales zapadores (como los topos, sin ir más lejos)— y otros que prefieren la oscuridad de la vida nocturna a la luz solar, como los búhos o los murciélagos.

Del mismo modo, la humedad atmosférica es mucho menos importante para los animales que para las plantas. Aun así, se ha observado cierta periodicidad vital ligada al estado higrométrico. Así, muchos de los invertebrados que viven en lugares con estación seca, desarrollan su vida adulta durante la época húmeda, pasando la seca en forma de huevos o quistes.

Parece, pues, lógico que ante esta directa e innegable relación entre la fauna y el tiempo atmosférico, los humanos hayamos intentado a lo largo de la historia utilizar a algunos de los animales más familiares, domésticos o no, para realizar predicciones meteorológicas. Con desigual resultado, ya lo dijimos: algunas de esas recetas caseras y populares tienen cierta verosimilitud, pero la inmensa mayoría carecen de base racional alguna.

Algunos libros afirman que la predicción del tiempo a partir del comportamiento de ciertos animales podría englobarse en una ciencia, sin duda menor, llamada zooscopia. Más adelante veremos que la fitoscopia sería algo parecido, pero utilizando las plantas. A finales del siglo XVI, un autor francés llamado Gaston Peucer, que no tenía empacho en declararse mago de profesión, escribió en latín un libro sobre «artes adivinatorias» en el que, al referirse a la adivinación del tiempo, utilizaba la palabra fitoscopia para aquella rama de su oculto saber que se basaba en las plantas a la hora de emitir una predicción meteorológica. Que se sepa, la fitoscopia no ha conocido gran desarrollo ni ha llegado a ser muy popular entre los campesinos, ni siquiera en Francia; lo que podría ser indicio de su muy escasa fiabilidad.

En cuanto a los animales, existe alguna publicación reciente del máximo rigor que alude al tema, como el Manual del observador de meteorología, libro formativo escrito por un prestigioso científico y maestro de meteorólogos, Josep Maria Jansà i Guardiola, ya fallecido. En el capítulo sobre «Predicción local sin aparatos» hace intervenir la observación de ciertos animales a la hora de realizar una predicción local que no requiera demasiada precisión; es una buena muestra de que no todo es fantasía en esto que han dado en llamar zooscopia.

A título de curiosidad, cabe decir que es más que probable que el tiempo empeore si las golondrinas vuelan muy bajo, las gaviotas vuelan alto y se dirigen hacia la costa, el ganado se inquieta, el grillo canta a deshora y las arañas y otros insectos salen «en masa» y de forma casi repentina. Todo ello significa que se acerca una tormenta o un cambio brusco e intenso del tiempo.

1.3.3.2. Las plantas

La mayor parte de los vegetales son organismos de síntesis fotoquímica, un proceso dependiente de la acción de la luz y, por tanto, estrechamente subordinado a la energía solar. Pero precisamente el Sol es la fuente última de la energía que mueve a la atmósfera, y a la vida cabría añadir. Los intercambios de los vegetales con su entorno necesitan, además, un cierto margen de temperaturas, que en la mayoría de las especies tiene límites bastante restringidos; las diferencias del calor que recibe la planta de su ambiente también influyen de forma esencial en su vida. Lo que significa que la luz y el calor, ambos originados en su origen primero por el Sol, constituyen dos factores determinantes para la vida vegetal en nuestro planeta.

En un lugar determinado y en un clima que durante largos períodos de tiempo cambie poco o nada, las especies vegetales son también constantes. Pero si el clima cambia los vegetales suelen ser los primeros que lo sufren, aunque no todos desaparecen sino que se quedan un poco a la espera. Lo curioso es que muchos de esos vegetales «sufridores» del clima son también los que mejor soportan los bruscos cambios de tiempo que en algunos climas se dan a lo largo del año.

Estas plantas que se adaptan bien a las variaciones extremas son capaces de crecer mucho en años buenos y de crecer muy poco, quedándose en estado casi latente en momentos especialmente adversos, cuando los años son peores. Este comportamiento resulta crucial en los árboles; y los anillos concéntricos que muestra su tronco —y que se aprecian bien en el tocón, tras la tala— muestran bien esta adaptabilidad año tras año, que es mejor en unas especies que en otras.

Un anillo ancho y de un color determinado indica que aquel año el árbol tuvo un crecimiento adecuado debido a unas condiciones ambientales positivas, por ejemplo en lluvia y temperatura. Un anillo muy estrecho e irregular indica en cambio que el árbol creció poco y con dificultad a lo largo de aquel año, debido al estrés térmico o hídrico sufrido. Todo ello integrando los cambios del día a día, incluso del mes a mes, hasta mostrar anillos de crecimiento vegetativo que en cierto modo resumen el clima medio de todo un año.

Las modernas técnicas de análisis de esos anillos nos permitirían, pues, determinar con cierta precisión cómo fue el clima de la zona en la que el árbol vivió. Y eso es posible hacerlo con grandes árboles centenarios o incluso con los troncos utilizados en construcciones de siglos pasados. La climatología histórica tiene en este sistema de análisis un notable aliado para conocer con cierta aproximación las variaciones del tiempo en épocas en las que no existían los aparatos de medida; la especialidad, ya lo vimos, se llama dendroclimatología.

En cuanto al mayor o menor crecimiento de las plantas en cada época del año, en función de las condiciones de la temperie, su repercusión inmediata se observa en las especies aprovechables por el hombre, tanto las recolectadas como, muy especialmente, las cultivadas. La agricultura, que comenzó a desarrollarse en los primeros tiempos del Holoceno, por rudimentaria que fuera en sus inicios pudo hacer mejorar de forma notable nuestra dieta; y todo ello gracias a que los climas fueron mucho más templados que en la glaciación recién terminada. El tiempo acabó teniendo una importancia esencial en esta actividad de supervivencia básica, puesto que de ella dependía lo esencial de la alimentación de base. No es de extrañar que la magia, los mitos, la astrología y las religiones combatieran a la razón humana porque, en realidad, todo era poco a la hora de buscar cualquier tipo de ayuda a la hora de proteger los cultivos, el ganado y la actividad pesquera, cazadora y recolectora del mal tiempo o las adversidades ligadas a él.

El ritmo anual de la vegetación guarda una estrecha concordancia con las variaciones de la temperatura, y alcanza su máxima expresión cuando ésta alcanza sus valores más altos. Los ciclos vegetales son un fiel reflejo de la oscilación térmica tanto diurna como anual. Por debajo de cierta temperatura, diferente para cada especie, la vida de los vegetales se hace latente; y pasados ciertos límites de calor o frío característicos de cada especie, puede incluso llegar a ser aniquilada.

Existen, pues, dos límites absolutos de las temperaturas que puede soportar cada especie vegetal, tanto por arriba como por abajo, y existe igualmente un umbral óptimo, que oscila entre dos valores máximo y mínimo, en el que se desarrolla con plenitud. Por cierto, todo ello varía igualmente según las diversas fases de la vida de cada planta; por ejemplo, en la maduración de los frutos el umbral óptimo es muy superior al que corresponde al desarrollo de una hoja al comienzo de la primavera.

Todo ello puede ayudarnos a determinar, para cada especie, todos esos umbrales. Luego observando la distribución en cada región de unas especies u otras, podremos obtener datos relevantes acerca de las variaciones del tiempo en dicha región. Especialmente cuando los umbrales de variación son estrechos, porque eso introduce mayor precisión en esas estimaciones.

Una vez iniciada por la planta alguna de sus funciones vitales, a causa de las temperaturas de días anteriores y no tanto las que se producen en el momento de iniciar dicha función, esas funciones ya no se detienen ni, desde luego, retroceden. A lo sumo llegan a frenarse y en el peor de los casos detenerse irreversiblemente. Ésta es la causa de que las heladas tardías provoquen tan graves daños, por ejemplo: si a comienzos de abril el tiempo poco nuboso, el número creciente de horas de insolación diurna, la humedad ambiente suficiente y una temperatura benigna provocan la floración generalizada en un árbol frutal, una helada tardía a mediados de ese mismo mes de abril puede eliminar en todo o en parte esas flores, dejando al árbol sin los frutos que serían de esperar más adelante.

Y ya que hemos citado la insolación, sólo cabe recordar aquí, sin entrar en más complejidades, la esencial función clorofílica que realizan las plantas verdes gracias a la energía solar y la presencia de clorofila en las células de esos vegetales. La presencia, muy afortunada, en el aire de un gas imprescindible para dicho proceso vital, el dióxido de carbono, permite a esas plantas verdes incorporar en su biomasa el carbono, expulsando como residuo indeseable al corrosivo oxígeno. Por eso resulta incomprensible el odio desarrollado en los últimos tiempos hacia este gas esencial, hasta el punto de ser tildado de «contaminante» y ser considerado como la fuente de todos los males climáticos futuros.

En estos tiempos de demonización del dióxido de carbono por su influencia en el efecto invernadero conviene recordar su papel de gas de la vida vegetal. Lo mismo que el vapor de agua del aire, la humedad, que constituye no sólo el origen, por condensación, del agua vital para todos los seres orgánicos sino que en su faceta gaseosa es el gas de efecto invernadero más potente. Las precipitaciones, la proximidad de lagos y ríos y, por supuesto, la cercanía al mar propician valores más elevados de la humedad, en líneas generales, que en el interior de los continentes. Aunque lo esencial no es tanto la cantidad absoluta de vapor de agua por unidad de volumen de aire que pueda haber, como el valor relativo de esa cantidad en función de la necesaria para que el aire se sature. En ese momento, el vapor de agua se condensa en gotitas de agua líquida.

Esta humedad relativa, que es como se denomina técnicamente, juega un papel esencial como factor de limitación para todos los seres vivos, y especialmente para las plantas, que dependen de ella para su mecanismo de evapotranspiración (tecnicismo que viene a representar la respiración celular de las plantas en cuanto al intercambio de agua y energía con el aire). Lo curioso es que la humedad relativa depende de la temperatura, y si el aire es muy caliente admite mucho más vapor de agua que si está frío.

En suma, por su inmovilidad, es obvio que los vegetales dependen muy directamente del suelo en el que están y del aire en el que viven. Del suelo obtienen nutrientes, siempre que éste tenga bastante agua para disolver dichos nutrientes y aportarla a la planta a través de sus raíces, y del aire el vital dióxido de carbono que les ayuda a incrementar su biomasa. Todo ello depende, a su vez, de las características atmosféricas: temperatura, precipitación, humedad, insolación, viento...

Incluso se da el caso de que determinadas concentraciones vegetales, por ejemplo los bosques, pueden originar en su seno condiciones especiales de tipo microclimático. Allí dentro, las condiciones pueden variar a su vez de forma notable según sea la iluminación, la humedad y otros factores, incluida la altitud o la orientación. Por ejemplo, en la inmensa selva virgen amazónica los árboles tienen pocas raíces porque el clima es muy propicio, y la fauna y la flora de los pisos inferiores, cerca del suelo donde nunca llega la luz solar, no tienen nada que ver con la que existe cerca de las copas de los árboles más altos.

A la vista de estas consideraciones muy generales, no extrañará a nadie que los seres humanos se hayan fijado desde hace muchísimo tiempo en las plantas con el fin de encontrar en ellas algunas respuestas a los interrogantes casi permanentes que plantea el tiempo atmosférico. Y si los animales pueden, en algún sentido y sólo parcialmente, depender de eso que llamamos instinto, en el caso de las plantas es obvio que sus reacciones se deben sólo a los aspectos físicos y químicos que les afectan, desde la temperatura hasta la insolación o la humedad...

¿Garantiza todo ello el éxito de las predicciones meteorológicas basadas en la observación de las plantas? Obviamente, no. Sin duda, como ocurre con los animales, algunas de esas recetas populares tienen visos de verosimilitud, siempre de forma muy aproximada. Pero la mayoría de esas conjeturas no pasan de simples creencias antiguas, incluso se basan en fantasías tan imaginativas como carentes del menor sentido.

2

Meteorología moderna

2.1. Llegan los instrumentos

2.1.1. El barómetro y la presión atmosférica

Ya hemos visto que existe una tendencia en los seres humanos a atribuir las veleidades de la temperie a fuerzas superiores y, en todo caso, inasequibles al conocimiento racional. Los dioses y sus caprichos, la gobernanza incontrolable de los astros, la misteriosa fuerza de la magia... Todo valía, y puede que aún sea así para muchas personas: prefieren creer lo que sea antes que encontrar a los sucesos atmosféricos alguna causa natural, comprensible, medible, incluso predecible.

Esto de la medida es quizá el primer concepto esencial del método científico: cuantificar magnitudes es el complemento inevitable de la observación y la experimentación cuando se buscan conclusiones racionales. Con todo ello es posible identificar algún tipo de regularidad natural, quizá relacionada con alguna ley de la naturaleza cuyo conocimiento permita establecer alguna forma de predicción. La finalidad última de todo ese proceso no es otra que el conocimiento de nuestro entorno, para satisfacción de nuestra curiosidad innata y, eventualmente, para obtener alguna ventaja de cara a la calidad y cantidad de vida de los seres humanos.

Galileo fue probablemente el primero en poner los cimientos de ese edificio conceptual que hoy llamamos método científico. La historia del barómetro y el termómetro, por ejemplo, resulta a ese respecto tremendamente ilustrativa; con ellos pudimos poner de manifiesto muchos conceptos y leyes de la física que ahora nos parecen evidentes. Son instrumentos hoy familiares, lo mismo que las magnitudes que miden, la temperatura y la presión atmosférica...

Veamos ante todo el medidor del peso del aire, o sea, el barómetro. Porque el aire pesa, por extraño que pueda resultar: está constituido por una mezcla de gases muy livianos pero, después de todo, con cierta masa. Por esa razón la atmósfera alcanza su máxima densidad junto a la superficie del planeta: el peso es la fuerza que ejerce la atracción gravitatoria de la Tierra sobre todas las masas que están sobre ella, incluido el aire. Cuando ese peso del aire se ejerce sobre una determinada superficie del suelo o de los mares, produce una presión, que es una fuerza por unidad de superficie. Esa presión atmosférica sabemos hoy que juega un papel esencial en meteorología; de ahí la importancia de saberla medir con precisión.

Los antiguos no pensaban que el aire tuviera peso alguno; al contrario, creían que era tan tenue que su tendencia natural era subir, no bajar. Y si los líquidos ascendían al bombear agua, por ejemplo, eso se explicaba por el hecho de que la naturaleza aborrece el vacío, tenía lo que los latinos llamaron horror vacui.

Mucho más tarde, ya en el siglo XVII los jardineros de Florencia se enfrentaban a un problema insoluble: elevar agua mediante una bomba de hélice hasta muy arriba. Se habían dado cuenta de que, por potente que fuera el mecanismo de la bomba, era imposible subir agua más allá de diez metros y pico. Galileo, consultado por los artistas, llegó a la conclusión de que era posible cuantificar el horror al vacío de la naturaleza, tan querido por los clásicos, mediante aquellos diez metros. Y bautizó aquella columna de 10,33 metros como altezza limitatissima, altura limitadísima.

Evangelista Torricelli (1608-1647), discípulo y amanuense de Galileo en los meses finales de la vida del maestro, se reunía frecuentemente con Vincenzo Viviani (1622-1703), Giovanni Alfonso Borelli (1608-1679) quienes luego formalizarían, con otros colegas, la Accademia del Cimento («Academia de Experimentos») en 1657, en línea con las recién creadas Academia del Arte del Diseño —a la que Torricelli perteneció, y cuyo puesto fue heredado por Viviani— y, sobre todo, la famosísima Accademia dei Lincei, «Academia de los Linces», fundada por Federico Cesi en 1603 y en la que había ingresado Galileo en 1611. Hoy la Academia Nacional de los Linces es un Consejo Científico Consultivo de la Presidencia de la República Italiana.

Torricelli pensó que para medir la presión del aire sería mejor buscar un líquido más denso que el agua; manejar columnas de más de diez metros no es nada sencillo. Su intuición era que aquellos diez metros y pico de agua podían medir el peso del aire... Se le ocurrió utilizar mercurio (hidrargirium, «agua de plata»); tomó un recipiente con el líquido metal, sumergió un tubo de vidrio de casi un metro de longitud y cerrado por un lado, y lo levantó sin sacar la boca del tubo del mercurio. Observó entonces que el mercurio no subía por todo el tubo de cristal sino que se detenía a unos 76 centímetros por encima de la base del mercurio libre en la vasija.

Torricelli sabía que el mercurio era 13,59 veces más denso que el agua. Si su idea era correcta, la altura del mercurio debía ser 13,59 veces más pequeña que la altura de la columna de agua, o sea... 76 centímetros. Torricelli pensaba que el aire debía tener, sobre el agua, el mercurio y todas las cosas, un mismo efecto que causara aquella rareza; ¿quizá el peso? Pero cuando realizó ese experimento estaba ya enfermo —murió a los treinta y nueve años de edad— y no le dio tiempo a explotarlo científicamente.

Curiosamente, el filósofo y matemático francés René Descartes (1596-1650) había escrito en 1631, doce años antes del experimento de Torricelli, lo siguiente: «el aire es pesado, se puede comparar con un inmenso manto de lana liviana que envuelve a la Tierra más allá de las nubes, y es el peso de esa lana el que comprime la superficie del mercurio de la cuba haciendo que ascienda la columna mercurial». No aportaba prueba alguna de eso que afirmaba, pero no deja de ser una coincidencia asombrosa.

Blaise Pascal (1623-1662) sí debió conocer el experimento de Torricelli y también lo que había escrito Descartes. En principio, no se oponía a la muy sugestiva idea del horror al vacío; pero era un experimentador nato. Y su mente inquieta le llevó a poner en duda aquello que se daba por supuesto, porque nadie había aportado la más mínima prueba ni argumento lógico alguno para explicar esa fobia natural al vacío. A Pascal lo que le importaba era averiguar si el experimento de Torricelli tenía o no que ver con el posible peso del aire y no con un fantasmal horror vacui. Ya lo había anticipado Descartes... Un peso que vendría medido por la columna de 76 centímetros de mercurio de Torricelli.

Para probarlo, subió hasta Chamonix, hoy reputada estación turística de invierno al pie del Mont Blanc, a algo más de mil metros de altitud. Y allí observó, es de suponer que con escasa sorpresa, que su columna de mercurio ya no alcanzaba los 76 centímetros sino que se quedaba casi diez centímetros más abajo. Cuando volvió a París declarando que el horror vacui aristotélico era una patraña, sus oponentes le tildaron poco menos que de hereje. Pero Pascal no era de los que se amilanaban; y en una famosa réplica declaró que «si la Naturaleza tiene horror al vacío, ¿por qué se lo tiene más en París que en Chamonix?».

Bastante más tarde aquel aparato de Torricelli y Pascal sería bautizado como barómetro, es decir, medidor de presión. Y la unidad en la que se dividía el tubo de vidrio fue el milímetro (de mercurio) denominado Torr en honor a Torricelli. Hoy es una unidad en desuso, aunque fue durante mucho tiempo de uso muy práctico debido a que los mejores barómetros eran, hasta fechas muy recientes, precisamente los de mercurio.

Merece la pena mencionar el famoso experimento de 1653, realizado por el alemán Otto von Guericke (1602-1686), porque aportó una prueba concluyente y espectacular de la importancia de esa presión que la atmósfera ejerce en todas las direcciones y no sólo en vertical, y de forma mucho más intensa de lo que pudiera parecer. Lo curioso es que Von Guericke era jurista de oficio y de formación, además de burgomaestre —hoy diríamos alcalde— de Magdeburgo, su ciudad natal. Pero era un gran aficionado a la física y la matemática. Al estudiar a Torricelli y Pascal, ideó un experimento a base de unir dos semiesferas metálicas de buen tamaño provistas de una válvula por la que se podía conectar una bomba de vacío con el fin de aspirar el aire interior. Suponía que, si en el interior de las dos esferas unidas había mucho menos aire que al aire libre, la presión de éste sería tal que no habría fuerza humana capaz de separar las dos semiesferas.

Y así lo hizo, planteando en 1654 un experimento de lo más teatral, al que invitó nada menos que a la Dieta Imperial de Ratisbona, con el emperador al frente. Unió dos semiesferas de bronce de medio metro de radio, cuidadosamente pulidas, y provistas de una válvula a la que podía acoplar su máquina de vacío, y aspiró el aire interior. Quedaron unidas de manera aparentemente firme; acopló entonces dos tiros de ocho caballos, uno a cada semiesfera, mediante argollas y cadenas, y los espoleó para que tiraran en sentido opuesto. La esfera se levantó, vibró, los caballos sudaron... Pero nada ocurrió, ante el enorme asombro de la concurrencia. Luego, Von Guericke abrió con gran ceremonia la válvula que dejaba entrar el aire en el interior, y las dos semiesferas se separaron por sí solas, cayendo al suelo cada una por su lado.

Una buena forma de conocer las variaciones de la presión minuto a minuto es registrar de algún modo dichas variaciones. Fue, sorprendentemente, un arquitecto británico del siglo XVII, sir Christopher Wren (1632-1723), quien ideó un barómetro registrador, o barógrafo. Hoy conocemos bien, gracias a los barómetros y los barógrafos, la variación y la distribución espacial de la presión atmosférica. Esos instrumentos aceleraron, sin duda, la llegada de la nueva ciencia meteorológica.

Aclaremos ahora el tema de las unidades. Mariano Medina había comenzado a popularizar en los españoles de a pie, hace ya medio siglo, las famosas líneas isobaras rotuladas en milibares; eran conceptos científicos nada comunes, que él supo divulgar mediante aquellas líneas que unían puntos geográficos de igual presión atmosférica.

Cuando los humanos intentamos racionalizar las unidades de medida —lo hemos conseguido sólo en parte, como lo prueba la absurda persistencia en el mundo anglosajón del grado Fahrenheit o la milla terrestre—, a casi todos los expertos les pareció de lo más fluido y sencillo el sistema métrico decimal, propiciado por la Revolución Francesa a finales del siglo XVIII y adoptado internacionalmente casi un siglo después por la Conferencia General de Pesos y Medidas de 1889. De allí salió el actual Sistema Internacional (SI), vigente en casi todos los países.

Por lo que se refiere a la presión, la industria había comenzado a utilizar ya en el siglo XIX la atmósfera técnica (AT), unidad que se definía como la presión de un kilogramo-fuerza, o kilopondio (de símbolo kgf), sobre una superficie de un centímetro cuadrado. Como un kilopondio es la fuerza de la gravedad sobre una masa de un kilogramomasa, en realidad equivale más o menos a 9,8 newtons. El newton (N) es la unidad «legal» —la del sistema SI— de fuerza; el kilopondio, por depender de la gravedad, que es una fuerza variable, resulta poco útil.

También en el siglo XIX se habían generalizado, sobre todo en los países de habla inglesa, otras unidades como la pulgada de mercurio o la libra por pulgada cuadrada. Esta última, de símbolo psi (pound per square inch), aún subsiste en el mundo anglosajón e incluso en los medidores de presión de los neumáticos de automóvil.

Pero todo eso es ya historia; hoy sólo se utiliza el pascal (Pa), que es la presión que ejerce una fuerza de un newton sobre una superficie de un metro cuadrado. Es una unidad pequeña, por lo que en meteorología se usa el hectopascal, hPa. Es lo mismo que un milibar, pero desde 1982 es la unidad de presión oficial.

En suma, la presión atmosférica normal es de 101.325 Pa, o bien 1.013,25 hPa. Las demás unidades que se puedan emplear son «ilegales», en estricto sentido científico (nadie irá a la cárcel por usar pulgadas o libras...). Los científicos usan las unidades del SI incluso en los países anglosajones, lo que supone un grave problema para los jóvenes estudiantes que llegan a la universidad al tener que adaptarse a un sistema que les es muy extraño; aunque todos reconocen luego que es mucho más racional. Porque en Estados Unidos siguen usando en la vida cotidiana las medidas antiguas; y aunque las cosas parecen ir cambiando —casi todos los automóviles nuevos ponen ya en el velocímetro las millas por hora y los kilómetros por hora, aunque éstos en guarismos de menor tamaño—, a lo que no renuncian es a sus bienamados y absurdos grados Fahrenheit.

2.1.2. El termómetro y la temperatura

Hoy resulta de lo más banal hablar de la temperatura que hace en la calle, por ejemplo. Las máximas y las mínimas se han convertido en datos anecdóticos pero usuales en la vida cotidiana. Incluso abundan los termómetros urbanos, en moderno formato digital, cuyo fin parece ser informar a los viandantes del calor o del frío que están soportando... De éstos no hay que fiarse: a pesar de mostrar los datos con cifras de gran tamaño, insertadas dentro de esos adornos más que discutibles llamados genéricamente mobiliario urbano, suelen ser más falsos que Judas debido a que su sensor térmico está mal situado y calibrado, por lo que la temperatura mostrada no puede ser más errónea.

En todo caso, y anécdotas al margen, es obvio que los termómetros forman parte de la vida cotidiana de los ciudadanos de hoy: termostatos en la cocina, termómetros médicos para medir la fiebre, aparatos para registrar el ambiente exterior e interior de una casa, y un largo etcétera donde puede que la propia medida del nivel térmico acabe perdiendo protagonismo frente al uso que le podemos dar al dato que nos proporciona. Lo curioso del caso es que los termómetros existen, como los barómetros, desde hace relativamente poco tiempo, apenas cuatro siglos.

En 1592, Galileo estableció por primera vez el principio en el que se basa la medida de la temperatura, gracias a la recién descubierta ley de la dilatación de los cuerpos por el calor. Por cierto, esa dilatación —conocida empíricamente desde la Antigüedad clásica— es cierta para casi todos los cuerpos, pero con una excepción de enorme trascendencia: el agua. Y por eso, por utilizar el más común de los líquidos, todos los ensayos habían sido más o menos infructuosos hasta el siglo XVI. Porque el agua, al calentarse desde cero hasta cuatro grados, no sólo no se dilata sino que incluso se contrae. Lo que falsea cualquier medida de la temperatura que se haga utilizando tan común líquido elemento.

Galileo suele ser reconocido históricamente como el primero que inventó y utilizó un instrumento para medir temperaturas por comparación. Su termoscopio, que perfeccionó en torno al año 1600, consistía en un tubito de vidrio terminado en una pequeña esfera también de vidrio. Dándole la vuelta, el tubo se sumergía en una mezcla de alcohol y agua (seguramente Galileo ya se había dado cuenta de que sólo con agua la cosa no iba muy bien), dejando la esfera en la parte superior. Al calentar con las manos la esfera, el agua en el tubo bajaba: el aire de la esfera se dilataba y empujaba el agua hacia abajo. Pero al calentarse el agua del recipiente, ésta ascendía por el tubo.

Quizá el sabio florentino se inspiró en el médico persa Avicena (Ibn Sena), cuyo Canon de medicina escrito en el siglo XI había sido traducido al latín en el siglo XV. Avicena describía un sistema parecido al de Galileo, con una pequeña ampolla para medir la fiebre. Pero no le puso a su termoscopio una escala. Quien al parecer sí lo hizo fue Sanctorius Sanctorius, o Santorio, un fisiólogo contemporáneo de Galileo que vivió en Padua. Se sabe que realizó en 1612 un aparato híbrido entre el sistema de Avicena y el de Galileo para utilizarlo casi exclusivamente en experimentos sobre la salud humana, especialmente para medir la fiebre, que era su campo de estudio. Se dice por eso que Santorio fue el inventor del primer termómetro clínico (también inventó, por cierto, el pulsilogium, un primitivo sistema mecánico para medir el pulso).

Un curioso artilugio que surge hacia 1650 —aunque la idea y quizá el diseño se le atribuyen a Galileo— para medir la temperatura ambiente consiste en un tubo de vidrio cilíndrico, largo y estrecho, lleno de agua y en el que se sumergen diversas ampollitas de vidrio con cantidades diversas de agua y aire. El sistema se dispone de tal modo que las esferas flotan cada una de ellas a una determinada temperatura, generalmente próxima a la más confortable —en torno a los 18-28 grados—. Si la temperatura va subiendo, las sucesivas ampollas van hundiéndose gradualmente, según su diferente densidad relativa, hasta que a una temperatura suficientemente alta todas las ampollas están en el fondo. Por el contrario, a una determinada temperatura muy baja, todas las ampollas flotan.

Se trata de un termómetro que hoy se vende en la tiendas de curiosidades, en los museos de ciencia e incluso en ciertos comercios más bien lujosos; no es muy preciso pero, sobre todo si el tamaño es lo bastante grande, resulta muy vistoso y adorna salones y despachos... Se comercializa como «termómetro de Galileo», faltaría más.

Al parecer, el primero que utilizó el mercurio fue Daniel Gabriel Fahrenheit (1686-1736), un físico holandés de origen polaco. Fue en 1716; la ventaja de aquel termómetro era que utilizaba un tubito de vidrio muy fino en el que era posible apreciar con mayor precisión pequeños cambios de temperatura; además, el uso del mercurio, cuya dilatación es muy sensible a los cambios de temperatura, mejoraba notablemente esa precisión de las medidas. Más tarde, en 1724, Fahrenheit propuso el uso de una escala termométrica que tuvo bastante más éxito que las anteriormente utilizadas, que eran de lo más pintoresco. Por ejemplo, a finales del siglo XVII los franceses llegaron a proponer como cero la temperatura de una persona sana, más tarde la de los sótanos del Observatorio de París, hubo quien propuso el punto de fusión de la mantequilla...

Fahrenheit también propuso valores que hoy nos parecen arbitrarios, pero que al menos parecían muy racionales en su época: el 0 era la temperatura de cierta mezcla de hielo, sal y agua, la temperatura más baja que entonces se sabía obtener, y el 100 la temperatura normal del cuerpo humano. La mezcla de agua y hielo sin sal resultó ser el 32 de dicha escala, y el agua hirviendo el 212.

Hoy está en desuso y sólo se sigue utilizando en Estados Unidos y en otros dos países, Liberia en África, y Myanmar en Asia. ¿Por qué? En realidad, los puntos fijos elegidos tienen una considerable carga de arbitrariedad: el cero Fahrenheit —una mezcla de agua salada y hielo salado— pudo ser rebajado enseguida, incluso en vida del propio Fahrenheit. No era, pues, un punto fijo sino que dependía de la tecnología de cada momento histórico. En cuanto al cien, la temperatura del cuerpo humano, en realidad no es un dato fijo: nuestra temperatura corporal, aun estando sanos, es muy variable, y cambia incluso a lo largo del día. Hoy la temperatura media del cuerpo humano no es 100 ºF sino 98,6...

Es mucho más correcto el sistema que propuso poco antes de morirse el físico sueco Anders Celsius (1701-1744) para solucionar esos inconvenientes. Al escoger el punto de fusión del hielo y el de ebullición del agua como puntos cero y cien de su escala, Celsius definía dos hitos físicos que, a presión atmosférica normal —al borde del mar—, no cambian nunca. Dividió luego el intervalo en cien unidades, cada una de ellas llamadas por aquel entonces grado centígrado. Y así en 1948 se adoptó el nombre de grado Celsius, ya que la escala Kelvin que luego veremos también es centígrada. El símbolo es ºC.

Un brillante físico metalúrgico francés, René-Antoine de Réaumur (1683-1757), que llegó a ser académico de Ciencias a los 25 años de edad, llegó a fabricar un termómetro de alcohol en 1731, con una escala similar a la que unos años después propondría Celsius, en cuanto a los puntos fijos, pero dividida en sólo 80 partes. No es una división arbitraria sino que guardaba directa correspondencia con el coeficiente de dilatación térmica del alcohol, que es de 0,0008. Cada grado, para Réaumur, debía equivaler a una milésima parte del aumento de volumen del alcohol; en esa escala, el agua hervía a 80 grados; de ahí, la extraña escala de 0 a 80. Cierto chauvinismo francés, que a nadie asombrará, hizo que tan inusual forma de medir temperaturas —hoy relegada al olvido— coexistiera durante años con la de Celsius, muy práctica por ser decimal.

De hecho, la escala centígrada no sólo tardó mucho en llegar a Francia, por los grados Réaumur, sino que aún tardaría más en llegar a los países sajones, por los grados Fahrenheit. Dicho sea de paso, la industria pastelera francesa aún utiliza los grados Réaumur para medir la temperatura del caramelo fundido o los almíbares. Y en Estados Unidos reina indiscutiblemente el grado Fahrenheit. En todas partes cuecen habas...

Pensando en los viajeros que van a Estados Unidos o si alguien lee periódicos americanos en Internet, quizá sea útil recordar la siguiente equivalencia, donde F es la temperatura Fahrenheit y C la Celsius:

0 C = 32 F ; por otra parte, 100 C = 212 F . Como 212 – 32 = 180, la fórmula para calcular la una en función de la otra es sencilla: F – 32 = 180/100 C (es decir, 9/5 C).

De todos modos, las necesidades de la física moderna han exigido la presencia, al menos en el mundo de la ciencia, de una nueva escala de temperaturas absolutas, sin valores negativos, que se basa en un cero absoluto, la temperatura más baja posible... pero inalcanzable. En ese punto la materia estaría completamente inmóvil, con energía interna cero y sus partículas elementales quietas; lo que es imposible.

Esta escala que nace en el cero absoluto la propuso William Thomson, nombrado luego lord Kelvin (1824-1907), a mediados del siglo XIX. El punto cero de la escala Kelvin equivale a –273,15 ºC. Lo correcto es designar los grados de la escala absoluta como kelvins, y su símbolo es la K mayúscula, sin el signo º de los grados. Podemos, pues, decir que 0 K = –273,15 ºC. El agua hierve a 373,15 K.

Debido a que el cero absoluto es inalcanzable, los físicos han debido buscar otros puntos fijos más fiables. Por ejemplo, el punto triple del agua (cuando coexisten agua líquida, hielo y vapor de agua), que se produce a 0,01 ºC (273,16 K) y con una presión muy baja, sólo 6,12 hPa (la presión atmosférica normal es de 1.013 hPa).

2.1.3. Medir otras magnitudes

2.1.3.1. Humedad

A veces, en períodos de lluvia persistente, las puertas y ventanas se niegan a cerrar correctamente porque la humedad ha hinchado la madera. De hecho, esto de la humedad es de lo más familiar, sabemos intuitivamente lo que es, y la sufrimos sobre todo en épocas frías y lluviosas. Su manifestación visual más expresiva es la saturación del vapor de agua, cuando el vapor (que es un gas invisible) se convierte en agua líquida depositada en forma de gotitas sobre los objetos: el vaho sobre el vidrio, las gotitas de rocío al amanecer, el «humo» que sale de la boca al espirar cuando hace frío, la mismísima niebla, la taza humeante de café caliente...

En realidad, las nubes son exactamente eso: una visualización de las gotitas de un agua líquida que antes estaba en el aire como gas vapor de agua invisible. Las nubes están formadas por gotitas de agua, no por vapor; lo mismo que la niebla.

Desde el punto de vista científico, en cambio, la humedad no es tan sencilla de manejar aunque resulta a veces de crucial importancia para comprender numerosos procesos atmosféricos relacionados, sobre todo, con la temperatura y la precipitación. De hecho, a escala de toda la atmósfera existen aún muchas incógnitas en torno a la transformación del vapor de agua, el más importante de los gases invernadero, en agua líquida, y viceversa. Una transformación que no sólo afecta a la cuantía del vapor existente en el aire, y por tanto a su incidencia en el efecto invernadero, sino sobre todo al balance energético de la atmósfera, debido a los intercambios de calor que entrañan esos cambios de fase entre líquido y vapor.

El aire es una mezcla de gases, con predominio casi absoluto del nitrógeno, un 77 por 100 del total, y el oxígeno, un 22 por 100. El resto incluye ante todo al argón, un gas noble y, por tanto, inerte, con casi todo el 1 por 100 restante, y luego muchos otros gases en cantidades muy reducidas. Entre ellos cabe citar el dióxido de carbono (en estos momentos en torno al 0,04 por 100 del total del aire) y el vapor de agua (en cantidad muy variable que va desde prácticamente cero en los desiertos hasta 3 o 4 por 100 en atmósferas saturantes de los climas ecuatoriales).

De este sencillo enunciado ya puede deducirse una propiedad atmosférica sumamente curiosa, pero que complica mucho el estudio de la humedad: el aire puede tener muchísimo vapor de agua..., o casi nada. Y eso depende de dos factores: la temperatura, por una parte, y por otra el aporte de agua evaporada —por proximidad al mar o zonas húmedas, o por lluvias frecuentes—. Una misma cantidad de vapor de agua, medido en gramos por metro cúbico de aire, puede corresponder a una atmósfera muy húmeda si hace frío, o por el contrario a un aire muy seco si hace calor.

El proceso más interesante es el cambio de temperatura rápido de una misma cantidad de vapor de agua. Por ejemplo, al enfriarse el aire muy deprisa. En ese proceso llega un momento en que el vapor de agua alcanza su máximo (es como si el aire ya no pudiera contener más vapor del que hay) y entonces «se satura»; es decir, comienza a transformar el vapor sobrante en agua líquida. Esa temperatura para la que el aire se hace saturante se denomina punto de rocío.

Inversamente, si un aire con una determinada cantidad de vapor de agua se va calentando, se irá haciendo cada vez más seco aunque la cantidad absoluta de su vapor de agua no cambie. Por eso el aire caliente puede albergar más vapor de agua que el aire frío; y así es como «seca» las cosas mojadas: puede evaporar su contenido en agua.

En ambos procesos la humedad «relativa» del aire aumenta o disminuye, aunque la humedad «absoluta» (o sea, la cantidad total de vapor que contiene) no cambie. Cuando la humedad relativa alcanza el punto de rocío, su índice es de 100 por 100. No hay que olvidar que la humedad relativa es el cociente, en porcentaje, entre el contenido de vapor de agua en el aire a una cierta temperatura y el máximo contenido en vapor de agua de ese mismo aire a esa misma temperatura. En el punto de rocío ambas magnitudes son obviamente iguales y, por tanto, el cociente es 1; en porcentaje, 100 por 100.

Suena complicado, pero aún lo es más si decimos que en todos los cambios de fase —evaporación, condensación...— hay intercambios de calor entre el aire, el vapor o el agua, y los objetos en los que esta última pudiera depositarse (puede ser el aire mismo, si el proceso ocurre en el aire). Son cuestiones que a escala de toda la atmósfera adquieren una complejidad termodinámica difícil de incluir en los modelos matemáticos del clima. De hecho, es una asignatura pendiente, a pesar de que resulta crucial para comprender la dinámica de las nubes, la niebla, las precipitaciones... La humedad está en el corazón mismo de los más complejos mecanismos meteorológicos.

Por cierto, todo lo dicho para los cambios de fase líquido-gas y viceversa vale también para los cambios de fase entre líquido y sólido (agua a hielo) y a la inversa, y para el cambio gas-sólido (vapor a hielo) y viceversa; este proceso se llama sublimación.

Pero ¿cómo poner de manifiesto la humedad relativa? ¿Cómo podríamos medirla numéricamente? Antes decíamos que las puertas o ventanas de madera se hinchan con la humedad. Pero es difícil utilizar ese fenómeno como medidor mínimamente preciso. Pero hay más sustancias que se hinchan, se alargan o se acortan en función del grado de humedad del aire. La mayoría de las fibras vegetales o animales, por ejemplo.

Ya en el siglo XV, un famoso filósofo alemán, el cardenal Nicolás de Cusa (1401-1464), intentó utilizar fibras de lana para determinar la humedad del aire. Resulta curioso que un filósofo se dedicara a semejantes menesteres, pero no es tan raro si se considera que fue él quien inventó, en 1459, las lentes cóncavas para corregir la miopía. Los cardenales de aquella época debían servir para muchas cosas...

En el siglo XVIII, el médico francés Charles Le Roy (1726-1779) definió el concepto de punto de rocío, algo que le interesaba muy especialmente en relación con ciertas enfermedades pulmonares, como la tisis, que parecían requerir un aire seco y frío mejor que húmedo y cálido. Pero sería luego Horacio Benedicto de Saussure (1740-1799), un aristócrata suizo aficionado a la geología y el montañismo —se le considera el padre del alpinismo moderno—, quien utilizara en un pequeño aparato de su invención cabello humano femenino para detectar con cierta precisión las variaciones de humedad. Que se sepa ése fue el primer medidor de humedad relativa, o higrómetro, de la historia de la meteorología. Es sabido que el pelo se riza con la humedad y, por tanto, se alarga; ocurre con casi todos los pelos animales, pero no todos lo hacen proporcionalmente. Es curioso que sea precisamente el cabello de mujer joven, rubia por añadidura, el que mejor responda a ese respecto.

Con todo, aunque los higrómetros de cabello siguen utilizándose —hoy el cabello femenino rubio ha sido reemplazado por otros materiales artificiales, como la fibra plástica durotherm—, el instrumento científico por excelencia es el denominado psicrómetro. Es cierto que se trata de un medidor indirecto, puesto que compara la temperatura de un termómetro normal con la que mide un segundo termómetro idéntico y situado al lado suyo, cuyo bulbo de mercurio se halla rodeado de una mecha permanentemente mojada.

La diferencia de temperatura entre ambos se puede medir de forma precisa, y es obviamente proporcional a la humedad relativa; luego se acude a unas sencillas tablas numéricas, obtenidas al calibrar el instrumento, y se lee directamente la humedad. Lo normal es que el conjunto se sitúe en una leve corriente de aire forzado, para que el termómetro mojado mida realmente la temperatura del punto de rocío, al quedar garantizada la evaporación del agua en torno al bulbo. El instrumento en ese caso se llama aspiropsicrómetro.

Por cierto, envolver una botella de bebida en un trapo mojado es una buena forma de refrescarla ya que el agua del paño necesita para evaporarse cierta cantidad de calor que sólo puede sustraer de la botella (se llama calor latente de vaporización, más adelante lo veremos); el resultado es que la botella se enfría, refrescando igualmente su contenido. El mismo principio que hace que el termómetro mojado registre menos temperatura que el seco, y tanta menos cuanto más seco esté el aire, es también el que ayuda a que el botijo enfríe su contenido. Cuando se coloca al aire libre —y si hay algo de viento, mejor—, por los poros del barro se evapora algo de agua, robándole calor al botijo y, por tanto, refrescando su contenido.

Cualquiera sabe si los inventores del psicrómetro —nombre de origen griego, utilizado por primera vez en 1825 por el químico-físico alemán Ernst Ferdinand August (1794-1870)— y del aspiropsicrómetro —fue, en 1892, el médico y meteorólogo también alemán Richard Assmann (1845-1918)— no llegaron a ello sencillamente al preguntarse el porqué del enfriamiento del agua en los botijos. Claro que, bien pensado, no es muy probable que en Alemania hubiera botijos por aquella época...

2.1.3.2. Precipitación

Medir el agua caída después de un chaparrón o una lluvia más constante debió ser, sin duda, una de las actividades más importantes para las civilizaciones antiguas. No en vano los mundos mesopotámico y egipcio, sin contacto entre ellos pero con climas parecidos, compartían una característica esencial: llovía poco, pero disponían de ríos caudalosos y de curso extenso. Medir la lluvia caída podía resultar esencial para poder prever las necesidades de agua almacenada para beber o para el riego de los cultivos.

Por eso, ya desde algunos milenios antes de Cristo, las primitivas ciudades de ambas regiones dispusieron de sistemas rudimentarios de regadío, con recipientes para recoger el agua de beber y embalses para almacenar lo que luego podía ser distribuido a través de canales a los agricultores. Parece lógico pensar que disponían, con ese fin, de alguna forma rudimentaria de medida de la lluvia caída, con el fin de diseñar y dimensionar esos sistemas de recogida y posterior reparto de agua.

En Jericó se ha localizado un aljibe de hace 8.000 años en el que, cuando llovía, se podía comprobar el nivel que alcanzaba el agua. No sabrían exactamente cuánta había caído, pero sí conocían a la perfección el uso —ahorrador, o no tanto— que se le podría dar al agua según el volumen de la precipitación acumulada.

Bastante más tarde, en la época de los sumerios —hace algo más de 5.000 años—, ya tenían los mesopotámicos una notable red de canales y diques, éstos para controlar los excesos de lluvias en caso de tormentas intensas. Se supone que tendrían alguna forma, por básica que fuera, de controlar las cantidades que caían para prevenir la capacidad máxima de los embalses. De hecho, se sabe que dominaban los conceptos matemáticos de área y volumen, e incluso disponían de un sistema básico de pesos y monedas, así como de elementos de medida para otras magnitudes, entre ellas el volumen y el caudal de los líquidos. Los historiadores piensan, aunque no ha quedado vestigio alguno que lo confirme, que medían la lluvia mediante un recipiente grande para recoger el agua, y otro menor que expresaba la unidad de volumen.

En Egipto, ya disponían hace 6.000 años de tarros para ungüentos, lo que significa que debían utilizar alguna medida para el volumen de los líquidos y los sólidos pulverizados que mezclaban en aquellas pociones. En China, hace 5.000 años construían recipientes para trasvasar líquidos, y dominaban también las cuentas y los volúmenes. También en la India por esa misma época disponían de recipientes de tamaños diversos, y las casas disponían de aseos e incluso cloacas. Y en América, los incas tenían hace 4.000 años ciudades para varios centenares de habitantes, con canales para regadío agrícola y canalizaciones en las zonas bajas para las aguas residuales.

Los jardines colgantes de Babilonia, en la época de Nabucodonosor II el Grande (630-562 a.C.), son la mejor prueba del dominio, que sin duda era muy anterior, de aquellas civilizaciones mesopotámicas sobre el agua y la hidrología. Sería muy extraño que no dispusiesen de algún tipo de sistema de medida para la lluvia... Los griegos, por esa época, ya conocían bien el ciclo del agua. Y dos siglos más tarde, Arquímedes estudió a fondo la hidrostática y descubrió la equivalencia entre los volúmenes del cilindro y la esfera, amén de otros avances en la integración para calcular áreas y volúmenes. ¿Dispondría de algún medidor de lluvia, aunque no haya quedado referencia alguna de ello?

Que en todas estas remotas civilizaciones hubo medidores de lluvia es algo más que probable; después de todo, sólo se trata de obtener un sistema de recogida a base de recipientes con un volumen conocido en función de las unidades del momento.

Mucho después, en plena dominación árabe de la península Ibérica, en numerosos patios se almacenaban el agua y otros líquidos, recogidos en tinajas y aljibes. Algunos de estos recipientes estaban estratégicamente situados para captar el agua de lluvia; a veces, incluso todo el patio servía para tal fin: de hecho, se construían con cierta inclinación que llevara esas aguas pluviales hacia un orificio bajo el cual existía un recipiente para su almacenamiento. Es obvio, pues, que las unidades de medida del agua debían estar previamente fijadas, lo que debía llevar a un conocimiento bastante real de lo que había llovido, a poco que alguno un poco más reflexivo se pusiera a ello.

Uno o dos siglos más tarde se inician los viajes al Extremo Oriente, de donde los expedicionarios se traen nuevas técnicas, entre ellas las de utilización de los recursos hidráulicos, aunque no hay constancia de que aportaran sistemas concretos y precisos de medición de la lluvia. Pero ya en el siglo XV, al inicio de la Edad Moderna, comienzan a aparecer los primeros pluviómetros, basados en ideas traídas del Lejano Oriente; de hecho se atribuye el invento del primer pluviómetro documentado a un rey coreano, Se Jong (1394-1450) quien, con su hijo y sucesor Mun Jong, construyó y utilizó en todo su reino ese aparato a partir de 1440.

Vino luego el tiempo de Galileo y sus discípulos, ya en el siglo XVII; a finales de ese siglo Robert Hooke (1635-1703), físico y fecundo inventor británico, desarrolló el primer pluviógrafo. Por esas mismas fechas, el arquitecto Christopher Wren, que ya hemos citado por su invento del barógrafo, perfeccionó el pluviómetro de vasos, que es el que se utiliza desde entonces con algunos perfeccionamientos posteriores.

Las primeras series de datos de lluvia se comenzaron a registrar en 1697, en el Observatorio Kew, cerca de Londres, hoy Reales Jardines Botánicos de Kew. En España los primeros registros de lluvia son los del Real Observatorio e Instituto de la Marina de San Fernando, cerca de Cádiz; fue fundado en 1753 por el famoso marino y matemático Jorge Juan (1713-1773), y los primeros datos registrados son de muy poco después de su fundación. Por esa época, en la segunda mitad del siglo XVIII, ya existían en toda Europa una treintena de observatorios con registros oficiales de datos de lluvia.

Mención especial merece, ya en el siglo XX, el pluviógrafo de intensidades de Ramón Jardí (1881-1972), catedrático de ingeniería y apasionado meteorólogo; el aparato no sólo medía la lluvia total caída sino su intensidad en función del tiempo. Este aparato es utilizado hoy en casi todo el mundo.

2.1.3.3. Viento

Cuando se mueve el aire, lo que más interesa son sus dos características básicas: la dirección y la intensidad. Es decir, su procedencia y rumbo, por una parte, y su velocidad de desplazamiento, por otra.

Medir todo ello con precisión nunca fue fácil, aunque para hacerlo de forma aproximada nos pueden ayudar muchas de las cosas que nos rodean, que pueden ser utilizadas como indicios fiables. Y es que el viento es invisible, pero en cambio sí son visibles, y mucho, sus efectos sobre el humo, las hojas caídas, las plantas y arbustos, las nubes, los árboles y muchos otros objetos que visualizan el aire en movimiento. Incluso podemos utilizar un dedo mojado con nuestra propia saliva: puesto al viento, indicará de dónde sopla allí donde más se enfríe el dedo (la evaporación se acelera precisamente en la zona del dedo que mira hacia donde sopla el viento).

Ya vimos que los griegos hicieron de los vientos nada menos que unos dioses, eso sí, la mayoría bastante malvados. Pero la primera descripción aceptablemente científica del viento fue quizá la de Torricelli. Dejó escrito en 1642: «los vientos son producidos por diferencias de la temperatura del aire y, por tanto, de la densidad del mismo, entre dos regiones de la Tierra». A mí, de niño me decían que «el viento es aire en movimiento»...

La meteorología se interesa por el viento horizontal, el más fácilmente perceptible por nuestros sentidos, pero también por el viento vertical, que produce esas ascendencias que, generalmente en espiral, nos muestran las aves planeadoras, como las rapaces, cuando se dejan llevar en grandes círculos por el aire que sube. Un viento ascendente prolongado y suficientemente intenso provoca la condensación del aire que sube, lo que da lugar a las nubes. Éstas son la mejor prueba de la existencia del viento vertical. Y si el ascenso se prolonga durante varios kilómetros, la nube puede adquirir un importante crecimiento, alcanzando el tamaño de los cúmulos y, su máximo desarrollo, de los cumulonimbos tormentosos.

En todo caso, lo más habitual es dejarle al viento su acepción horizontal; el viento vertical suele ser denominado de una forma más técnica, por ejemplo corriente convectiva.

Por convención, la ciencia llama dirección del viento al punto desde donde parece soplar. No es, pues, el punto hacia donde va el viento, sino de donde viene. Y esto seguramente viene de la muy antigua navegación a vela, arte para el cual resulta trascendental no tanto hacia dónde va el viento sino, sobre todo, desde dónde sopla y, por tanto, desde dónde puede empujarnos. Desde muy antiguo se ha venido utilizando para determinar esos rumbos la famosa Rosa de los Vientos, que incluye a los cuatro puntos cardinales, y a diversos rumbos intermedios, subdivididos dos a dos. Los modernos anemómetros ofrecen una indicación precisa de los grados, de 0º (Norte) a 360º (otra vez Norte), pasando por 90º (Este), 180º (Sur) y 270º (Oeste).

Pero ¿cómo saber de dónde procede el aire que se mueve? Es probable que el primer instrumento para observar el viento fuera algún tipo de veleta rudimentaria: basta colgar un objeto plano y no muy pesado —un jirón de tela, incluso una tablilla ligera— de un lugar en torno al cual pueda moverse a impulsos del aire cuando éste se mueve. Conocer la dirección e incluso, muy aproximadamente, la velocidad es relativamente fácil de estimar con sistemas así.

En la navegación a vela, la importancia del viento fue trascendental, al menos hasta la llegada de las máquinas de vapor y los modernos motores. De ahí la necesidad de conocer, de la mejor forma posible, su intensidad y la dirección desde donde sopla. Los discípulos de Galileo, especialmente Viviani, ya habían ideado en la segunda mitad del siglo XVII, algún tipo de registrador de la dirección del viento, en forma de reloj con una sola aguja. Pero el primer anemómetro que mostraba la velocidad del viento se atribuye al científico británico conocido por su ley de los cuerpos elásticos y por inventar el pluviógrafo, como ya hemos visto: Robert Hooke, en la segunda mitad del siglo XVII.

Aquellos instrumentos fueron luego mejorados con aportaciones mecánicas, y muy recientemente electrónicas, que los hicieron cada vez más precisos y versátiles. Y así, a finales del siglo XVIII se podían efectuar medidas comparables en diversos lugares de Europa mediante aparatos idénticos, o muy similares; hoy diríamos normalizados. Los aparatos más modernos transforman en la actualidad la intensidad y la dirección del viento en datos digitales, de registro continuo. Estos anemocinemógrafos electrónicos tienen ya poco que ver con los primeros aparatos de hace poco más de tres siglos, pero se fundamentan en el ingenio de aquellas mentes ingeniosas que aportaron los primeros instrumentos fiables de la historia.

Una tercera magnitud que se mide desde finales del siglo XIX, además de la velocidad y el rumbo, es el recorrido diario del viento. Cuando las tres cazoletas semiesféricas de un anemómetro giran en torno a su eje vertical, un registrador mecánico (hoy electrónico) cuenta el número de vueltas que da por unidad de tiempo. Considerando el radio de giro es fácil transformar ese número de vueltas en una distancia medida en metros. Obviamente, si gira muy deprisa dará muchas más vueltas que cuando hay poco viento; el viento habrá tenido un mayor recorrido... Por eso la suma total, en kilómetros por día, es lo que se llama recorrido diario del viento, que equivale, en cierto modo, al viaje que haría una pequeñísima porción de aire desplazada por el viento a lo largo de esas 24 horas. Claro que es un viaje teórico, porque el viento no siempre sopla, y menos a lo largo de un día, y ni siquiera en la misma dirección todo el rato; no importa, el recorrido no entiende de rumbos. Sólo aprecia los kilómetros totales de viaje aéreo, en cualquier dirección.

De estas medidas del recorrido del viento en un día se puede deducir cuál ha sido la velocidad media del viento (dividiendo por 24, obviamente); otro dato teórico, que sólo sería real si durante toda esa hora el viento hubiese soplado en la misma dirección. Sin embargo, proporciona un dato climatológico de singular importancia, por ejemplo a la hora de instalar aerogeneradores para producción eléctrica.

Mención especial merece la escala Beaufort para estimar la fuerza del viento sin aparatos, por la mera observación de lo que ocurría en la mar. La escala fue creada por el almirante irlandés sir Francis Beaufort, que era un gran científico, además de oficial naval. Puso a punto su famosa escala de 12 niveles de intensidad de viento a comienzos del siglo XIX; iba desde el 1, ventolina, hasta el 12, temporal huracanado.

La escala Beaufort es casi una reliquia del pasado, pero aún se sigue usando, de forma más romántica que otra cosa, en la navegación de recreo. En el caso de los ciclones tropicales se amplió esta escala, en 1969, hasta el grado 16. Esa escala ampliada, del 12 al 16, o del 1 al 5 si se consideran sólo los ciclones tropicales, se llama Saffir-Simpson, en honor de los dos científicos norteamericanos que la idearon e impulsaron, el ingeniero Herbert Saffir y el meteorólogo Robert Simpson, este último director del Centro Nacional de Ciclones Tropicales de Florida en la segunda mitad del siglo XX.

Por ejemplo, el grado 1 Saffir-Simpson se confunde con el grado 12 Beaufort (vientos sostenidos durante al menos un minuto de 64 a 82 nudos). El grado 2 supone vientos de 83 a 95 nudos; el 3, de 96 a 113; el 4, de 114 a 135; y el 5, más de 135 nudos (o sea, más de 250 km/h).

Por cierto, quizá resulte chocante que estemos utilizando como unidad de velocidad de viento el nudo, sobre todo después de lo que hemos escrito en páginas anteriores acerca de las unidades «legales» (lo legal, en ciencia, carece de sentido jurídico alguno, sólo es una legalidad puramente racional, como debe serlo la actividad científica). Pero con los nudos puede hacerse una excepción; quizá no sea una unidad legal, pero tiene una justificación racional bastante sólida. Y eso, aun sabiendo que el sistema decimal tiene ventajas indudables, especialmente para el cálculo de múltiplos y submúltiplos, y que el sistema métrico —hoy Sistema Internacional, SI— se basa asimismo en unidades fijas e independientes que se multiplican y dividen decimalmente.

El nudo equivale a una velocidad de una milla náutica por hora. Si la absurda milla terrestre usada todavía en Estados Unidos equivale, vaya usted a saber por qué, a 1,609344 kilómetros, en cambio la milla náutica es la longitud de un arco de meridiano de un minuto. Hay 60 minutos en un grado, y 90 grados en un cuarto de meridiano; o sea, 5.400 minutos. Toda la circunferencia terrestre en cualquier meridiano mide, pues, 21.600 millas náuticas, o 40.000 kilómetros. Eso significa que una milla náutica equivale a 1,85185 kilómetros; redondeando, 1,85 km. O sea que un nudo es 1,85 km/h.

2.1.3.4. Radiación solar

El avance de la ciencia ha permitido ir disponiendo de instrumentos cada vez más sofisticados para medir otras magnitudes físicas, e incluso químicas, de la atmósfera. Por ejemplo, la radiación solar. De hecho, toda la energía que se intercambia en el planeta entre las tierras, los mares y la atmósfera procede de la energía que recibimos del Sol. Incluso la famosa energía fósil del carbón y los hidrocarburos —hoy tan denostados por causa del cambio climático— no es más que energía solar condensada bajo tierra desde hace muchos millones de años. Tan sólo la energía telúrica procedente del centro del planeta escapa a la regla, aunque bien mirado también es energía solar puesto que se trata de un rescoldo, de hace 4.500 millones de años, de los primeros tiempos del Sistema Solar.

Medir la radiación solar resulta, pues, más que trascendental; todo lo que ocurre en la atmósfera y en los demás sistemas relacionados con la vida en la Tierra se debe a la energía que nos llega del exterior, a través de complejísimos mecanismos que sólo conocemos en parte.

La primera forma de medida de la radiación solar que se le ocurrió a los humanos fue, y sigue siendo, tan sencilla como contar el número de horas que lucía el Sol cada día. Es una magnitud bastante aproximada e imprecisa, pero al menos sirve para comparar el tiempo que suele hacer en unas u otras regiones. Por ceñirnos sólo a España, el número medio de horas de Sol al año en Vizcaya fue, durante el treintenio 1961-1990, de apenas 1.600 horas, mientras que en las costas de Almería y del golfo de Cádiz se registraron más de 3.000 horas, prácticamente el doble.

Los rayos solares que llegan hasta nosotros traspasan la atmósfera y afectan de forma directa a la superficie del planeta; ésa es la radiación solar directa. Pero si hay nubes, tenues o no, o bien polvo y cualquier otro tipo de impurezas, entonces los rayos solares atraviesan esos obstáculos pero, al hacerlo, pierden parte de su energía y llegan de forma atenuada, y a veces indirecta, hasta el suelo. Es la radiación solar difusa. La suma de ambos tipos proporciona la radiación solar global, que suelen medir modernos aparatos llamados actinógrafos.

En realidad, la radiación solar se compone de muchas cosas diferentes; por una parte, energía pura en forma de radiaciones electromagnéticas de diversas frecuencias, incluyendo obviamente la luz visible. Pero, además, partículas elementales diversas, con y sin carga eléctrica, que forman el llamado viento solar. De hecho, la superficie del Sol está a una temperatura media de 5.780 K, algo más de 5.500 ºC. La radiación electromagnética que emite un cuerpo a esa temperatura va desde el infrarrojo (calor) al ultravioleta penetrante, incluyendo todo el espectro visible.

Por decirlo con más precisión, el 99 por 100 de la radiación electromagnética emitida está entre 150 y 4.000 nm (un nanómetro es la milmillonésima parte de un metro, o una millonésima de milímetro) de longitud de onda. Para hacernos una idea, recordemos que la luz visible está aproximadamente entre 400 y 740 nm. A menor longitud de onda (de 400 a 200 nm) están ya los ultravioleta menos penetrantes, y por debajo de 200 los más penetrantes (por fortuna para los seres vivos, éstos son absorbidos casi totalmente por la capa de ozono de la alta atmósfera). A mayor longitud de onda de la luz visible, por encima de 740 y hasta 2.500 nm están los infrarrojos cercanos a la luz visible, y por encima de los 2.500 nm están los infrarrojos medios. Los infrarrojos se llaman, de forma mucho más común, calor. O sea que el Sol emite, básicamente, ultravioletas, luz visible y calor. Por supuesto, ya lo hemos dicho, también emite viento solar en forma de partículas muy energéticas.

De todos modos, la radiación que nos llega es una ínfima cantidad de lo que emite el Sol. Por una parte, la Tierra está muy lejos, a unos 150 millones de kilómetros del Sol, y por otra su tamaño es minúsculo comparado con el de la estrella. Por buscar una comparación con el mundo de nuestras dimensiones, si el Sol fuese un balón de fútbol, la Tierra sería una cabeza de alfiler situada a algo más de 30 metros de distancia.

Aun así, esa minúscula cantidad de radiación que nos llega del Sol es suficiente como para calentarnos, darnos luz y conseguir que en el planeta haya vida. La medimos en vatios por metro cuadrado.

Pero no llega lo mismo a la zona exterior de la atmósfera que al suelo, porque el aire filtra prácticamente todas las radiaciones de longitud de onda inferiores a 290 nm (o sea, toda la radiación ultravioleta), pero también impide el paso de buena parte del calor (sobre todo los infrarrojos de longitud de onda superior a 24.000 nm). Eso no afecta al calor que emite el Sol, que está por debajo de los 4.000; por eso en verano el Sol nos quema... Pero sí tiene que ver con el calor que luego la Tierra reexpide, por la mitad del planeta donde es de noche porque mira hacia el espacio. La Tierra es caliente y el espacio gélido, por eso el planeta emite calor, precisamente en esas longitudes de onda del orden de 40.000 nm. Un calor que en parte queda, pues, atrapado por la atmósfera, que no lo deja pasar gracias a la presencia del dióxido de carbono y el vapor de agua; es el origen del efecto invernadero, gracias al cual la temperatura media del planeta es de unos 15 ºC en lugar de 18 ºC bajo cero. Es muy afortunado para la vida, sí.

En cuanto al viento solar, es detenido y absorbido en gran parte por la alta atmósfera, y además sus partículas cargadas eléctricamente son canalizadas por el campo magnético terrestre hacia las zonas polares. Todo ello supone una especie de escudo magnético protector que también resulta muy afortunado para la biosfera. De hecho, la existencia de vida en la Tierra es tributaria de una serie de azares de lo más sorprendente que se han dado a la vez, eso sí, al cabo de muchos millones de años. Entre ellos, ya lo hemos visto, el efecto invernadero es quizá uno de los más importantes.

En todo caso, lo que nos interesa a efectos prácticos es solamente la parte de energía solar que afecta a la atmósfera y, sobre todo, la que llega a la superficie del planeta; ésa es realmente la fuente energética esencial de toda la maquinaria meteorológica... y de la oceanográfica y, en última instancia, también de todos los sistemas biológicos.

Conviene recordar, aunque sea de pasada, que la inmensa mayoría de las fuentes de energía utilizadas actualmente por el mundo desarrollado derivan directa y, sobre todo, indirectamente del Sol. Los combustibles fósiles, por ejemplo, son restos de plantas que almacenaron carbono a partir de la fotosíntesis hace muchos millones de años. E incluso los saltos de agua para hidroelectricidad se almacenan en altura gracias a la evaporación y posterior condensación del agua por el calor solar, con posterior precipitación y acumulación en lagos y embalses. También la energía eólica deriva indirectamente de la energía solar, que está en el origen de todos los movimientos del aire atmosférico.

Todo eso es lo que significa la insolación que, sin embargo, aporta una energía cuyo reparto es sumamente irregular y que, además, sufre variaciones a lo largo del tiempo en función de la mayor o menor actividad del astro rey. En promedio, la mal llamada constante solar (es solar, sí, pero en absoluto constante) supone 1.366 W/m2 (vatios por metro cuadrado de superficie). Se trata de un promedio global de la radiación solar que llega a la Tierra; en realidad, sólo a la mitad de la Tierra en la que es de día. Pero como todo el planeta emite a su vez radiación en todas las direcciones del espacio, lo que en realidad llega de forma efectiva al planeta es lo que entra, menos lo que sale; es decir, la cuarta parte de esa cifra, unos 340 W/m2.

De ellos, unos 76 W/m2, algo menos de la cuarta parte, son reflejados de nuevo hacia el espacio por las nubes y el mismo aire, y la misma superficie terrestre reexpide hacia el exterior unos 30. Estos 106 W/m2 conforman el albedo del planeta, es decir la proporción de lo que se refleja sobre lo que entra: un 31 por 100.

Los 234 W/m2 restantes son los que penetran hacia el interior del planeta. Una pequeña parte es absorbida por las nubes, otra parte más significativa es absorbida por el propio aire, y finalmente lo que llega a la superficie terrestre es aproximadamente 100 W/m2, menos del 30 por 100 de la energía solar incidente... Dos tercios de esa energía son absorbidos por el agua y el suelo, y el tercio restante se irradia de nuevo al espacio.

De ese complejo balance dependen todos los intercambios energéticos del planeta. Y, por supuesto, todos los fenómenos meteorológicos. Sin embargo, no somos capaces de determinar con un mínimo de precisión las muchas variaciones, pequeñas o grandes, que sufren tan complejas interacciones. Ni mucho menos sabemos predecir de qué modo van a variar en el futuro, ni podemos averiguar cómo variaron en el pasado; a pesar de que parece obvio que su influencia sobre los cambios de clima del pasado, y los que vengan en el futuro, no puede ser más relevante.

Así pues, aunque hoy dispongamos de heliógrafos y pirógrafos para determinar la radiación solar en unos u otros sitios, y ése es un dato realmente útil en meteorología, sobre todo a escala local, lo cierto es que estamos aún muy lejos de conocer en detalle cómo se comporta esa energía solar a la hora de modificar la temperie y, por tanto, los climas a largo plazo.

2.2. Fin de la prehistoria meteorológica

2.2.1. El siglo XIX

En cuestiones científicas, y en particular en lo referido a las ciencias de la atmósfera, el oscurantismo medieval se fue poco a poco resquebrajando a lo largo del Renacimiento, a través de una sorda lucha entre la superstición, la magia y la religión, por una parte, y por otra el sentido común y, sobre todo, la racionalidad que cuestiona todo aquello que se afirma sin pruebas.

No fue una transición sencilla. Y si la Ilustración había dado lugar en el siglo XVI a unas cuantas figuras casi bufonescas, como Nostradamus (1503-1566) o Paracelso (1493-1541), también nos permitió conocer la vida y obra de médicos, ingenieros, filósofos y astrónomos que se guiaban mucho más por su capacidad de raciocinio que por sus creencias. Por ejemplo, el cirujano Ambroise Paré (1510-1592), el inventor Juanelo Turriano (1501-1585), el filósofo Giordano Bruno (1548-1600), quemado por la Inquisición, y antes que él su inspirador Copérnico (1473-1543); sin olvidar a Miguel Serveto y Conesa (1511-1553), también ajusticiado por la religión —esta vez fueron los calvinistas—, o Andrea Vesalio (1514-1564), precursor de los modernos anatomistas, terminando por Galileo, Torricelli y sus discípulos .

Pero eran malos tiempos para la racionalidad; incluso Galileo y muchos otros después de él tuvieron que afrontar el conflicto que enfrentaba a la religión —o, por mejor decir, el dogma inamovible— con la ciencia incipiente, que comenzaba a encontrar respuestas naturales a preguntas que antes sólo tenían explicaciones sobrenaturales, imaginarias y arbitrarias.

Con todo, al final de este período en que la magia y el oscurantismo van dejando paso a la ciencia y las cada vez más complejas tecnologías de todo tipo, aparece en 1774 la máquina de vapor de James Watt (1736-1819), anunciando la transición hacia la Edad Contemporánea que se daría, pocos decenios después, con la llegada de la revolución industrial. Y así fue como las ciencias y las tecnologías, y en particular la meteorología y la climatología, comenzaron por fin a perfilarse como conocimientos racionales con identidad propia al llegar el siglo XIX.

Durante todo ese siglo, el conocimiento acerca de la atmósfera y sus fenómenos fue creciendo de forma imparable gracias a los datos obtenidos por unos instrumentos cada vez más complejos y precisos, y repartidos en lugares cada vez más diversos y numerosos. También influyó, obviamente, el avance en la comprensión de muchos fenómenos hasta entonces inexplicables, gracias al acelerado desarrollo de la física, la química y las matemáticas.

En suma, lo que hasta entonces apenas fuera una especie de arte adivinatorio, estaba ya transformándose en una ciencia con personalidad propia. Comenzábamos a comprender bien la relación entre los fenómenos meteorológicos y el relieve o los mares, y ya se vislumbraba la posibilidad, que todavía parecía un sueño, de realizar algún tipo de predicción basada en esas leyes naturales que podían deducirse de los datos medidos en unos u otros lugares. Unas leyes que debían correlacionar la temperatura, la presión y los demás parámetros atmosféricos, y que debían gobernar la extensa y compleja masa aérea que rodea al planeta Tierra.

Al tiempo, y gracias a los avances de la geología y a las nuevas ideas de Charles Darwin (1809-1882) y Alfred Wallace (1823-1913), pudimos comenzar a determinar ciertas etapas anteriores del desarrollo de la vida en la Tierra. Unos tiempos remotos en los que la evolución de los seres vivos debió realizarse en condiciones muy diferentes a las actuales, incluidos, por supuesto, los climas imperantes en el pasado. Y supimos que el cambio climático no es en absoluto un invento moderno sino que se trata de una constante en el planeta; de hecho, la geología pudo determinar, hace algo más de un siglo, y gracias a la idea de la deriva de los continentes de Alfred Wegener (1880-1930), que hubo épocas muy antiguas en las que la Tierra tuvo un reparto de mares y continentes muy distinto al actual. Lo que sin duda debió generar climas muy diferentes a los de hoy.

Ya en la segunda mitad del siglo XVIII el famoso químico francés Antoine-Laurent de Lavoisier (1743-1794) había preconizado el establecimiento de una red de estaciones meteorológicas por toda Europa, en la seguridad de que sólo así sería posible predecir el tiempo con uno o dos días de antelación. Y por esas mismas fechas, en Mannheim, capital del Palatinado del Rin, se fundó la Sociedad Meteorológica Palatina que llegó a contar, entre 1780 y 1792, con medio centenar de estaciones situadas en las principales ciudades alemanas.

El sociólogo, matemático y naturalista belga Lambert Adolphe Quetelet (1796-1874) fundó el Observatorio Real de Bélgica, en Bruselas, en 1833, donde comenzó a recopilar observaciones meteorológicas de un puñado de observatorios, además de realizar las actividades tradicionales de un observatorio astronómico. Varios países más siguieron ese mismo ejemplo, asociando la incipiente meteorología a la astronomía.

En España, aunque con cierto retraso respecto a Bélgica, también ocurrió algo parecido: la meteorología fue competencia, en 1855, del Observatorio Astronómico Nacional. Luego, ya en 1887, la reina regente María Cristina creó el Instituto Central Meteorológico. Desde entonces la institución ha sobrevivido hasta nuestros días con distintas apelaciones. Hoy se llama Agencia Española de Meteorología, AEMET, y depende del Ministerio de Agricultura, Alimentación y Medio Ambiente.

En suma, ya en la primera mitad del siglo XIX comenzó a consolidarse la observación sistemática del tiempo, aunque circunscrita a regiones concretas y poco extensas. Lástima que la transmisión de esos datos para ser conocidos simultáneamente en otros lugares fuera lenta y poco efectiva. Porque los científicos sabían que el conocimiento instantáneo de las condiciones del tiempo existentes en el entorno de un punto determinado podría permitir, por extrapolación, conocer el tiempo en ese punto y alrededores, y ayudaría así incluso a predecir su evolución a corto plazo.

En la primera mitad del siglo XIX publicó sir William Reid (1791-1858) —un militar y científico británico que viajó por toda la Commonwealth— su Ley de las tormentas y los vientos variables, una obra que recogía multitud de datos en torno a estos fenómenos, con mapas de trayectorias y frecuencias temporales de ocurrencia, en la India y en los mares adyacentes. El científico hindú Henry Piddington (1797-1858) completó ese trabajo en 1844 con muchos más datos referidos al mar de China y buena parte del Índico y del Pacífico próximos a Asia.

Y no hay que olvidar a los norteamericanos, que comenzaban a destacar también en el mundo de las ciencias atmosféricas, siguiendo el ejemplo pionero de Franklin. En los inicios del siglo XIX el meteorólogo William Charles Redfield (1789-1857) —notable científico, fundador y primer presidente de la hoy famosa AAAS, siglas en inglés de Asociación Americana para el Avance de las Ciencias— observó la dirección de los vientos en los ciclones tropicales y trazó, en 1821, un mapa del tránsito de estos fenómenos durante toda esa temporada, mostrando su errático viajar.

Pero un hallazgo tecnológico iba a revolucionar todo este panorama de la meteorología aún embrionaria: el telégrafo eléctrico. Es obvio que la dificultad a la que se enfrentaban los expertos para elaborar buenos mapas del tiempo residía, durante esa primera mitad del siglo XIX, en la imposibilidad de comunicar a gran distancia, y de manera lo más inmediata posible, los datos que permitirían comparar en tiempo real lo que ocurría en unos sitios y en otros. No era posible, en esas condiciones, conocer la evolución posterior de esas condiciones locales con el fin de compararlas con las demás, ni en el presente ni en el futuro inmediato.

Samuel Morse (1791-1872), un pintor y escultor de éxito, fundador y primer presidente de la Academia Americana de Diseño, pero también gran estudioso de la electricidad y fecundo inventor en sus ratos libres, diseñó en 1832 un rudimentario telégrafo eléctrico capaz de transmitir señales puntuales a través de un corto cable eléctrico. Con los años fue perfeccionando su artilugio, hasta el punto de dejar de lado su brillante carrera artística. No sólo desarrolló el famoso código de señales a base de puntos y rayas que lleva su nombre, sino que empeñó su fortuna —ganada gracias a su arte— en montar redes telegráficas en la Costa Este americana y en Europa. Con una subvención del Congreso norteamericano pudo construir una línea entre Baltimore y Washington, de medio centenar de kilómetros. Y así fue como la noticia de la elección de Henry Clay como presidente del Partido Whig en 1844 llegó instantáneamente desde la Convención de Baltimore hasta el Capitolio de Washington. Morse recuperó su fortuna con el nuevo invento, que muy pronto se aplicaría a la transmisión instantánea de datos meteorológicos.

En Europa, en cambio, no fue un invento sino un desastre militar lo que aceleró las cosas: la derrota estrepitosa de la flota anglofrancesa en el mar Negro durante el asedio a Sebastopol, a causa de una potente tormenta, en noviembre de 1854, durante la guerra de Crimea. Se perdieron 35 barcos, entre ellos la nave almirante francesa Henri IV. Tras el desastre, el astrónomo francés Urbain Le Verrier (1811-1877), famoso por haber descubierto mediante cálculos matemáticos el planeta Neptuno, promovió la creación de un servicio internacional de intercambio de informaciones estrictamente meteorológicas en tiempo real, gracias al telégrafo eléctrico, argumentando que el desastre de Sebastopol hubiese podido ser evitado de haberse recibido a tiempo los datos que preveían la llegada del temporal.

Gracias a todas esas iniciativas, a lo largo de la segunda mitad del siglo XIX se van generalizando en Europa los servicios meteorológicos; los científicos de diversos países comenzaron a intercambiar datos a distancia con el fin de disponer, todavía con cierto retraso —varias horas, un plazo de tiempo que hoy juzgaríamos inaceptable pero que en aquella época parecía increíblemente breve—, de una información que traspasaba todas las fronteras.

Entre tanto, la cooperación internacional había dado ya sus primeros frutos. La Primera Conferencia Internacional de Meteorología se había reunido en Bruselas, en 1853, presidida por Quetelet y organizada por el oceanógrafo norteamericano Matthew Fontaine Maury (1806-1873). Luego, tras el desastre de Crimea, y gracias a la iniciativa de Le Verrier, en 1864 la red europea de estaciones meteorológicas contaba ya con cincuenta estaciones, conectadas más o menos simultáneamente por telégrafo; aunque el sistema, todavía embrionario, fallaba con frecuencia. La Segunda Conferencia Internacional de Meteorología tuvo lugar en Leipzig, en 1872, y fue el detonante para que finalmente se reuniera en Viena, un año después, el Primer Congreso Meteorológico Internacional donde se creó la primera estructura permanente, la OMI (Organización Meteorológica Internacional). Más adelante, ya en pleno siglo XX, sería reemplazada por la actual OMM (Organización Meteorológica Mundial) de la ONU.

Así pues, al llegar el siglo XX existía ya en Europa una pequeña red de observación que funcionaba con regularidad; también la había en Estados Unidos, pero mucho más reducida. Por supuesto, los observatorios estaban conectados mediante sistemas de transmisión de datos cada vez más rápidos y eficaces, debido a la generalización del telégrafo eléctrico por cable, y luego la radiotelegrafía. Se veía venir el acelerado desarrollo de las telecomunicaciones característico del siglo XX. Pero todavía hubo que esperar casi un siglo para la llegada de Internet, claro.

2.2.2. Bases teóricas de la ciencia premeteorológica

Nos vamos a permitir dar un paso atrás en el tiempo cronológico con el fin de analizar, aunque sea someramente, el enorme progreso que supuso el desarrollo de la física, la química y la matemática desde finales del siglo XVII. La meteorología actual, como muchas otras disciplinas científicas, hubiera sido imposible sin los desarrollos aportados por numerosos científicos en diversos campos del conocimiento que pudieron luego ser aplicados a la ciencia del tiempo actual.

Quizá podríamos comenzar con René Descartes, ya citado anteriormente por sus ideas acerca del peso del aire. En su ensayo sobre los meteoros, una especie de anexo a su famoso Discurso del método, él proponía en 1637 la idea de que el aire estuviese hecho de una innumerable cantidad de micropartículas, aunque no definió bien cuál era la esencia de esas partículas. También hemos visto cómo en 1648 Pascal midió la disminución de la presión atmosférica con la altitud, eliminando de un plumazo la sugestiva idea del horror vacui en los barómetros; Pascal enunció luego su famoso principio según el cual la presión ejercida sobre un fluido se transmite por igual a toda su masa y en todas las direcciones. Y vimos cómo el astrónomo Halley propuso en 1686 la idea de que el aire es calentado por el Sol, lo que hace que aparezcan los vientos para compensar el vacío dejado por ese aire caliente que asciende debido a su menor densidad. Al año siguiente, precisamente gracias al impulso que le dio Halley, Newton publicó sus famosos Principia que, en cierto modo, fusionaban las teorías matemáticas aplicables a las ciencias físicas, muy especialmente en lo referente al movimiento de los cuerpos, incluidos los gaseosos.

Un poco antes, hacia 1640, el médico y químico flamenco Jan Baptista van Helmont (1579-1644) emitió la teoría de que el aire era una mezcla de gases diferentes. Más tarde, el químico irlandés Robert Boyle (1627-1691) trabajó sobre las presiones y las temperaturas de los gases, y comprobó que cuando la presión aumenta, el volumen disminuye; su famosa ley (llamada hoy de Boyle-Mariotte), propuesta en 1662, dice que el volumen ocupado por una masa de gas, a temperatura constante, es inversamente proporcional a su presión. Lleva también el nombre del físico francés Edmé Mariotte (1620-1684), gran estudioso del aire y sus cualidades, que obtuvo conclusiones parecidas. La ley de Boyle-Mariotte consagra una de las magnitudes básicas de la meteorología: la presión atmosférica.

También en la segunda mitad del siglo XVII, el físico y matemático inglés Robert Hooke (1635-1703) había observado que el barómetro descendía bruscamente antes de una tormenta, tanto más cuanto más potente fuera dicha tormenta. Y con ello abrió el camino para el uso del barómetro como predictor del tiempo.

En el siglo XVIII e inicios del XIX fueron muchos los científicos cuyas aportaciones serían luego esenciales para el desarrollo futuro de la meteorología. Por ejemplo, el físico francés Jacques Charles (1746-1823), quien estudió la variación de la presión de los gases a volumen constante. Como el ingeniero escocés William Rankine (1820-1872), uno de los padres de la termodinámica, junto al físico francés Joseph Louis Gay-Lussac (1778-1850) y el propio Charles.

Por cierto, conviene recordar que, como hemos visto, Lavoisier había insistido en el establecimiento de una red de observación meteorológica global, pero en realidad sería reconocido luego por el mundo entero como uno de los padres de la química moderna —a pesar, dicho sea de paso, de haber sido guillotinado debido a sus orígenes nobles y acompañado del grito, claramente estúpido, de «la Révolution n’a pas besoin de savants!» («¡la Revolución no necesita sabios!»)—. Fue el descubridor entre otras cosas de la famosa ley de la conservación de la materia según la cual ésta ni se crea ni se destruye durante una transformación, y aniquiló mitos tan absurdos como el de la teoría del flogisto, supuesta sustancia con «principio ígneo de inflamabilidad». Hacia 1775 Lavoisier probó experimentalmente que el aire era, en efecto, una mezcla de gases, al tiempo que desentrañaba el papel esencial que jugaba el oxígeno en la respiración.

Más o menos por esa época es probable que el químico británico Joseph Black (1728-1799) hubiera podido demostrar igualmente que la atmósfera era una mezcla de gases, al observar que una vela encendida dentro de un recipiente herméticamente cerrado acababa produciendo dióxido de carbono, pero se extinguía al poco por falta de oxígeno. Luego, en 1772, el médico y químico escocés Daniel Rutherford (1749-1819) amplió los experimentos de Lavoisier e identificó el gas nitrógeno —también llamado ázoe, azote en francés, porque en él la vida resulta imposible, según el experimento de Black— como el constituyente inerte mayoritario del aire. Incluso llegó a calcular su proporción, en torno al 80 por 100 (hoy sabemos que es del 78 por 100, o sea, que no se equivocó mucho).

Pocos años después, el químico británico Joseph Priestley (1733-1804) observó la combustión del oxígeno y su acción como acelerante de otras combustiones; fue el primero que mezcló diversos gases con el fin de obtener una mezcla parecida al aire natural. Y también hizo experimentos con animales de laboratorio, que vivían mucho mejor y más activamente en una atmósfera rica en oxígeno que en una atmósfera empobrecida en ese gas que parecía vitalmente esencial.

Con todo, la determinación precisa de la composición del aire atmosférico hubo de esperar al físico británico Henry Cavendish (1731-1810), quien separó y midió con extrema minuciosidad cada uno de los componentes de la atmósfera. Y ya en pleno siglo XIX, el químico suizo Christian Schoenbein (1799-1868) identificó el ozono como una variedad alotrópica —tres átomos en lugar de dos— del oxígeno.

Pero el aire como mezcla de gases siempre inspiró a los químicos. Y, en particular, al británico John Dalton (1766-1844), uno de los más entusiastas estudiosos de las propiedades químicas del aire y, en realidad, de las propiedades químicas de todos los cuerpos. En 1800 publicó su ley de presiones parciales: en las mezclas de gases, cada uno de ellos ejerce la misma presión parcial que la que ejercería si estuviera él solo ocupando el mismo volumen total. De hecho, Dalton redefinió el antiguo término de Demócrito y aplicó la palabra átomo a las partículas extremadamente pequeñas de las que constaba cada cuerpo. Faltaba un siglo para saber cómo eran por dentro esos átomos...

Poco después, Gay-Lussac, uno de los padres de la termodinámica, dio un paso más a la hora de comprender cómo se combinan distintos átomos para formar moléculas al postular su ley de dilatación térmica de los gases; observó que, al combinarse dos gases para formar uno nuevo, los volúmenes de esos dos gases que reaccionan y del nuevo se expresan en números enteros, generalmente pequeños. Por ejemplo, dos volúmenes de hidrógeno y uno de oxígeno forman dos volúmenes de vapor de agua.

Y por aquellas fechas, en 1811, el químico italiano Avogadro (1776-1856) —se llamaba en realidad Lorenzo Romano Amedeo Carlo Avogadro, conde di Quaregna e di Cerreto— determinó que los gases no estaban necesariamente constituidos por átomos separados, como enunció Dalton, sino que sus partículas básicas (hoy decimos moléculas) debían contener más de un átomo, y que el espacio que ocupan depende de la temperatura y la presión. Su hipótesis era que volúmenes iguales de gases, a igual presión y temperatura, contienen idéntico número de moléculas.

En todas estas reacciones químicas había, obviamente, no sólo intercambio de materia sino también de energía. La energía, a pesar de ser un concepto que todo el mundo utiliza, es en realidad un auténtico enigma físico, algo ambiguo y difícil de definir; como la masa que luego Einstein identificó como energía condensada.

Una de las incógnitas más notables de la física anterior al siglo XIX la constituía el calor. La verdadera naturaleza de ese fenómeno, tan familiar como misterioso, fue ignorada durante milenios, a pesar de las mil conjeturas que los antiguos e incluso los modernos pudieron realizar al respecto. Hoy sabemos que es una forma común de energía, una radiación electromagnética en las frecuencias del infrarrojo.

Joseph Black fue el primero que intentó averiguar por qué aparecía el calor en ciertos cambios químicos. A él nunca le convenció la idea de aquel calórico que defendían los científicos (la desmontó Lavoisier) e hizo un experimento bastante genial: supo separar la intensidad con la que el calor afecta a las cosas mediante un termómetro que, al señalar una variación de temperatura, en realidad medía la variación de la cantidad de calor de cada cuerpo, es decir, de su energía interna. Una variación de calor que puede ser grande o pequeña, rápida o lenta... Ésa es la intensidad de calor.

Black fue aún más lejos y estudió los cambios de fase en la materia —paso de gas a líquido, de líquido a sólido, incluso de sólido a gaseoso, e inversamente—, constatando que, aun sin cambiar la temperatura, había desprendimiento o absorción de calor. Ese fenómeno es el calor latente, propio de cada cambio de fase, y juega un papel esencial en la evaporación y condensación del agua en la atmósfera, por ejemplo, desde la formación de nubes hasta la evaporación en mares y zonas húmedas, pasando por la saturación, la congelación o incluso la sublimación...

En el caso de la evaporación (paso de líquido a gas), el calor latente de vaporización supone, por ejemplo a 20 grados, unas 585 calorías por gramo. Si es una gotita de sudor que se evapora de la piel, al hacerlo le «roba» a nuestro cuerpo esas calorías; de hecho, el sudor existe precisamente para eso, para refrescarnos cuando se evapora de la piel... Lo mismo le ocurre al agua que se evapora en el seno del aire: le roba esas calorías al aire circundante. Lo que significa que el agua del mar pierde varios centenares de calorías por cada gramo evaporado, calorías que absorbe el aire. El mar, y todas las cosas húmedas en realidad, se enfrían cuando hay evaporación. Por eso el botijo refresca el agua que contiene: por los poros del barro se evapora agua, robándole calorías a la que se queda en el interior.

En cuanto al proceso inverso, la condensación —paso de vapor a líquido, por ejemplo cuando aparece una nube en el cielo azul—, lo que ocurre es que el vapor de agua tiene que ceder calor; es decir, cuando el vapor se convierte en líquido, desprende calor. Es el proceso inverso a la evaporación, y el intercambio calorífico es el mismo, pero al revés: el vapor que se condensa libera al ambiente unas 585 calorías cuando lo hace a 20 grados.

Todo esto es algo que todavía hoy no se sabe muy bien cómo incorporar a los modelos de predicción de los cambios de clima, ya que se trata de fenómenos muy dispersos y locales, pero que ponen en juego una energía nada despreciable. ¿Cómo introducir esa complejidad en ecuaciones válidas para todo el planeta?

Además de los progresos de la química y la física, que ayudaban a comprender muchos de los procesos que tenían lugar en el seno de la atmósfera, también la astronomía vino en auxilio de la nueva ciencia del tiempo. No hay que olvidar que la energía básica de la atmosfera, de todo el planeta en realidad, procede del Sol. Ya a finales del siglo XVIII, Pierre-Simon de Laplace (1749-1827) había anunciado que, al igual que la Luna y el Sol generaban mareas en los océanos, lo mismo podría ocurrir en la atmósfera, salvando las diferencias de densidad (el agua es aproximadamente mil veces más densa que el aire). El astrónomo francés había analizado la presión atmosférica registrada durante varios años, y encontró un ciclo de mínimos y máximos cada 24 horas. Aunque lo cierto es que luego hemos sabido que esas variaciones no tienen nada que ver con un posible efecto gravitatorio de marea sino con el calentamiento solar diurno.

Hubo muchos astrónomos notables en el estudio de la atmósfera. Ya hemos visto la importancia, en el siglo XIX, del belga Quetelet o el francés Le Verrier para el desarrollo de las redes de observación del tiempo. Por su parte, el británico George Hadley (1685-1768), jurista de formación y físico aficionado (acabó siendo responsable meteorológico de la Royal Society), publicó en 1735 su trabajo Concerning the Cause of the General Trade Winds («Sobre la causa de los vientos alisios»), donde explicaba cómo el aire cálido de las zonas tropicales ascendía, por su menor densidad, siendo reemplazado en superficie por aire más fresco de latitudes templadas. Eso originaba el famoso régimen de los alisios, en inglés vientos del comercio, o Trade Winds, pero sobre todo implicaba la existencia de una especie de enorme célula convectiva, en la que el aire cálido ascendente en zonas tropicales viajaría por la alta atmósfera hacia zonas más frías, para bajar allí y reemplazar al que regresaba al Ecuador como vientos alisios.

Casi un siglo más tarde, en 1835 el físico norteamericano William Ferrel (1817-1891) y, un poco antes que él, el matemático francés Gustave-Gaspard de Coriolis (1792-1843), dedujeron por separado la causa por la que los vientos dominantes, especialmente los alisios de Hadley, eran desviados hacia la derecha en el hemisferio norte y hacia la izquierda en el hemisferio sur, según viajaban en superficie desde las zonas frías hacia las zonas cálidas. Es la aceleración de Coriolis, originada por el giro de la Tierra. Por cierto, Ferrel indicó en 1856 que, como la célula ecuatorial de Hadley, debía producirse otra similar en las regiones templadas; hoy se llama, claro, célula de Ferrel.

Un caso peculiar fue el del norteamericano James Espy (1785-1860), quien se basó en las ideas de Franklin sobre los vientos existentes en las tormentas, para llegar a la idea de que las bajas presiones estaban formadas por ascendencias del aire en espiral, moviéndose todo el conjunto lentamente en función de leyes de circulación atmosférica más generales. Proceso vertical que debía producir las nubes.

También por esa época merece mención el trabajo del físico holandés Christopher Buys-Ballot (1817-1890) quien, entre otras muchas cosas, explicó en 1857 cómo, en el hemisferio norte, un observador de espaldas al viento tendría a su izquierda las bajas presiones y a su derecha las altas. En el hemisferio sur, la regla se invierte, desde luego.

Deberíamos citar, asimismo, al francés Léon-Philippe Teisserenc de Bort (1855-1913), quien estudió en la segunda mitad del siglo XIX la alta atmósfera con globos no tripulados provistos de diversos instrumentos. Él fue quien definió la troposfera como la zona de la atmósfera más cercana al suelo donde tienen lugar los meteoros.

Un botánico y geógrafo de origen ruso, Vladimir Peter Köppen (1846-1940), también trabajó, como Teisseranc de Bort, con globos para estudiar la alta atmósfera, pero se interesó sobre todo por la relación entre las plantas y los diversos factores meteorológicos. Ha pasado a la historia por ser el primer climatólogo a parte entera, con sus obras sobre clasificación mundial de los climas (1884), el estudio del clima en función de la vegetación (1900) y, sobre todo, los climas del pasado geológico (1924). Luego quiso agrupar todo su trabajo en un colosal Manual de climatología, pero falleció antes de acabarlo. Fue concluido, hacia 1960, por su discípulo y colaborador, el meteorólogo alemán Rudolf Geiger (1894-1981), que nada tenía que ver con el físico nazi Hans Geiger (1882-1945), inventor del contador de radiactividad.

Fueron muchos los científicos que anticiparon la eclosión de la ciencia del tiempo y del clima, en los albores del siglo XX; y apenas hemos citado a los principales... Hubo astrónomos que ayudaron a entender lo que ocurre a escala planetaria y cósmica, físicos que explicaron el movimiento y la atracción de los cuerpos, sentando las bases de la termodinámica, químicos que sentaron los principios de funcionamiento de los gases y sus mezclas, matemáticos que pusieron las bases de un cálculo cada vez más complejo partiendo de fenómenos y transformaciones muy diversas y entrelazadas... Sin todas esas ciencias, que hemos llamado premeteorológicas, jamás hubiésemos tenido los cimientos en los que asentar la moderna meteorología que pudo, sobre ellos, desarrollarse de forma tan acelerada como fecunda a lo largo del siglo XX.

2.2.3. El siglo XX: Bergen

En los inicios del siglo XX, la meteorología moderna toma su impulso definitivo, y lo hace, sorprendentemente, no en alguna gran capital centroeuropea sino en una pequeña localidad noruega llamada Bergen, al fondo de un fiordo y cerca ya del Círculo Polar. La importancia de lo que luego sería conocida como «Escuela de Bergen» tiene mucho que ver con el enorme impulso que allí dieron, en los primeros años del siglo pasado, al estudio de los fenómenos atmosféricos que se trasladan a gran distancia y al trazado de mapas que reflejaban las variaciones del campo de presión atmosférica que tenían que ver con esos sistemas atmosféricos viajeros y las correspondientes perturbaciones del tiempo que ocasionaban.

Aquellos mapas, que también intentaban tener en cuenta —otra novedad— los niveles más altos de la atmósfera, todavía mal conocidos en aquella época, fueron conocidos durante muchos años como «cartas noruegas» y se parecían bastante a los famosos «mapas del tiempo» que comenzó a popularizar en la incipiente televisión española, en 1956, el que luego sería famosos meteorólogo Mariano Medina (1922-1994). Aquellos mapas de los noruegos fueron sin duda las primeras herramientas científicamente válidas para obtener pronósticos acertados del tiempo para extensas regiones y en un plazo más que aceptable.

El impulsor y principal responsable de aquel movimiento de científicos noruegos fue, indudablemente, Vilhelm Bjerknes (1862-1951). Nació en Oslo y desde muy joven se interesó por la física de fluidos, ayudando en sus trabajos e investigaciones a su padre, el matemático Carl Anton Bjerknes. Luego trabajó con Heinrich Hertz (1857-1894) en cuestiones de resonancia electromagnética, para establecerse luego en Suecia, donde fue profesor en Estocolmo de mecánica de fluidos. Allí fue donde comenzó a interesarse por la meteorología, determinando las primeras ecuaciones sobre modelos matemáticos, que luego perfeccionaría para intentar aplicarlas a los océanos y la atmósfera en su conjunto. Tras pasar por la Universidad de Leipzig como profesor de geofísica, Bjerknes fundó el Instituto Geofísico de Bergen en 1917, llevándose con él a muchos de sus jóvenes colaboradores de Leipzig, entre ellos su hijo el físico Jacob Bjerknes (1897-1975). Se fueron luego agrupando en muy pocos años los más importantes científicos de la nueva ciencia meteorológica, encabezados por los suecos Carl Gustaf Rossby (1898-1957) y Tor Bergeron (1891-1959), y el noruego Sverre Petterssen (1898-1974). Todos ellos eran más o menos coetáneos de Jacob Bjierknes, y trabajaron durante un tiempo a las órdenes del padre científico del grupo, Vilhelm Bjerknes.

Durante un fecundo período de casi tres lustros, entre el final de la primera guerra mundial y los últimos años veinte, en la Escuela de Bergen trabajaron numerosos científicos, además de los ya citados, procedentes prácticamente todos del norte de Europa: Solberg, Hesselberg, Palmen, Bjorkdal, Godske, Sandström, Rosseland... Hoy parece obvio que Bjerknes, casi sin quererlo, había creado escuela.

Todos ellos consiguieron colocar en el mapa de la ciencia mundial a la pequeña ciudad noruega que, por su situación en la fachada occidental del norte de Europa, quizá fuera una atalaya de enorme interés a la hora de observar el impacto de las borrascas atlánticas que viajan desde América hacia nuestro continente.

Allí fueron desarrollados los primeros modelos globales de circulación atmosférica, al mostrar cómo se ejercían los efectos dinámicos de las variaciones de densidad del aire, esenciales para comprender los grandes movimientos de las masas atmosféricas e incluso oceánicas. Pudieron igualmente observar cómo el movimiento de las nubes traducía las características de las distintas perturbaciones atmosféricas, y muy especialmente las borrascas, que se desarrollan y evolucionan como grandes vórtices en el centro de los cuales asciende el aire aspirando, por así decirlo, el aire superficial de las zonas lejanas de altas presiones, allí donde el aire desciende hasta el suelo desde los altos niveles.

Definieron igualmente la llamada «circulación zonal», que es la más frecuente porque, en promedio, las depresiones atlánticas —y en principio las de todo el planeta—, se desplazan de oeste a este. En ciertas ocasiones los meteorólogos de Bergen observaron que esa circulación normal se perturbaba, produciéndose movimientos nortesur o a la inversa; ellos lo denominaron «circulación meridiana perturbada».

En todo caso, la teoría de los frentes —el cálido que antecede al frío según avanza la borrasca— fue claramente puesta de manifiesto por aquellos científicos de Bergen, que obviamente comenzaron a aplicarlo a la predicción del tiempo y a la elección de las mejores rutas posibles a la hora de trasladarse en barco a gran distancia. En esencia, esa utilidad sigue siendo esencial hoy día para la navegación transatlántica, pero no sólo de los buques sino, sobre todo, de los aviones.

Algunos de los científicos de Bergen se fueron luego a ejercer la docencia o la investigación fuera de Noruega, a partir de los años treinta, realizando contribuciones esenciales a la base científica y operativa de la nueva ciencia. Por ejemplo, Rossby acabaría descubriendo en los años cuarenta la enorme importancia que tenían las corrientes en chorro de la alta atmósfera —los famosos jet-streams— de cara a la formación de borrascas y su desplazamiento a largas distancias. La segunda guerra mundial y los vuelos militares confirmaron ampliamente la teoría; hoy, los aviones comerciales transoceánicos pueden llegar a ahorrar —o perder, según sea el sentido del viaje— una hora o más de tiempo en sus vuelos entre América y Europa cuando su camino coincide con esas famosas corrientes en chorro.

En cuanto a Bergeron, aportó ya en los años cuarenta una contribución esencial a la ciencia meteorológica al identificar lo que él denominaba «masas de aire», cuya temperatura y humedad les permitían movimientos e interacciones unitarios, casi como si se tratase de gigantescas burbujas estancas de aire caliente o frío, que se mezclan difícilmente con otras masas de aire de diferentes características. En contra de la idea intuitiva que uno pudiera tener, el aire no es homogéneo sino que a lo largo y ancho de la atmósfera se subdivide en invisibles regiones bien caracterizadas, y separadas entre sí por superficies de discontinuidad muy marcadas: los frentes, entre masas de aire.

De este modo, a mediados del siglo XX la meteorología sinóptica había alcanzado ya en Europa y algunos estados de América —Estados Unidos, Canadá— un notable desarrollo que posibilitaba un conocimiento bastante aproximado de la atmósfera en sus distintos niveles, y por tanto la realización de pronósticos a corto plazo —24 horas, con tentativas de llegar a 48— cuyo nivel de aciertos estaba en los años cincuenta en el entorno del 75 por 100 a un día vista.

Entre tanto, inspirándose en el desarrollo matemático de los modelos que iniciara Bjerknes, el matemático e informático británico Lewis Fry Richardson (1881-1953) había comenzado a formular nuevas hipótesis tendentes a una predicción meteorológica exclusivamente mediante métodos numéricos, basándose en ecuaciones diferenciales que son bastante similares a las que usan los modelos de predicción actuales. Pero como no había máquinas que calcularan y computaran todos esos datos, su idea era obtener una especie de supercomputador humano, con miles de personas trabajando con calculadoras mecánicas. Algo sorprendente para la época en que formuló su idea, en 1922, pero que luego acabaría siendo superado cuando llegaron y fueron desarrollándose con potencia creciente los ordenadores y, por supuesto, Internet.

Lo que, en todo caso, parece indudable es que la de los noruegos de Bergen fue toda una lección magistral para aquella época. Durante un tiempo, incluso, el mundo de la ciencia creyó haber encontrado el «ábrete, Sésamo» de la predicción meteorológica: se comenzaba a comprender cómo se desplazaban los centros de acción atmosféricos y se vivía con ilusión la utilización de las primeras calculadoras electrónicas, cada vez más potentes. Pero fuimos descubriendo poco a poco que aquello era sólo un primer jalón, sin duda fundamental, de un camino lleno de incógnitas más largo y difícil de lo que parecía.

Hoy, muchos decenios después de Bjerknes y sus discípulos, estamos aún muy lejos de haber conseguido entender la inmensa complejidad del sistema atmosférico y sus relaciones con el suelo, los mares, la alta atmósfera, la radiación solar, incluso la radiación galáctica... Nuestras poderosas máquinas informáticas siguen enfrentándose a un reto de dimensiones colosales, no mucho menor que lo que creía afrontar en su momento Richardson. Quien, por cierto, al estudiar la turbulencia del aire puso, casi sin querer, los primeros cimientos de un nuevo enfoque científico: el problema del caos en el comportamiento a largo plazo de la atmósfera...

Precisamente ese tema ha sido uno de los que más intrigaron a los meteorólogos en la segunda mitad del siglo XX: la comprensión del movimiento de los fluidos, que se ve perturbado a veces de manera incomprensible. Algo que podría aplicarse al aire cuando se mueve en contacto con el resto de la atmósfera y con el suelo. Y que acabó con el caos de Lorenz, que más adelante analizaremos.

En los años cincuenta o sesenta no se comprendía bien el cómo y el porqué de la conversión de un fluido en régimen laminar, es decir, moviéndose de forma ordenada y regular, a un fluido en régimen turbulento, absolutamente irregular e impredecible. Ya antes, algunos científicos habían analizado el asunto desde diversos puntos de vista. Quizá los pioneros fueron el ingeniero y matemático británico Osborne Reynolds (1842-1912), el matemático irlandés sir George Gabriel Stokes (1819-1903) y, más tarde, el meteorólogo —todo su trabajo lo dedicó prácticamente en exclusiva a la nueva ciencia— sir William Napier Shaw (1854-1945); sin olvidar, ya lo dijimos, al propio Lewis Fry Richardson que quizá fue el primero en plantear el problema. Todos ellos trabajaron teórica y experimentalmente en los campos de la dinámica de fluidos, la viscosidad, el rozamiento, la turbulencia, la presión atmosférica, los cambios de temperatura en el aire e incluso la óptica y la física de nubes. Pero ninguno de ellos llegó a la moderna concepción del caos.

Tras Napier Shaw, y prosiguiendo su línea de trabajo, revistió especial relevancia el trabajo del meteorólogo ruso Alexander Mijailovich Obujov (1918-1989), quien sentó las bases matemáticas de la teoría estadística de la turbulencia y la física de ciertos procesos inestables en la atmósfera. Su máxima contribución, todavía en gran parte válida hoy día, se refiere precisamente a la famosa capa de mezcla, o capa límite, que es cualquier zona de la atmósfera en la que la turbulencia originada por algún desequilibrio térmico o dinámico produce una intensificación de los movimientos caóticos del aire. Hoy se tiende a considerar como capa límite, por su enorme trascendencia, a la zona de contacto entre aire y suelo, en los niveles más bajos de la atmósfera.

Los descubrimientos de algunos de los complejos mecanismos que gobiernan el tiempo en la baja atmósfera, mecanismos sin duda condicionados por la interacción de las capas bajas del aire con el relieve y los obstáculos del suelo —aquí la capa límite de Obujov desempeña un papel de crucial importancia, mal comprendido aún—, se fueron sucediendo con rapidez a partir de los años sesenta.

Algo parecido ocurrió con la alta atmósfera, a pesar de las dificultades a la hora de observar lo que ocurre allá arriba. Tres personajes contribuyeron decisivamente a ello, y los tres procedían del campo de la electricidad y las transmisiones por radio: Kennelly, Heaviside y Appleton, este último premio Nobel en 1947.

El ingeniero eléctrico norteamericano Arthur Edwin Kennelly (1861-1939) investigó las propiedades de la propagación de las ondas radioeléctricas en la alta atmósfera, llegando a la conclusión en los primeros años del siglo XX de que esas ondas de radio eran reflejadas por una zona eléctricamente cargada, que luego se llamaría ionosfera. A la misma conclusión había llegado más o menos por la misma época el también ingeniero eléctrico británico Oliver Heaviside (1850-1925), mucho más teórico que ingeniero pero con una mente extremadamente fértil, a pesar de haber tenido una vida austera y triste.

Esa zona eléctricamente activa se encuentra por encima de los cien kilómetros de altura y se llama hoy capa de Kennelly-Heaviside en honor de ambos científicos. Más tarde, el físico británico Edward Appleton (1892-1965) profundizó en esos estudios, determinando la presencia de otras capas dentro de la ionosfera —esencialmente las hoy llamadas capas E y F de Heaviside— y posibilitando con sus investigaciones el posterior invento del radar.

El porqué de la existencia de esa capa electrizada en la alta atmósfera lo proporcionó el físico austríaco Victor Francis Hess (1883-1964), quien descubrió experimentalmente, gracias a los globos sonda, que la ionización se producía por causa del bombardeo de radiaciones muy energéticas procedentes del espacio, los llamados rayos cósmicos. Hess emitió esa hipótesis en 1912; en su momento, generó gran controversia pero luego acabaría siendo aceptada, gracias a los experimentos que comenzaron a realizarse en los años veinte y treinta; eso le valió a Hess el Nobel de Física, en 1936.

Volviendo a la alta atmósfera, los trabajos de Kennelly, Heaviside, Appleton, Hess y algunos otros, aunque apoyados en experimentos con globos o gracias a los datos obtenidos en las cumbres montañosas más asequibles, eran todavía esencialmente teóricos. Quizá por eso hubo quien decidió que había que subir más alto, a muchos kilómetros de altura, para verificar si todo eso era cierto. Ése fue el caso de los hermanos gemelos Piccard; su figura un poco estrambótica —aunque los hermanos vivieron en distintos continentes, su apariencia era muy similar— le sirvió al dibujante belga Hergé (1907-1983) para caricaturizarlos como el profesor Tornasol, compañero de Tintín.

Auguste (1884-1962) y Jean-Félix (1884-1963) Piccard nacieron en la Basilea suiza, pero luego divergieron en su vida adulta, aunque ambos trabajaron en campos científicos similares. Auguste se quedó en Europa mientras que Jean-Félix emigró a Estados Unidos, donde se nacionalizó en 1931. Resulta curioso que, estando tan lejos, se dedicaran más o menos a lo mismo, al igual que sus mujeres y sus descendientes: el diseño de globos y barquillas adaptados para el ascenso a niveles muy altos de la atmósfera. Auguste incluso diseñó una barquilla especial que podía igualmente viajar a los abismos submarinos, el batiscafo.

Su hijo Jacques (1922-2008) posee aún el récord de inmersión en uno de esos extraños submarinos: 11.034 metros en la Fosa de las Marianas (noroeste del océano Pacífico), el lugar más profundo de todos los mares del planeta. Fue en 1960; el descenso requirió cinco horas y, tras veinte minutos de estancia en el lecho del mar, el ascenso duró casi tres horas y media más. La presión que había en el fondo de la fosa era de 1.072 atmósferas. Eso tuvo que soportar la estructura del batiscafo; y no es fácil imaginar semejante presión. Piénsese que, si el cuerpo humano tiene una superficie del orden de un metro cuadrado, eso supone 10.000 centímetros cuadrados; o sea, que gravitan sobre nosotros diez toneladas de aire. El peso correspondiente a la presión del mar en el fondo de la Fosa de las Marianas equivale, pues, a 10.720 toneladas. Si estuviéramos sometidos a semejante presión, quedaríamos aplastados hasta quedar reducidos al espesor de una simple hoja de papel.

En cuanto a la alta atmósfera, ambos hermanos iniciaron, quizá involuntariamente, una especie de carrera por ver quién llegaba más arriba. En 1931 Auguste ascendió hasta la estratosfera en Augsburgo, Alemania: alcanzó 15.785 metros de altura. Al año siguiente, en Suiza, subió a 16.200 metros. Pero un año más tarde su hermano JeanFélix alcanzaba más de 17.000 metros; y así sucesivamente. En 1938 ambos, uno en América y el otro en Europa, habían superado ya los 20 kilómetros, y en los años sesenta rebasaron la altitud de 34 kilómetros. Los globos no tripulados han llegado luego a más de 50 kilómetros de altura...

El caso es que, gracias a todos estos experimentos, acabó por conocerse bastante mejor, ya en la segunda mitad del siglo XX, la estructura de la alta atmósfera. Aunque lo cierto es que esa estructura aún nos sigue reservando unas cuantas sorpresas; mucho de lo que allí ocurre sigue intrigando a los científicos.

Más adelante, y ya con la llegada de los satélites, se pudo verificar la existencia de un enorme anillo toroidal formado por iones —átomos y moléculas con carga eléctrica—. Está muy lejos del planeta, a distancias que van desde los 700 kilómetros de altitud hasta casi 50.000. Es difícil afirmar que más allá de los mil kilómetros de altitud exista ya atmósfera, pero por aquellos niveles se encuentran los Cinturones de Van Allen, así llamados en honor de su descubridor, el científico estadounidense James Alfred van Allen (1914-2006). Todas estas zonas ionizadas —Van Allen, Heaviside, etc.— son extremadamente útiles para la supervivencia de los seres vivos en la Tierra ya que nos protegen de muchas radiaciones que serían letales para los seres vivos, tanto de origen solar como cósmico.

Los satélites, finalmente, acabaron proporcionándonos datos globales de la atmósfera. El primero de tipo meteorológico fue el norteamericano Tiros I, en 1960, que apenas fotografiaba nubes desde arriba. Hoy tenemos una pléyade de satélites especializados, muchos de ellos en órbita geoestacionaria a casi 36.000 kilómetros de altura —apuntando, pues, a una sola región del planeta; por ejemplo, los Meteosat europeos—, o bien en órbita polar heliosincrónica, a unos 800 kilómetros de altitud, como los NOAA norteamericanos o los Meteor rusos.

En paralelo, otro elemento de mejora esencial para la observación y, sobre todo, el análisis y la predicción de las situaciones atmosféricas ha sido, como en tantos otros órdenes de la vida, el rápido y acelerado progreso de la informática. En los años cincuenta se comenzaron a utilizar las computadoras electrónicas —hoy nos parecerían prehistóricas— para predecir el tiempo, basándose tan sólo en la presión atmosférica en superficie y en altos niveles. La simplicidad de aquellas ecuaciones y la tecnología informática rudimentaria de entonces hacían el empeño imposible. Más adelante, los avances matemáticos y, sobre todo, la enorme potencia de cálculo actual de las máquinas han ido permitiendo predicciones cada vez mejores, aunque muy lejos todavía de la precisión que imaginaba Richardson.

2.3. Una ciencia en auge

2.3.1. El perpetuum mobile atmosférico-solar

Nuestro planeta es una pequeña sucursal, por así decirlo, del Sol. Lo más probable es que seamos el pequeño residuo final, muy enfriado después de más de 4.000 millones de años de existencia, de una pavesa —gigantesca a escala humana, pero minúscula a escala estelar— que se escapó de la estrella cuando ésta inició su ignición hace unos 5.000 millones de años. No es, pues, de extrañar que todo lo que ocurre en ese pequeño planeta que es el nuestro tenga relación, a veces indirectamente pero casi siempre de forma directa, con la estrella a la que, con no poca justificación, solemos llamar astro rey.

De las cosas que aquí ocurren por causa de nuestra relativa proximidad al Sol, la más significativa es sin duda la emisión energética que se ejerce desde el astro hacia el suelo y la atmósfera del planeta, y la posterior interacción de esa energía dentro del conjunto formado por las aguas, los continentes y los gases que conforman la superficie de nuestro mundo. No parece que la energía solar emitida influya en modo alguno sobre las zonas profundas de la Tierra; en cambio, el calor interno del planeta sí ejerce cierta influencia —muy inferior energéticamente hablando a la del Sol, desde luego— sobre lo que ocurre en la superficie, básicamente a través de las emisiones de calor y materia en las erupciones volcánicas.

La relación de nuestra atmósfera con el Sol es, pues, tan antigua como el planeta mismo. Otra cosa es que, desde la misma aparición del planeta hasta nuestros días, haya cambiado notablemente la composición de esa atmósfera. Eso ha supuesto, con el tiempo, una enorme diversidad de interacciones que han originado a su vez múltiples cambios en los climas, modificando el efecto invernadero o bien el reparto de mares y continentes. Unos cambios que han repercutido igualmente en la biosfera y sus componentes, y en el paisaje mismo de la superficie del planeta en su conjunto, mares incluidos.

Todos esos cambios en la atmósfera han dado lugar, con el transcurso del tiempo, a una enorme cantidad de cambios climáticos, locales, regionales y por supuesto globales, en una variedad y cantidad difícil de imaginar. ¿Cómo pudo ocurrir semejante cosa? ¿De qué modo podrían explicarse los cambios en la circulación atmosférica durante el pasado geológico, en comparación con lo que ocurre hoy?

Sólo podemos emitir conjeturas, partiendo precisamente de lo que ocurre hoy, y basándonos en los conocimientos geológicos que hemos ido acumulando sobre el pasado del planeta. El problema es que ni siquiera sabemos muy bien cómo se comporta en la actualidad, y de forma global, esa circulación general del aire atmosférico. Porque somos capaces de comprender bastante bien cómo funciona esquemáticamente, pero cuando descendemos al detalle de escalas cada vez mayores —desde la escala planetaria hacia la continental, nacional, regional...— las cosas se van complicando cada vez más. Hasta el punto de que no es nada probable que el promedio global tenga sentido cuando nos acercamos a las escalas menores de las grandes áreas consideradas.

De manera muy esquemática, los manuales de geografía y climatología suelen explicar que, debido a la inclinación de los rayos solares sobre las regiones polares y la forma mucho más perpendicular a la superficie con la que llegan a las zonas ecuatoriales, aparece un gradiente térmico entre los polos —suelo y aire más fríos— y el Ecuador —suelo y aire más cálidos—. Esto significa que la distribución del calor de origen solar en la superficie terrestre no es homogénea, y por muchas razones. La principal es que las regiones ecuatoriales y tropicales reciben mucha más energía solar que las demás latitudes, y éstas cada vez menos según nos acercamos a las regiones polares. Todo ello en promedio anual, por supuesto. Si no hubiera transferencia de calor entre los trópicos y las regiones polares, los trópicos se calentarían más y más, y los polos estarían cada vez más fríos.

Este desequilibrio de calor debido sólo a la latitud está en el origen de la circulación de la atmósfera, y también de la circulación global en los océanos. Así, la energía calorífica se redistribuye mediante complejos sistemas de circulación del aire y del agua, de tal modo que ambos efectos contribuyen a que globalmente exista una temperatura más o menos estable —«de régimen», como dirían los físicos— en el conjunto del planeta.

Los cálculos arrojaban para estos intercambios energéticos una contribución del aire del 60 por 100, y un 40 por 100 de los mares; pero los modernos estudios acerca de los complejos fenómenos oceánicos —por ejemplo, El Niño en el Pacífico o la NAO en el Atlántico Norte— hacen pensar a los científicos que bien pudiera ser al revés. No resulta posible determinarlo con precisión, ni siquiera aproximadamente; por lo que cualquier conjetura que se haga al respecto con el fin de introducirla en los modelos de predicción llevará consigo una indudable carga de incertidumbre.

Todo ello, en una Tierra que estuviese quieta, sin girar sobre su eje. Pero debido al giro del planeta sobre su propio eje aparece una componente dinámica que se asocia a la puramente térmica del esquema anterior. Se supone que aparecen entonces diversas células convectivas —sobre el Ecuador, en latitudes media y en zonas subpolares— que ayudarían a efectuar ese intercambio calorífico entre el frío de los polos y el calor del Ecuador. Al tiempo, los vientos tanto en superficie como en altura, se ven desviados por la fuerza de Coriolis, y en la zona de la tropopausa, frontera entre la troposfera y la estratosfera, aparecen poderosas corrientes en chorro que gobiernas, bajo ellas, la mecánica de los frentes y las masas de aire.

Todo ello se refleja por la aparición frecuente —todo esto que explicamos es un simple promedio a largo plazo, el día a día es muchísimo más complicado, y a veces contradictorio durante cierto tiempo respecto al esquema teórico— en superficie de ciertas constantes de viento que son conocidas por los marinos de casi todos los tiempos. Por ejemplo, los vientos alisios en las zonas próximas a los trópicos; son vientos del noreste en el hemisferio norte y del sureste en el sur. O bien los llamados en inglés westerlies (oestes), trade winds (vientos comerciales) o simplemente vientos del oeste. E incluyendo la famosa ZCIT (Zona de Convergencia Intertropical), que es donde los vientos alisios de los dos hemisferios se encuentran; en torno al Ecuador, la ZCIT es la responsable de la formación local de tormentas violentas y muy frecuentes. Y en función de su desplazamiento hacia el norte o hacia el sur, acaba siendo un condicionante mayor del tiempo de esas regiones. De ahí la existencia en los continentes afectados de la mayor muestra de vitalidad biológica del planeta: las pluviselvas tropicales (Amazonia en América, selva tropical en África, selvas asiáticas de Indonesia y Nueva Guinea). Es difícil afirmar que los climas cálidos son negativos para la biosfera...

En la práctica, el modelo de las células convectivas y los vientos más o menos constantes no deja de ser una idealización. De cara al tiempo de todos los días —basta echarle un vistazo a cualquier mapa de isobaras que afecte a un área extensa del planeta para darse cuenta de que no siempre las cosas son como se supone que debieran ser—, sino incluso cuando se establecen promedios a largo plazo, que equivaldría a representar en cierto modo el esquema climático de una teórica circulación global de la atmósfera. Básica para comprender el Sistema Climático Global. Y no deja de ser una lástima: disponer de semejante modelo, si fuera ajustado, simplificaría muchísimo la hoy más que ardua tarea de los expertos en buscar modelos matemáticos del clima que funcionen.

De todos modos, ¿por qué falla este esquema de las células convectivas? ¿Qué factores son los que al final deforman, en poco o en mucho, tan inteligente modelo? No son pocos, e incluso muchos de ellos se conocen bien. Pero lo malo es que son difíciles de encuadrar en un modelo matemático comprensible.

Por ejemplo, el hecho de que la Tierra no tiene una superficie uniforme, que muestra un reparto caprichoso —por así decirlo— de los mares y los continentes, y con relieves, paisajes y vegetación de lo más diverso en las zonas emergidas. O bien el hecho de que el viento, al desplazarse por encima de las diferentes superficies, provoca regímenes turbulentos que generando comportamientos caóticos, casi imposibles de predecir en el estado actual de nuestros conocimientos, sobre todo a medio y largo plazo.

En suma, nuestro planeta posee un sistema de circulación general de su atmósfera muy irregular, donde algunos centros de acción (borrascas y anticiclones) aparecen con cierta frecuencia a lo largo del año en los mismos lugares, más o menos, y otros en cambio aparecen en invierno pero luego no están en verano, o viceversa. Estos centros de acción, permanentes o semipermanentes, condicionan el tiempo de todos los días junto a los frentes, que cabalgan asociados al chorro en altura.

Como ejemplos próximos y bien conocidos de centros permanentes podríamos citar al anticiclón de Azores y la borrasca de Islandia. En centros semipermanentes, el ejemplo típico es el potente anticiclón invernal de Siberia, que al llegar el verano se diluye. Lo malo es que, en la realidad de todos los días, el movimiento de estos centros de acción —que gobiernan la temperie de las regiones a las que afectan— es tan irregular como aleatorio.

2.3.2. Aires pretéritos

Todos esos movimientos del aire del planeta, que comprendemos sólo aproximadamente de forma local, y bastante mal de forma global, sin duda deben ser bastante similares a los del pasado muy reciente, pero parece obvio que debieron cambiar mucho en un pasado más alejado, puesto que sabemos que hubo cambios de clima a corto plazo —en una escala temporal de siglos— y sobre todo a más largo plazo, en milenios e incluso millones de años... O sea, que no parece fácil hablar de la atmósfera como un ente más o menos unificado y permanente, ni en el tiempo ni en el espacio.

También tenemos datos indirectos, bastante fiables, de que a lo largo de la historia del planeta la cantidad y variedad de los gases que han conformado el aire terrestre ha variado enormemente. Lo cual habrá hecho variar, consecuentemente, los efectos de esa atmósfera cambiante sobre continentes y mares. O sea, los climas.

¿Cómo serían aquellas diferentes atmósferas de las épocas más remotas de la Tierra? Nuestro planeta se estima que existe desde hace unos 4.500 millones de años, y desde entonces ha sufrido convulsiones de todo tipo que han afectado, como es lógico, a su atmósfera. No sabemos gran cosa del aire existente al principio, durante el eón Hadeense —los 650 primeros millones de años del planeta—. Luego, al aparecer las primeras formas de vida primitiva —cuando se inicia el eón Arqueozoico, hace unos 3.850 millones de años—, durante casi 2.000 millones de años el aire siguió manteniendo una composición compleja y muy distinta a la actual.

Vino luego el eón Proterozoico, que comenzó hace unos 1.800 millones de años. En los mares, la vida monocelular muy primitiva se hizo más compleja —las células tuvieron ya un núcleo diferenciado para albergar su material genético, en un planeta cada vez más estable desde el punto de vista geológico—. El Proterozoico duró casi 1.500 millones de años y tras él vino el eón actual, el Fanerozoico, que se inició hace unos 600 millones de años; es el que mejor conocemos porque han quedado numerosos fósiles de los distintos dominios y reinos de la biosfera.

La trascendencia, de cara a la atmósfera, de cada uno de estos grandes períodos de tiempo fue notable. Por ejemplo, la vida produjo muy pronto unas bacterias, de los dos primeros dominios de la vida (Arqueas y Eubacterias), capaces de sintetizar, gracias a la clorofila y la luz solar, el dióxido de carbono atmosférico, lo que les permitía incorporar el carbono a su biomasa, eliminando el oxígeno como residuo indeseable. La fotosíntesis se acentuó mucho en el eón Proterozoico, hace de entre unos 2.000 a 2.500 millones de años, cuando otros seres monocelulares mucho más evolucionados (hoy clasificamos a estos seres vivos dentro de un tercer dominio, el de las Eucarias, en el que incluimos a los reinos Animal, Vegetal y Hongos) también acabaron por efectuar esa misma operación. El resultado fue una progresiva abundancia del oxígeno libre, desechado por la fotosíntesis masiva de aquellos seres vivos marinos. Y esto tendría una consecuencia esencial: la progresiva reducción de la abundancia de dióxido de carbono que, junto al también progresivo enfriamiento del planeta y a la consecuente condensación del vapor de agua en agua líquida, hizo disminuir notablemente el efecto invernadero y, por tanto, la temperatura. Las glaciaciones comenzaron a ser posibles.

La primera de ellas, bastante bien identificada, fue la llamada huroniana (el nombre procede de los sedimentos que atestiguan la presencia de dicho período en la zona canadiense próxima al lago Hurón). Duró unos 300 millones de años, entre 2.400 y 2.100 millones de años antes de ahora. Luego las cosas volvieron a su cauce y nuestro planeta recuperó su entonces habitual clima cálido. Aquel primer cambio climático se debió, pues, a los seres vivos fotosintéticos con clorofila en los mares terrestres.

La segunda consecuencia de la presencia en la atmósfera de oxígeno libre como residuo de la fotosíntesis fue el hecho de que una pequeña parte de ese gas en su forma habitual de moléculas biatómicas, al subir hasta la alta atmósfera se convertía en ozono, creando una fina pero muy efectiva zona que filtraba las radiaciones ultravioletas procedentes del Sol. Aquello redujo notablemente su letal efecto ionizante sobre las estructuras vivientes; o sea, que la capa de ozono, hoy tan conocida, también hubiera sido imposible sin la existencia de aquellos primeros seres vivos con clorofila.

Al final del Proterozoico se produjo una nueva glaciación: durante un largo período (entre 800 a 630 millones de años antes de ahora), la Tierra se convirtió literalmente en una enorme esfera cubierta de hielo (Snow Ball Earth, en inglés; literalmente, Tierra Bola de Nieve). Ignoramos el porqué de aquel prolongado período de temperaturas bajísimas. Y, lo que quizá sea aún más importante, por qué las temperaturas subieron luego de nuevo, para ofrecernos millones de años después un planeta que ni siquiera albergaba hielo en las zonas polares en invierno.

Hace 630 millones de años se inicia una nueva era, al terminarse aquel largo período de hielos perpetuos. Se conoce como era Ediacarense (el nombre ha sido ya aceptado por la Unión Internacional de Ciencias Geológicas); fue la primera aparición en los mares terrestres de una fauna de invertebrados de gran tamaño, descubierta en las colinas australianas de Ediacara. Desde el punto de vista climático, fue un período de transición entre las glaciaciones del final del Proterozoico y el clima más cálido del actual eón Fanerozoico.

La fauna de Ediacara se extinguió, por lo que sabemos, en una nueva glaciación de más de 50 millones de años; terminó hace 542 millones de años, cuando el clima volvió a calentarse. No sabemos la causa de todos aquellos cambios, pero las transiciones duraron más de un millón de años; no podemos en modo alguno imaginar cómo fue el tiempo en esas transiciones de más de mil milenios...

Se inició entonces el período Cámbrico, que vio aparecer de forma casi explosiva una enorme diversidad de seres vivos. Fue un momento crucial para el planeta, y para los seres vivos, cuya biodiversidad se multiplicó de manera inimaginablemente rápida.

El caso es que la vida multicelular comienza a proliferar en el Cámbrico de manera acelerada —es la explosión de biodiversidad del Cámbrico—; luego la vida acabaría por invadir tierra firme, hace unos 400 millones de años. Hasta entonces, todos los seres vivos, incluso los más complejos, habían sido exclusivamente marinos. Las plantas y los animales que hoy vemos en los continentes son, todos ellos, relativamente recientes...

Consignemos dos glaciaciones importantes: hace unos 440 millones de años, en la transición del Ordovícico al Silúrico, y hace algo menos de 300 millones de años, entre el Carbonífero y el Pérmico. El resto del tiempo, la Tierra tuvo una atmósfera más cálida que la actual, con pocos hielos en los polos —a veces nada— y con frecuente proliferación, sobre todo en el Carbonífero y épocas posteriores, de plantas y animales terrestres de tamaños y tipos muy diversos. Salvo retrocesos puntuales al frío —como el provocado por la catástrofe cósmica de hace 65 millones de años, que acabó con la inmensa mayoría de los dinosaurios, entre otras muchas especies vivientes—, esa tónica de climas cálidos se mantuvo hasta las glaciaciones del período Cuaternario, hace sólo dos millones de años.

En ese tiempo más reciente los climas terrestres fueron glaciales, con breves períodos interglaciales. Una época importante para el hombre porque, como es sabido, el último antepasado común que tenemos con los actuales chimpancés y bonobos vivió hace unos 6 millones de años, pero la hominización (el primer Homo habilis) comenzó hace apenas dos millones de años, y los neandertales, que fueron casi como nosotros, existieron desde hace al menos 500.000 años y desaparecieron hace sólo 30.000 años.

Todo esto significa que la transición hacia los homínidos y, sobre todo, hacia los humanos actuales se hizo a pesar de vivir en una época de climas adversos y glaciales. Hay autores, como John y Mary Gribbin en su libro Hijos del hielo, que atribuyen precisamente a este enfriamiento de los climas el hecho de que, por cambiar de un hábitat cómodo a hábitats cada vez más incómodos, los homínidos de origen africano pusieran en marcha lentas migraciones y, al tiempo, quizá acabaran desarrollando habilidades que en épocas de clima más grato no les hubieran sido necesarias.

La primera época del Cuaternario, el Pleistoceno, se caracterizó por unos climas gélidos en períodos de varios cientos de miles de años, intercalándose entre ellos períodos muy breves de climas templados. El último de esos intermedios interglaciales, con temperaturas seguramente similares a las actuales, se llama Eemiense en Europa (Sangamoniense en Estados Unidos) y duró apenas 20.000 años (desde –140.000 a –120.000 años). Después llegó la última glaciación del Pleistoceno, llamada Würm, cuyo momento más frío se alcanzó en el Último Máximo Glacial, hace entre 22.000 y 12.000 años. La temperatura media debió de ser unos 7 grados menor que en el Eemiense, y quizá hasta 10 a 12 grados menor que ahora.

Pero, cuidado: hemos estado hablando sólo del clima; pero no tenemos ni idea de cómo fue el tiempo día a día, año a año, siglo a siglo. Ni tampoco en qué regiones hubo peores o mejores condiciones. Conviene recordar que estos cambios de clima del Cuaternario tienen períodos de miles de años; lo cual no tiene nada que ver con la actual preocupación acerca del cambio climático, cuyo período creemos estar midiendo en unos pocos años (como mínimo deberíamos hacerlo en treintenios). Parece mucho tiempo a escala humana, pero es poquísimo a escala climatológica.

Durante el último ramalazo de la glaciación Würm, el Dryas Reciente (terminó, según los sitios, hace entre 12.000 y 10.000 años, marcando así el cambio del Pleistoceno al Holoceno), hacía muchísimo más frío que hoy en las zonas más próximas a los polos, unos 15 grados menos que ahora. En el centro de la Antártida o de Groenlandia incluso 20 grados menos que ahora, si no más. En cambio, en las zonas ecuatoriales hubo quizá tan sólo entre unos 3 y 5 grados menos; que pueden parecer pocos, pero fueron suficientes como para destruir buena parte de la selva y convertirla en sabana.

Durante esas glaciaciones, buena parte del agua evaporada de los mares y precipitada en forma de nieve quedaba acumulada como hielo y no retornaba en forma de vapor al ciclo atmosférico del agua. Y eso supuso, obviamente, un notable descenso del nivel del mar, casi 150 metros menos que ahora. Inglaterra e Irlanda estaban unidas al continente europeo, por ejemplo; y de eso hace poco más de 10.000 años...

Y como en los alrededores de las zonas que hoy son desiertos llovía aún menos que ahora, es seguro que el Sahara, por ejemplo, se extendía no sólo por la mayor parte de África sino que desbordaba hacia todo el Próximo Oriente y buena parte de Asia. En cambio, al terminar la glaciación buena parte del desierto sahariano próximo al Mediterráneo pudo tener ríos y árboles, y los mantuvo durante unos 5.000 años, para luego volver a desaparecer sólo tres milenios antes de Cristo. Porque los desiertos, como los climas —al fin y al cabo un desierto lo es precisamente porque allí llueve muy poco—, cambian constantemente de extensión; a veces incluso dejan de ser desiertos o, por el contrario, aparecen donde antes no los había.

El paso del Dryas Reciente al Holoceno mostró una acelerada escalada de las temperaturas, un brusco cambio climático que resulta asombroso. Lo de brusco no es figurativo: en latitudes próximas a los polos superó la cifra de un grado por siglo, en latitudes medias algo menos de un grado por siglo, y en latitudes ecuatoriales apenas medio grado por siglo. En conjunto, fue un calentamiento similar al que ha habido en los dos o tres últimos decenios en el planeta, y que tanta alarma ha creado. En aquel caso duró un milenio, y sólo podemos achacárselo a razones estrictamente naturales...

Luego, también a lo largo del Holoceno —pero siempre dentro de una tónica general de temperaturas mucho más altas que en el Pleistoceno— se han producido variaciones notables en los climas, aunque de mucha menor intensidad que las glaciaciones previas. Por ejemplo, los primeros 2.000 años fueron de clima cálido y lluvias abundantes, lo que propició un nomadismo humano que permitió a nuestra especie alcanzar prácticamente todas las regiones del planeta (incluidos los ríos y bosques del Sahara que antes citábamos). Después hubo un milenio y pico de clima más frío, la Época Fría Atlántica, y tras ella nuevos calores. Más tarde, otro período frío algo menos acusado, hace unos 5.500 años (fue cuando el Sahara comenzó de nuevo a desertizarse) originó en el Mediterráneo un clima más templado y seco, cuando antes era húmedo y caluroso.

En esa época, terminando el Mesolítico, fue cuando comenzó a generalizarse la agricultura y los humanos se agruparon en ciudades cada vez mayores. Luego vinieron de nuevo diversos períodos de alternancia entre épocas de varios siglos de frío, y otras épocas similares de calor. Pero siempre dentro de una tónica de climas similares a los actuales: no más de dos grados por encima o por debajo, en promedio global, aunque en algunas regiones pudieron ser algunos más (y en otras, menos o nada).

Desde unos pocos siglos antes de Cristo, y hasta el año 1300 de nuestra era, predominaron los climas cálidos, con un Óptimo Medieval bastante significativo. Los vikingos podían cultivar sus tierras nórdicas sin problemas durante buena parte del año, y aprovechaban la relativa templanza del clima para navegar por toda clase de lugares, generalmente más cálidos y, de paso, hacerse con un buen botín. Como eran grandes marinos, también supieron llegar a Islandia y Groenlandia; esta última, cuyo nombre significa «Tierra Verde» (grüne land), tenía en los siglos X y XI sus costas libres de hielos, con praderas verdes y vegetación arbustiva durante buena parte del año en sus zonas costeras; de ahí el nombre...

A partir del siglo XIII el clima volvió a enfriarse poco a poco, un retroceso térmico bien documentado en la Europa central y nórdica, y también —aunque con menos apoyo documental— en algunas zonas de la América del Norte atlántica. Del resto del mundo hay muy escasas referencias, o sencillamente no las hay. En general este descenso de la temperatura produjo daños dramáticos, con hambrunas generalizadas, como veremos más adelante.

Definitivamente, el frío no le sienta bien a los seres humanos ni a la biosfera.

Aquel proceso culminó con la Pequeña Edad del Hielo del siglo XVII, cuando se estima que durante algunos decenios especialmente fríos las temperaturas fueron en promedio un par de grados más bajas que en los inicios del siglo XX, aunque no en todas las regiones fue lo mismo: el frío fue más acusado en las latitudes templadas del centro de Europa y en las proximidades del Polo Norte, sobre todo en Groenlandia... Hay datos del Observatorio de París que indican diferencias de temperatura media anual de hasta tres grados menos que ahora en la transición entre los siglos XVII y XVIII...

Luego, desde finales del siglo XIX, y durante el siglo XX, los climas han vuelto a calentarse aunque, una vez más, no de manera uniforme y con algunos altibajos notables. La revolución industrial y el consecuente consumo acelerado de fuentes de energía fósiles (carbón, hidrocarburos) coinciden con la parte final de este período.

Todo lo cual significa que sigue en pie la pregunta en torno al porqué del enfriamiento de los climas a partir del siglo XIII, al porqué del posterior calentamiento ya en el siglo XVIII tras alcanzar el mínimo del XVII... Son preguntas similares, aunque a menor escala, que las que antes formulábamos: ¿por qué se produjeron las larguísimas e intensas glaciaciones del Pleistoceno? Y, ya más cerca de nosotros, ¿por qué se produjo el acelerado calentamiento que marcó el final del Dryas Reciente y el inicio del Holoceno, hace 10.000 años?

Justo es reconocer que en el siglo XX aparece un factor nuevo, que induce preocupación: los posibles cambios en la composición del aire originados, aunque sea en cuantía menor, por la inyección reciente de gases invernadero procedentes de la combustión de elementos fósiles. Son, sin duda, combustibles de origen natural, pero sus átomos de carbono e hidrógeno estuvieron bajo tierra millones de años y ahora los devolvemos a la atmósfera en apenas un siglo. Esto puede ser de enorme trascendencia, como estiman muchos científicos, o quizá sólo sea un factor más, quizá no tan relevante, del mecanismo de unos ciclos sumamente complejos y que aún no entendemos del todo, como piensan otros científicos, menos numerosos que los primeros.

Suena a controversia científica fecunda, y de todas esas controversias suele salir la luz a la larga. Pero veremos más adelante que este asunto, por razones sociopolíticas y económicas, ha dejado de ser estrictamente científico y se ha convertido casi en una guerra de religiones y dogmas, con herejes y creyentes que se acusan de los peores delitos. ¡En un tema estrictamente científico!

Que esto esté ocurriendo ahora, en pleno siglo XXI, no deja de causar una enorme perplejidad en muchas personas, entre los que me incluyo.

2.3.3. El aire que hoy respiramos

¿Cómo es y cómo se comporta el aire, hoy, a lo largo, ancho y alto de la atmósfera? ¿Cuál es su composición actual y cuáles son sus formas de comportarse, en superficie y en altura? ¿Es y se comporta el aire que respiramos del mismo modo en toda la atmósfera o, por el contrario, muestra características muy variables tanto en horizontal como verticalmente, según las distintas regiones y altitudes?

Son preguntas sin duda curiosas pero que, sobre todo, resultan cruciales para apreciar el significado de esos grandes promedios globales de los que nos inundan los informes alarmistas sobre el cambio climático. Si hubiera un solo «clima global», que afectara a una sola «atmósfera global», eso significaría que los promedios globales se aplicarían luego del mismo modo a cada lugar de la Tierra. Pero si el aire y su comportamiento son diferentes según los sitios, y según la altitud, las cifras globales dejan de tener sentido y apenas expresan un índice de variación a largo plazo que en muy poco pueden ayudarnos a la planificación de lo que debe o no hacerse en cada lugar para adaptarse, evitar o combatir los peores efectos de esos cambios, expresados en el tiempo de todos los días, de todos los años...

El párrafo anterior ha de resultarle chocante a la mayor parte de las personas: ¿que no significan nada los promedios globales? ¡Pero si es evidente que el clima es ahora mucho más caliente que antes, mucho peor y dañino, tanto que el nivel del mar sube catastróficamente y los hielos polares ya han casi desaparecido!...

Lamentablemente, ésa es la idea que tiene el ciudadano medio de lo que supone el cambio climático, gracias a muchos ecologistas, a personalidades confusas como el político Al Gore e incluso a los informes increíblemente alarmistas y autocomplacientes con sus afirmaciones de muchos de los científicos que participan en los trabajos que le sirven luego de base a la ONU para emitir sucesivos informes a través del Panel Intergubernamental creado al efecto. De todo ello trataremos ampliamente en la cuarta parte del libro.

Lo que aquí queremos analizar es el estado de la atmósfera, de su comportamiento hoy, en contraste con el pasado. Como hemos visto, en los primeros tiempos del planeta la composición de la atmósfera nada tenía que ver con la actual; ni siquiera el planeta mismo, ni el Sol, ni la duración del día, ni la proximidad de la Luna... Más adelante, hace algo más de 2.000 millones de años, la aparición del oxígeno de origen esencialmente biológico fue haciendo que las cosas de la atmósfera comenzaran a ser cada vez más parecidas a las condiciones actuales. Y parece seguro que en los últimos siglos, quizá incluso a lo largo de todo el Holoceno, o sea, en los últimos diez milenios, la composición del aire que hoy respiramos ha variado muy poco.

La atmósfera constituye, en su conjunto, una enorme masa —del orden de 5.600 billones de toneladas— de una mezcla de gases y otras sustancias sólidas y líquidas, el aire. En su interior se producen de forma continua todo tipo de movimientos, que pueden llegar a alcanzar velocidades de 500 km/h e incluso superiores.

La energía producida por los fenómenos meteorológicos no tiene común medida con la de los fenómenos producidos por los humanos, ni siquiera los más catastróficos. Por ejemplo, una simple tormenta de verano disipa tanta energía —en forma de rayos, truenos, viento y otros meteoros— como doce de las más potentes bombas nucleares inventadas por el hombre. Y lo verdaderamente impactante es que en nuestro planeta se producen unas 45.000 tormentas... ¡diariamente!

¿De dónde sale tan fantástica energía? La respuesta es muy simple: del Sol. Y eso lleva ocurriendo desde que el planeta es planeta, o sea, desde hace 4.500 millones de años. Y probablemente seguirá ocurriendo durante otros miles de millones de años más. De ahí el título de un apartado anterior —irónicamente abusivo porque existe un principio de la termodinámica que lo prohíbe—, «El de perpetuum mobile atmosférico-solar». No será perpetuum, pero 4.500 millones de años se le parece mucho...

Bien, la atmósfera actual no es en absoluto homogénea, como ya dejábamos entrever cuando planteábamos las preguntas iniciales de este apartado. En primer lugar, su composición varía mucho con la altura. De hecho, no sabemos cuál es el límite superior, allí donde se podría decir que ya no hay propiamente aire. Según vamos subiendo disminuye notablemente la concentración de los gases atmosféricos hasta el punto de que a poco más de 5 kilómetros de altitud ya tenemos por debajo la mitad de todo el aire existente, y en el interior de la troposfera —cuyo límite superior en los polos está a unos 7 kilómetros de altitud y en el Ecuador a más de 18— ya se encuentra más del 90 por 100. El 10 por 100 restante va disminuyendo con la altura hasta... ¿dónde? Nadie lo sabe exactamente, pero suelen aceptarse los dos mil kilómetros como límite superior de la atmósfera, de manera un poco arbitraria. Parece mucho, pero comparado con el diámetro de la Tierra (12.756 km) es bastante poco —algo menos de la sexta parte—, y aún parece menos si consideramos que, en promedio, por debajo de 1012 kilómetros de altitud se encuentra el 90 por 100 del total.

En las zonas más bajas de la atmósfera, que son obviamente las más densas, el aire es una mezcla de gases entre los que destacan el nitrógeno y el oxígeno biatómicos. Al nivel del mar la composición es, en promedio, la siguiente: nitrógeno 78 por 100, oxígeno 21 por 100, argón 0,9 por 100. El 0,1 por 100 restante está formado por muy pequeñas cantidades de otros gases llamados por eso gases traza. Entre ellos, el neón, el ozono, el helio, el metano y, desde luego, el dióxido de carbono (en torno a 0,04 por 100) y el vapor del agua (aunque éste varía mucho, desde prácticamente nada en los desiertos cálidos hasta cerca del 4 por 100 en zonas ecuatoriales muy húmedas. También aparecen otros gases como subproducto de la actividad humana; por ejemplo, el monóxido de carbono, numerosos gases de los tubos de escape de los automóviles y de las chimeneas industriales —entre ellos, diversos óxidos de azufre y nitrógeno, además de numerosos hidrocarburos, entre otros—, e incluso los famosos CFC y similares, sospechosos de destruir la capa de ozono.

Especial importancia revisten las partículas, o aerosoles. Están por todas partes y a todos los niveles atmosféricos, aunque, su peso, por ligero que sea, hace que estén concentrados más en las capas bajas. El número de partículas —cristales microscópicos de sal, polvo de diversos tipos, cenizas, minerales, etc.— por centímetro cúbico es muy variable; en alta mar y en las playas apenas se llega a mil partículas por centímetro cúbico, igual que en las cumbres montañosas. En un campo cultivado hay 10 veces más, en un pueblo 50 veces más y en una gran ciudad 150 a 200 veces más...

Como veremos al hablar de los meteoros, estos aerosoles juegan un papel esencial en numerosos procesos naturales como, por ejemplo, la formación de nubes y de precipitaciones, al actuar como núcleos higroscópicos de condensación. Pero en la actualidad son una fuente de preocupación por la contaminación evidente del entorno que suponen la mayoría de ellos, especialmente cuando se concentran en las grandes ciudades y en las zonas muy industrializadas en épocas de estabilidad atmosférica. También parecen desempeñar un papel nada despreciable en cuestiones de cambio climático, ya que por una parte impiden el normal calentamiento del Sol, pero por otra pueden retener dicho calor en determinadas circunstancias.

La distribución vertical del aire nos permite dividir la atmósfera en grandes zonas concéntricas. La primera, esencial para la meteorología, es la troposfera. La composición del aire se mantiene más o menos estable en porcentaje dentro de la troposfera, excepto la humedad y los aerosoles, que disminuyen muy deprisa con la altitud hasta casi desaparecer a partir de los 5.000 o 6.000 metros. La troposfera, ya lo hemos visto, agrupa el 90 por 100 del aire; y en su seno ocurren todos los fenómenos atmosféricos; es la atmósfera propiamente meteorológica.

La estratosfera, separada de la anterior por una superficie de discontinuidad llamada tropopausa, es la sede de grandes corrientes horizontales de aire, sobre todo en las zonas cercanas a su límite inferior, pero con nulo o muy escaso contacto vertical; de ahí su nombre, que recuerda el de las capas geológicas estratificadas. En su parte superior, entre 30 y 50 km de altitud, se encuentra una pequeña concentración de ozono que llamamos impropiamente capa de ozono —no lo es, todo el ozono que hay en esa zona de varios kilómetros de altitud apenas ocuparía tres milímetros de espesor si la lleváramos a la superficie terrestre—. No obstante, su trascendencia para la biosfera es notable, ya que nos protege de los dañinos ultravioletas solares.

La mesosfera, que va de 50 a 100 km de altitud, está separada de la capa exterior, la termosfera, mediante la mesopausa. Es una zona de fenómenos ópticos y eléctricos que son muy importantes para la comprensión de las interacciones, por ejemplo, entre el campo magnético terrestre y las radiaciones que nos llegan desde el espacio profundo o de procedencia solar.

En la termosfera, por encima de los 100 km de altitud, también existen moléculas de gases ionizados —cargadas eléctricamente—, muy concentradas en diversas capas envolventes —en general se asume que son cuatro— que reciben el nombre conjunto de ionosfera. Esta ionosfera juega un papel más que considerable no sólo como protector de las radiaciones nocivas procedentes del espacio, sino de cara a las telecomunicaciones modernas (las ondas de radio, especialmente las de onda corta, rebotan en la ionosfera y vuelven a la Tierra a mucha distancia del emisor, a veces al otro lado del mundo). Si se producen tormentas solares, o una actividad del astro mayor o menor de lo normal, es la ionosfera quien primero se ve afectada, y la que se encarga de filtrar gran parte de los posibles efectos positivos o negativos de esas variaciones en la radiación solar.

Por encima de todo ello, en la zona en la que aún es posible encontrar átomos sueltos de helio e hidrógeno, se encuentra la exosfera. Si entre 100 y 400 km existían aún mínimas concentraciones de nitrógeno, por encima de esa altitud, y hasta los 1.000 km, apenas quedan trazas de oxígeno monoatómico. Más arriba aún existe algo de helio, y ya en el espacio —a partir de los 2.000 km—, con una densidad parecida a la del vacío interplanetario, sólo quedan algunos átomos de hidrógeno sueltos.

El límite superior de la atmósfera es, pues, arbitrario. Pueden ser 400, 1.000, 2.000 o más kilómetros. Pero a efectos prácticos se puede decir que en los primeros 100 km está la atmósfera real, la que tiene importancia para lo que ocurre aquí abajo. Recuérdese que por debajo de esos 100 km de altitud está prácticamente todo el aire, algo más de un 99,99 por 100. Aunque en cuestiones de tiempo y clima, lo realmente trascendente es lo que ocurre en la tropopausa, que engloba a más del 90 por 100 del aire terrestre...

En todo caso, la mayor densidad del aire está junto al suelo, luego el aire se va enrareciendo con la altura, lo cual hace disminuir gradualmente la presión atmosférica, que después de todo no es más que una medida del peso del aire que gravita sobre una superficie. Esto es patente cuando uno viaja a una ciudad situada en zonas muy altas; por ejemplo, México, que está a más de 2.200 metros de altitud. Allí la presión es casi un 25 por 100 menor que la que existe al nivel del mar. El aire tiene, pues, casi un 25 por 100 menos de cada uno de los gases que lo componen.

Lo que afecta a los humanos y otros animales es el oxígeno: en cada inhalación nos entran en los pulmones sólo las tres cuartas partes de lo que nos entraría al nivel del mar. Si hacemos algún tipo de ejercicio físico, el organismo ha de compensar esa disminución de algún modo; por ejemplo, latiendo más deprisa el corazón, inhalando aire más veces por minuto... Y así hasta que, al cabo de unos días, el organismo se va adaptando a base de fabricar en la médula ósea más hematíes con las que transportar una mayor cantidad de oxígeno por inhalación.

Expresado en unidades de presión atmosférica —las vimos en el capítulo dedicado a los aparatos de medida—, la presión normal al nivel del mar es del orden de 1.013,25 hectopascales (hPa), a 5 km de altitud ya es sólo la mitad, 550 hPa, a 10 km es de 250 hPa, a 20 km es menor de 50 hPa, a 100 km es menor de 0,01 hPa y a 300 km la presión es absolutamente inapreciable, del orden de 0,0000001 hPa (escrito en potencias de diez sería 10-7).

Éste es el peso del aire por superficie, o sea, expresado en forma de presión. Para un cuerpo humano, sabiendo que la presión normal equivale aproximadamente a un kilo por centímetro cuadrado y que la superficie total del cuerpo humano es del orden del metro cuadrado (o sea, 10.000 cm2), eso supone aguantar un peso total del aire que está sobre nosotros de... 10.000 kilos. ¡Nada menos que 10 toneladas! Claro que se reparten por toda la superficie —la presión en un fluido se reparte en todas direcciones— y, además, nuestro organismo, y el de todos los demás seres vivos que nos rodean, está diseñado para aguantar esa presión gracias a la estructura de nuestro esqueleto y nuestros músculos. Es más, no podríamos vivir sin ese enorme peso sobre nosotros. Y la evidencia misma nos indica que ni nos enteramos de que está ahí.

Es curioso, porque ese peso parece considerable, pero los seres humanos siempre pensaron que el aire era muy liviano, que no pesaba gran cosa, si es que pesaba algo. Ya vimos que los griegos pensaban que era un ente inmaterial, un elemento esencial de la naturaleza. Pero no; sin duda el aire pesa poco, comparado con las cosas más corrientes que nos rodean: su densidad equivale muy aproximadamente a la milésima parte de la densidad del agua, o sea, el aire pesa mil veces menos que el agua. Aun así, es tan enorme la cantidad de aire existente en el conjunto de la atmósfera que su peso total es del orden de 5.000 billones de toneladas, un 5 seguido de 15 ceros (en potencias de diez sería 5.1015).

Volvamos a la troposfera, porque a todos los efectos la atmósfera en meteorología y climatología se reduce a la troposfera. A partir de aquí sólo mencionaremos a la estratosfera, la capa de ozono o la ionosfera cuando tenga alguna relevancia para aspectos meteorológicos concretos...

Bien, está claro que la atmósfera no es homogénea en vertical, aunque mantiene más o menos la misma proporción de gases que en la superficie. Eso sí, la disminución con la altitud del vapor de agua y las partículas en suspensión no carece de relevancia...

Pero ¿y a lo largo y ancho del planeta? ¿Cuál es la variación del aire y sus componentes en las distintas regiones?

Por lo pronto, precisamente el vapor de agua en el aire es extremadamente variable, entre 0 y hasta un 4 por 100 del total. Lo cual es una diferencia enorme y, sobre todo, impide ofrecer una cifra media que represente la humedad global del planeta. En temas de cambios climáticos, la cuantificación del balance del agua —en estado gaseoso, líquido o sólido— supone uno de los retos más importantes a los que se enfrentan los científicos.

Conocemos mal ese balance en la actualidad, y aún conocemos peor la influencia que pueden tener en él los combustibles fósiles, esencialmente los hidrocarburos, compuestos de carbono e hidrógeno que, al arder —la combustión es una oxidación violenta—, producen dióxido de carbono y vapor de agua, amén de muchos otros productos, a menudo tóxicos. Y si ese conocimiento imperfecto ocurre hoy, con toda la ciencia y la tecnología a nuestro alcance, es obvio que aún conoceremos peor —de hecho, apenas alcanzamos a emitir algunas hipótesis— el balance del agua en la atmósfera de tiempos pasados...

El agua atmosférica no sólo está en forma de vapor, o sea, gas invisible, sino que también existe en forma de agua líquida en suspensión generalmente visible —niebla, nubes— e incluso en forma de hielo, en las nubes más altas, los cirros.

Todo eso supone una cantidad más que considerable: nada menos que en torno a 12.000 kilómetros cúbicos de agua se mantienen de forma permanente en el aire del planeta. Pero lo interesante es que la cantidad de agua que cambia de fase, esencialmente por evaporación y condensación, es cada año del orden de medio millón de kilómetros cúbicos. Sabiendo que un kilómetro cúbico son mil millones de toneladas (un metro cúbico de agua es una tonelada), la evaporación y condensación del agua en todo el planeta supone cada año un intercambio de 500 billones de toneladas, un 5 seguido de 14 ceros. En potencias de diez, 5.1014.

Cuando hablábamos en páginas anteriores del calor latente en los cambios de fase, tomando el ejemplo de la evaporación-condensación del agua en el seno del aire, no vimos cuál era la cifra del paso del agua sólida (hielo) a líquida, el llamado calor latente de fusión: a cero grados es del orden de 80 calorías por gramo. Por su parte, a 100 grados el calor latente de vaporización es de 540 calorías por gramo; aunque a 20 grados, que es una temperatura normal en la superficie terrestre, es ya de 585...

Basta imaginar, sin calcularla, la cantidad de gramos de agua que hay en esos 500 billones de toneladas que cambian de líquido a gas, e inversamente, para darnos cuenta de la gigantesca energía necesaria para ese proceso; algo que, sin embargo, suele pasarnos desapercibido, a pesar de ser el responsable básico de las lluvias, las nieves, las tormentas y toda una extensa panoplia de meteoros de todo tipo.

¿De dónde sale tan fabulosa cantidad de energía? ¿Cuál es el combustible real que sustenta de manera permanente a la máquina atmosférica? Cuando analicemos más adelante los meteoros, veremos que el número de tormentas que se dan en el planeta es de unas 45.000 al día; y cada una de ellas equivale en disipación de energía a doce de las más potentes bombas nucleares, de las que hoy poseen —lástima— unas cuantas naciones. Es, pues, como si en la atmósfera explotaran medio millón de bombas atómicas al día... sin radiactividad, claro; hablamos sólo de energía. ¿Energía empleada cómo? Sencillamente en procesos de evaporación y condensación de agua, movimientos de aire y agua, precipitación, reequilibrio electrostático, ruido... ¿Y de dónde sale toda esa energía, en este caso sólo referida a las tormentas? Sólo hay un candidato posible: el Sol.

2.4. El tiempo y la humanidad

2.4.1. Meteorología y sociedad: el «hombre del tiempo»

En el último medio siglo, en España al menos, el primer contacto de la sociedad civil con el mundo de la meteorología debió ser, sin duda, a través del hombre del tiempo de la radio, y luego de la tele. El honor le corresponde, sin lugar a dudas, a Mariano Medina, el auténtico y genuino —por ser el primero— «hombre del tiempo», que comenzó a emitir sus pronósticos, siempre serios y ponderados, por la radio a través de Radio Madrid y su red de emisoras, hoy Cadena Ser. De hecho, fue el popular locutor de la época, Bobby Deglané, quien en su famoso programa Cabalgata Fin de Semana le bautizó con aquello de «hombre del tiempo», a mediados de los años cincuenta.

Pero su salto a la fama, y con él el salto a la fama de la meteorología como ciencia, fue definitivo un año después cuando su mano maquillada comenzó a aparecer diariamente en los espacios informativos de los primeros programas de televisión en España, que se emitían entonces desde unos pequeños estudios situados en un chalet del Paseo de la Habana de Madrid. Aquella mano —lo de maquillada es una anécdota que contaba él, con su peculiar gracejo toledano y medio en serio, medio en broma, aduciendo «que si no, parecería la mano de un cadáver»— iba señalando sobre un mapa los rasgos distintivos del análisis del tiempo que había hecho, y del tiempo que iba a hacer. Y ahí fue cuando muchos españolitos de a pie, entre ellos el que escribe estas líneas, comenzamos a saber lo que eran aquellos extraños nombres que se le aplicaban a aquellas no menos extrañas rayitas más o menos concéntricas: isobaras, borrascas, anticiclones, frentes fríos, cálidos y ocluidos, barcos K, J y algunos más, corriente en chorro...

Incluso el lenguaje más común sonaba, en aquella nueva ciencia, poco real: en lugar de cielo más o menos nublado había que decir nubosidad variable; en lugar de chaparrón, aguacero, zarpín de agua, lluvia a manta, tromba de agua, jarreo y demás palabras del castellano más vulgar, la palabra «seria» era, sencillamente, chubasco. Que, dicho sea entre paréntesis, suena mucho mejor, nadie lo dude: a nadie se le ocurre proteger su ropa de la lluvia con un chaparronero o un zarpinero, pero todo el mundo sabe que un chubasquero protege mejor que una simple gabardina. En lugar de «hace un frío que pela» había que decir «paulatino descenso térmico». En lugar de «tiempo revuelto» era mejor lo de «nubosidad muy variable alternando con claros». Y cosas así...

Con Mariano Medina aprendimos todo aquello, sí; pero muchas cosas más. Por ejemplo, que divulgar ciencia era posible; y que lo era captando además la atención de las gentes. O bien que las aplicaciones de la ciencia, incluidas las predictivas, eran las más de las veces acertadas aunque no infalibles (la ciencia no es amiga de los absolutos, sino de los relativos). Que se puede hablar en radio y televisión de manera seria y no de forma burlona (porque también hubo falta de seriedad en algunas posteriores presentaciones meteorológicas, con apuestas de bigotes de lo más desafortunadas)... Aprendimos, en suma, que el conocimiento científico tiene muchas caras, algunas de las cuales pueden llegar a ser populares.

Sus primeras apariciones —con la voz en off y mostrando sólo el antebrazo y la mano— tuvieron lugar ya en los primeros programas de la incipiente TVE, en 1956; exactamente, el 30 de octubre. Algún periódico lo llamó «el brazo de Santa Teresa», porque parecía un milagro que se pudiese anunciar el tiempo que iba a hacer con aquella seriedad y con aquel rigor... Lo curioso es que comenzó sin cobrar, porque era una petición de la televisión incipiente al Servicio Meteorológico Nacional de entonces, en el que Medina era ya un destacado predictor.

En aquel momento habría en toda España no más de un centenar de televisores. La señal sólo llegaba, de hecho, a algunos barrios del norte de Madrid... Mariano pintaba sobre una pizarra que tenía una silueta del mapa de Europa y norte de África sus isobaras y frentes, y luego se le veía el brazo que marcaba, con una tiza en la mano, aquello que más importaba.

Tiene gracia el hecho de que Medina, en aquellos primeros tiempos, no estaba nada conforme con el título que le ponían a su sección: «Del observatorio al receptor». Luego cambiaron ese título por algo quizá peor: «Tiempo probable». Desde luego, a él nadie le pidió su opinión. La idea de Deglané le había parecido interesante, y aunque a las autoridades televisivas de la época les pareció más bien frívola, Mariano Medina acabó incluso patentando lo del hombre del tiempo, por si acaso daba algún rendimiento, que nunca se sabe. Eran tiempos achuchados, y él comenzaba a tener ya una familia más que numerosa. Pero, claro, si un buen científico, honesto y trabajador, pretende ganar mucho dinero con la divulgación de su ciencia, la verdad es que no lo tuvo fácil ni antes, ni lo tiene fácil ahora...

Inicialmente, en la tele sólo había telediario a las nueve de la noche, y después venía el espacio del tiempo, siempre después de Internacional y Deportes; las tres marías, como se decía en la tele... Más adelante, comenzaron las emisiones matinales, y hubo otro informativo a las tres de la tarde; y vinieron las exigencias de un espacio del tiempo el sábado y el domingo. Total, que Mariano echó mano de su hermano Fernando, otro excelente profesional, más joven que él pero que había seguido sus pasos en el Servicio Meteorológico. La voz ronquilla y el bigotito de Fernando pronto se hicieron tan populares como la seriedad imperturbable de Mariano, el mayor y más sabio, como siempre decía su hermano de él. Los hombres del tiempo salían ya en pantalla, unas veces de pie frente a los mapas, otras sentados detrás de una mesa, como los demás locutores del telediario.

La imperturbabilidad de Mariano era proverbial; cuando todavía estaban en el Paseo de la Habana, Laura Valenzuela contaba que Blanca Álvarez y ella misma —Blanquita y Laurita se decía por entonces— le borraron a Mariano de su pizarra (que iba sobre ruedas para colocarla cuando tocara) las isobaras y los frentes, dibujando en su lugar unas florecitas y unos pajarillos. Cuando Mariano fue a explicar el tiempo, observó aquella pizarra y, sin inmutarse, dijo sin apenas sonreír: «Pues nada, ya lo ven, buen tiempo»...

No era un hombre extravertido ni jaranero; un estudioso y excelente padre de familia, sí; pero no tenía nada de un juerguista. Otra anécdota que le retrata bien es la de aquel programa de Navidad que preparaba TVE en los años sesenta. Todos los «famosos» tenían que hacer alguna gracia, y a él sólo se atrevieron a pedirle que hiciera, más o menos en serio, un pronóstico del tiempo para todo el año entrante. Mariano sabía que el programa iba de buen humor, y como lo del pronóstico anual le sonaba a herejía científica —hoy sigue siendo una predicción imposible—, acabó preparando unos versos, imitando a Lope de Vega («Un soneto me manda hacer Violante...», pero empezándolo como «Un soneto me manda hacer la tele...»). Acabó declamándolos todo serio, vestido de esmoquin pero, eso sí, con múltiples confetis y serpentinas por encima de la chaqueta.

Mariano Medina había nacido en 1922 y falleció en 1994. Trabajó en Televisión Española entre 1956 y 1985, año en que hubo de dejarlo por haber sido declarados absurdamente incompatibles ambos trabajos, el de la meteorología oficial y el de la tele. Treinta años de magisterio y buen hacer en el campo de la divulgación de una rama de la ciencia que hasta entonces casi nadie consideraba con seriedad.

Gracias, Mariano. Dondequiera que ahora estés, debes saber, y deben saberlo los tuyos, que presides un lugar especial en el fondo de la memoria de muchos de nosotros. Aquel primer libro tuyo, ilustrado por Manolo Summers, titulado El tiempo es noticia nos abrió los ojos a muchos para acercarnos con curiosidad, y luego con pasión, a esa disciplina que yacía en el abultado cajón de los estudios de las ciencias físicas, un poco arrinconada por otras disciplinas de mayor renombre y tronío, como la física atómica, la electrónica o la astrofísica.

Ya en los años ochenta comenzaron a proliferar en las distintas cadenas televisivas muchos otros hombres y mujeres del tiempo que siguieron la estela de aquellos pioneros. Uno de los más antiguos acaba de jubilarse, el excelente meteorólogo José Antonio Maldonado, que inició sus colaboraciones televisivas en la Primera Cadena de TVE en los años setenta, y acabó siendo el responsable de todas las informaciones meteorológicas de Televisión Española, un cargo que mantuvo durante casi cuatro decenios y que, cuando hubo de asumirlo, le exigió dedicación plena a la tele, dejando sus labores profesionales en la meteorología oficial. Por esa razón, no hay duda de que si Mariano Medina fue el primer hombre del tiempo, Maldonado fue el primer meteorólogo de televisión que ejerció su oficio con absoluta dedicación y exclusividad. Ambos abrieron caminos nuevos para una profesión difícil y minoritaria, y ambos merecen respeto y reconocimiento a una labor de muchos años abriendo sendas hasta entonces nunca transitadas en el difícil oficio de la divulgación meteorológica.

Por supuesto, en la actualidad ni la presentación formal ni la precisión del pronóstico tienen nada que ver con lo que se hacía en los tiempos pioneros de Mariano Medina y sus inmediatos seguidores. De aquellas pizarras con tiza, o de aquellos mapas mudos pintados con rotulador hemos pasado a las animaciones por ordenador, las imágenes de radar que muestran precipitaciones reales, o las panorámicas desde satélite que muestran, en diferentes espectros —vapor de agua, luz visible, infrarrojos...—, la evolución de los sistemas nubosos o las áreas de estabilidad.

Por fortuna, uno de los elementos sustanciales de las primeras informaciones del tiempo que popularizara Medina sigue siendo el núcleo central de estos espacios informativos: el mapa de isobaras, con sus borrascas, frentes y anticiclones. Sólo que ahora ya casi nadie necesita que se le explique que la B de borrasca significa tiempo inestable, que los frentes significan lluvias generales, que la A del anticiclón quiere decir tiempo estable y, en invierno, muchas nieblas... La labor pionera de Mariano Medina y luego de los demás hombres y mujeres del tiempo ha dado sus frutos; con todo, y aunque la cultura científica de la España de hoy está lejos de la ignorancia supina de hace medio siglo, todavía queda un largo trecho por recorrer.

Gracias a la red de redes es posible hoy consultar los modelos de predicción y análisis no ya de los mejores observatorios españoles, sino los de muchos otros países o de organismos supranacionales. Por ejemplo, las predicciones del Centro Europeo de Predicción a Plazo Medio de Reading (CEPPM, en inglés ECMWF, www.ecmwf.int/) son sumamente fiables en general, y se atreven a llegar hasta siete días de plazo...

Desde siempre los hombres y mujeres del tiempo tuvieron mala fama entre los profesionales que se dedican al turismo. Quien estas líneas firma tuvo un encuentro epistolar no muy grato en los años setenta con una asociación turística de Galicia que llegó a quejarse formal y amargamente, mediante escrito oficial con copia sellada a la Dirección General de TVE, de que habíamos anunciado que en Galicia había llovido el día anterior y llovería al día siguiente. Según su denuncia textual, los «señoritos de Madrid» no tenían ni idea del tiempo que hacía en Galicia y se fiaban «a ojo» del sentir popular: tiempo soleado en el Mediterráneo, lluvia en Galicia y en el Cantábrico (literalmente). Todo ello, por supuesto, porque estábamos subvencionados por los hosteleros levantinos; aducían, en concreto, que precisamente aquellos días habían sido muy soleados en la inmensa mayoría de Galicia y que, por ejemplo, la capital pontevedresa —donde dijimos en la tele que habían caído doce litros por metro cuadrado el día anterior— tuvo una jornada plenamente soleada, con cielo azul y muy pocas nubes a lo largo del día.

Como la queja llegó por vía oficial, hubo que preparar una respuesta razonada y también oficial, para que la firmase el responsable de la tele. Mi respuesta constó de dos elementos informativos fundamentales: primero, que los supuestos señoritos de Madrid no nos inventábamos las cosas sino que nos basábamos en los datos proporcionados por los distintos observatorios gallegos, cuyos profesionales obviamente residían allí, que era donde medían sus parámetros meteorológicos. Y segundo, que esos datos remitidos desde distintos observatorios habían arrojado aquellos doce litros en Pontevedra, y cifras similares en otros lugares de Galicia, el día anterior, que hubo otros tantos al día siguiente tal como habíamos predicho, e incluso al tercer día siguió lloviendo una cantidad aún mayor.

¿Quién tenía razón? Aparentemente nosotros, claro: los datos del observatorio pontevedrés eran indiscutibles. Pero el caso es que los hosteleros gallegos también tenían su parte de razón. Porque aquellas lluvias registradas en los pluviómetros gallegos se habían producido entre las tres de la madrugada y las nueve de la mañana; luego el cielo se abrió y lució el Sol el resto del día, con alguna nube suelta. Durante la noche siguiente volvió a llover bastante a partir de la medianoche y hasta la madrugada, y el cielo quedó luego con nubes y claros durante el día. Y al tercer día hubo chaparrones aislados y frecuentes a lo largo de la noche y del día, aunque alternando con largos períodos en los que hubo grandes claros.

O sea que sí, de día hubo mucha luz solar directa, pero si se cuenta el total de las 24 horas —que eso es el día completo—, en esas jornadas se recogieron cantidades nada desdeñables de lluvia, tanto en Pontevedra como en muchas otras zonas de Galicia. Que eso pueda o no considerarse como «buen tiempo», como aducían los hosteleros, es ya una cuestión de apreciación social, pero no científica...

¿Hubiera convenido haber matizado la información en la tele? Quizá sí; pero entonces en lugar de dos minutos de programa meteorológico para toda España serían necesarios al menos quince o veinte, para poder entrar en semejantes detalles para todas las regiones españolas.

Qué cierto resulta el dicho según el cual nunca llueve a gusto de todos. O, como dicen en Italia, «piove, porco governo!». Y, eso es seguro, son una vez más los señoritos de la tele los que se equivocan... No es nada fácil ser hombre del tiempo; siempre te quedas corto... o largo. Al margen de que las predicciones —hoy muchísimo más acertadas que hace cuarenta años— nunca son exactas al cien por cien. Y, lo que quizá sea aún peor, han de ser siempre explicadas en muy poco tiempo, lo que impide matizar detalles que, en un país como España, siempre acaban resultando esenciales para el pronóstico.

2.4.2. Meteoropatías

Los seres humanos no somos animales terrestres sino más bien aéreos; nuestro contacto con el suelo no es muy grande comparado con nuestro contacto con el aire. Incluso si nos tumbamos en una playa, hay más superficie del organismo en contacto con el aire que con la arena; y andando o estando de pie, la relación es de 95 a 5...

¿Por qué tiene importancia este hecho tan banal, en el que casi nunca solemos reparar? Pues simplemente porque, igual que les ocurre a los peces en el agua, cualquier variación en las condiciones físicas y químicas de la atmósfera puede afectar a nuestro organismo por el simple hecho de estar permanentemente en contacto con el aire. Algo que se hace aún más patente si consideramos que, además, casi 3.000 litros de aire penetran cada día en nuestro organismo a través del sistema respiratorio.

¿Quién podría, pues, extrañarse por el hecho de que nos afecten los cambios que se producen en el tiempo atmosférico? Y, sin embargo, muy pocas personas se dan cuenta de esta evidencia; y cuando alguien declara que ha sentido dicha influencia, suele ser considerado con cierta desconfianza, como alguien dado a la exageración.

Desde luego, los organismos aerícolas —todos los que no vivimos dentro del agua— estamos bastante bien adaptados a vivir sumergidos en el aire, y estamos adaptados a soportar las presiones y temperaturas de la atmósfera, lo mismo que los peces lo están para vivir dentro del agua, mil veces más densa que el aire. Pero eso no quita para que, en determinadas ocasiones, podamos notar, incluso patológicamente, que esa forma de vida en el seno del aire no es tan inocua como pudiera parecer a primera vista. De ahí el concepto de meteoropatología, o meteoropatía.

El hecho de que algunas personas sean más meteorotrópicas —es decir, sensibles a los cambios fisicoquímicos de la atmósfera— sólo significa que, al igual que ocurre con otras circunstancias vitales como la alimentación o el sueño, los humanos somos muy diversos, aunque todos pertenezcamos a la misma especie y tengamos que compartir un entorno natural común en este planeta.

Quizá el primer factor de influencia sobre el organismo se deba a la electricidad. La atmósfera sin nubes posee un campo eléctrico del orden de 100 a 150 voltios por metro, que puede incrementarse por culpa de la radiación solar y el tiempo estable por aumento de los iones positivos del aire. Es un fenómeno bien distinto del que aparece bajo las nubes de tormenta, cuando ese campo eléctrico entre la base de la nube y el suelo llega a ser de hasta millones de voltios por metro.

Cuando estamos muy cerca de la tormenta, muchas personas lo «sienten»: la resistencia eléctrica de la piel se modifica, lo que afecta al ritmo cardíaco y cerebral, incluso al metabolismo; muchos aseguran estar difusamente inquietos, nerviosos, y en los casos más extremos, incluso más agresivos, y a veces con ahogos algo angustiosos de origen indeterminado. Todo ello es consecuencia del gigantesco campo electromagnético engendrado por la nube tormentosa; se habla de «aire cargado», de bochorno... Tan molestas sensaciones desaparecen una vez que los cumulonimbos han descargado sus chubascos y, sobre todo, sus rayos y truenos. Una vez pasada la tormenta, se recupera el anterior equilibro electrostático de la atmósfera.

Los campos eléctricos, especialmente la mayor o menor abundancia de iones positivos, fueron estudiados desde los primeros decenios del siglo XX. Dos expertas españolas de «antes de la guerra» y que luego pudieron acoplarse, con mayor o menor dificultad, al subsecuente período franquista, Felisa Martín Bravo (1898-1974) y Antonia Roldán (1913-2005), iniciaron los primeros trabajos serios en torno a la electricidad atmosférica. La primera había sido la primera mujer doctora en Ciencias Físicas de España, en 1926, y aunque sus primeros trabajos fueron sobre rayos X, pronto derivó hacia el mundo de las radiaciones de radiofrecuencia, preocupándose entre otras cosas por averiguar hasta qué punto estaban justificados los saberes populares acerca de las supuestas influencias atmosféricas sobre la salud. Por ejemplo, los famosos «barruntos» de Aragón y otras formas populares de anunciar cambios de tiempo a corto plazo.

Martín Bravo trabajó en Londres con el famoso Nobel de Química, el físico Ernest Rutherford (1871-1937), padre de la teoría atómica moderna y, sobre todo, trabajó después con Charles Thomson Rees Wilson (1869-1959), el padre de la famosa «cámara de niebla», también premio Nobel y que se dedicaba en los años treinta a temas meteorológicos relacionados con la ionosfera y los campos eléctricos atmosféricos. Wilson ya era una autoridad mundial en esos temas, y Martín Bravo aprendió de él, entre otras cosas, la utilización de los sondeos atmosféricos como elemento de análisis y predicción del tiempo, tarea que luego aplicaría ella en España para temas aeronáuticos.

Pudo ingresar en el Servicio Meteorológico en 1931 y cesó en 1937, ya en plena guerra civil. Tras la contienda, se reincorporó a la meteorología nacional y elaboró diversos trabajos en torno a los campos eléctricos en el aire, los iones positivos e incluso su posible efecto sobre la salud. Algunos de sus trabajos fueron Corrientes eléctricas verticales originadas por la acción de las puntas bajo nubes tormentosas, lluvia y otros meteoros, en 1943, o bien Modernas investigaciones sobre electricidad atmosférica, en 1945.

Por su parte, Antonia Roldán trabajó antes de la guerra, nada más terminar la carrera, con el famoso físico Julio Palacios —quien tenía una monomanía, difícilmente comprensible en un sabio como él, en contra de la relatividad de Einstein—, y en 1935 preparó su tesis doctoral con el no menos famoso meteorólogo y catedrático de geofísica Arturo Duperier, precisamente en temas sobre electricidad atmosférica y radiación cósmica. La posguerra llevó a Duperier al exilio, y Roldán sólo pudo trabajar por su cuenta en el campo de los iones atmosféricos de manera esporádica, aunque transmitió algunas de sus ideas a otros colegas, entre otros quien estas líneas escribe, que tuvo la fortuna de compartir despacho con ella durante muchos meses, en los primeros años setenta.

El caso es que, medio siglo después de aquellas pioneras investigadoras españolas en el campo de la electricidad atmosférica, aún seguimos sin conocer bien el cómo y el porqué de la influencia de dicha electricidad sobre el organismo humano. Una tesis doctoral escrita a mediados de los años ochenta por un neurólogo aragonés, el doctor Javier López del Val, demuestra que los famosos barruntos (en Canarias los llaman abarruntos) de su tierra y, en general, las predicciones sobre cambio de tiempo que parecer ser capaces de realizar ciertos pacientes, son absolutamente verificables. Ese trabajo revela cómo existe una muy superior incidencia de accidentes cerebrovasculares cuando se producen ciertos cambios atmosféricos bruscos en la presión atmosférica con el paso de un frente, o bien poco antes y poco después de descargar una tormenta. Es probable que la causa tuviera mucho que ver con los iones del aire, tal y como estudiaron casi medio siglo antes las meteorólogas antes citadas.

Para el doctor Javier López del Val, miembro de la Real Academia de Medicina de Zaragoza, los iones negativos —tal y como sugerían diversos estudios previos— son en cierto modo protectores y beneficiosos, mientras que los iones positivos tienen efectos adversos, caracterizados por inducir en personas sensibles leves depresiones nerviosas, e incluso cierta reducción de la actividad inmunitaria, además de una mayor sensibilidad cardiovascular y otros síntomas que pueden agravar una dolencia que quizá hasta entonces estaba sólo en estado latente o simplemente era ignorada.

Diversos estudios realizados desde entonces en España y en otros países parecen confirmar, en efecto, que un aumento relativamente brusco de los iones positivos se registra unas horas antes de algún fenómeno atmosférico con cambio de las condiciones imperantes. Eso es bastante obvio en el caso del campo eléctrico de la nube de tormenta, mientras está alcanzando su máximo desarrollo y antes de descargar su panoplia de chubascos, rayos y truenos; pero lo interesante es que también puede ocurrir en otras situaciones como el mantenimiento de un viento catabático —que desciende por una ladera— o el paso de un frente frío especialmente activo, incluso cuando se produce un descenso brusco de la temperatura y la humedad, o de la misma presión atmosférica.

Las personas más sensibles —más meteorotrópicas, podríamos decir— suelen ser los niños pequeños y los mayores de setenta años, y más en el sexo femenino que en el masculino; también son más sensibles los enfermos vasculares, los artríticos y reumáticos, y los diabéticos; incluso, curiosamente, los depresivos. En conjunto, se estima que un tercio de la población humana se ve afectada por esta sintomatología, aunque en muy diversos grados de intensidad. Todas esas personas no sólo «sienten» mejor esos cambios de tiempo a través de diversas manifestaciones orgánicas —la inquietud es la más común, pero se dan muchas otras bien diferentes, siempre asociadas a cierto malestar—, sino que también los padecen de manera mucho más patológica. En muchos humanos meteorotrópicos abundan luego las crisis orgánicas, en general más bien leves; en raras ocasiones pueden revestir una gravedad más preocupante, que llega muy ocasionalmente al infarto, al suicidio, a la conducta agresiva ciega...

Las personas en extremo sensibles acusan mucho más el exceso de iones positivos, originados por las altas temperaturas y la sequedad del aire, que el calor en sí. Aunque lo uno sea probablemente inseparable de lo otro. Hasta el punto de que se ha llegado a recomendar el uso de aparatos generadores de iones negativos —la duda es si la producción de esos iones es suficiente como para contrarrestar el exceso atmosférico, quizá sea una producción inapreciable— y, por supuesto, el hecho de hacer correr el agua salpicando: fuentes con chorros, incluso duchas de agua fresca... En este caso no es tanto el refrescamiento —a la vez psicológico y real— producido por el agua que salpica, cuanto la producción de iones negativos precisamente por esas salpicaduras de los chorros líquidos. Eso explicaría por qué sentimos cierta sensación de bienestar cuando estamos cerca de una zona en la que hay agua salpicando, como los típicos patios andaluces con fuente, y no digamos las proximidades de una catarata o incluso un salto de agua de tamaño reducido.

Conviene advertir que todo esto nada tiene que ver con el hecho de que, según el estado del tiempo, haya o no una mayor propensión a que se propaguen enfermedades e incluso epidemias. Es sabido, por ejemplo, que la gripe es muchísimo más abundante al final del otoño y en invierno que el resto del año; el descenso de temperaturas y la humedad ambiente parecen propiciar la proliferación del virus correspondiente, junto con un descenso de la efectividad del sistema inmune de la población, derivado precisamente de la llegada de los días cortos y noches largas. Todo lo cual podría ser propicio para las irritaciones en las vías respiratorias, por ejemplo.

También se ha observado que el hecho de existir en el aire partículas de tamaño grande, es decir, visibles, puede ir asociado a la proliferación de agentes patógenos. Por ejemplo, en climas húmedos muchas partículas carbonosas procedentes de la combustión de motores en zonas industriales o urbanas pueden rodearse de una fina película de agua que puede transportar microbios u hongos patógenos capaces de provocar un rebrote, incluso de enfermedades no comunes.

Ese tipo de fenómenos afectan en principio a toda la población, pero en este caso se trata de una vía más de contagio masivo que otra cosa. En cambio, las meteoropatías a las que estamos aludiendo sólo afectan a las personas más sensibles.

En todo caso, hace ya medio siglo que comenzaron a internacionalizarse estos estudios, y una de las revistas de referencia, en inglés, quizá sea ahora International Journal of Biometeorology, que comenzó a publicar trimestralmente la editorial Springer en 1957, y que desde el año 2006 tiene frecuencia bimensual.

Mención aparte merece el efecto Föhn, un fenómeno bien conocido y estudiado en Baviera, que produce efectos detectables en una mayoría de personas —más del 50 por 100 de la población— y que se da prácticamente en todo el mundo, siempre que las características de relieve y clima sean similares: a sotavento de las cadenas montañosas y con viento perpendicular a ellas, que sube por una ladera y baja luego por la otra.

El término Föhn es alemán (aire cálido) y también se suele escribir como Foehn. Es el nombre de una localidad austríaca, a sotavento de los Alpes, y seguramente procede del latín Favonius (viento del oeste suave, el Céfiro de los griegos), ya que en Suiza este viento se llama Favogn.

Desde tiempos inmemoriales se sabe de su efecto sobre la salud humana, aunque sólo recientemente se ha podido determinar que ello se debe a las notables alteraciones en la electricidad del aire originadas al pasar el viento al otro lado de una montaña contra cuya vertiente de barlovento (la que encuentra el viento al avanzar) descargó su humedad —condensándola en nubes y produciendo precipitaciones— para luego descender, más seco y cálido, por sotavento.

En las regiones alpinas se pensaba antiguamente que era un viento de origen africano, pero ya a finales del siglo XIX el meteorólogo austríaco Julius von Hann (1839-1921) supo que aquel fenómeno, que conocía desde su niñez, también había sido descrito a sotavento de las montañas del sur de Groenlandia, donde el clima es más suave que en las mismas costas del otro lado de las montañas, las que miran a América, debido a que los vientos dominantes son del oeste. Dedujo que aquel efecto Föhn, como se le conocía desde tiempo inmemorial, nada tenía que ver con los vientos africanos, sino con un fenómeno local ligado a la termodinámica aérea al atravesar una cordillera: si una masa de aire frío y húmedo es impulsada por el viento contra una cadena montañosa, asciende por la ladera de barlovento produciendo muchas nubes y precipitaciones, para luego descender descargada de humedad por la ladera de sotavento. Como el aire seco se calienta y se enfría con la altura más rápidamente que el aire húmedo, al mismo nivel de altitud de sotavento el aire es más seco y cálido de lo que era en esa misma altitud a barlovento.

Ese incremento térmico, que puede ser de muchos grados en montañas tan altas como los Alpes, propicia la fusión acelerada de las nieves y puede provocar avalanchas y aludes, a la vez que incrementa notablemente el caudal de los ríos de sotavento. Y, lo que es peor, afecta a las personas y los animales. Tanto que, por ejemplo, en muchas localidades de Baviera o Austria, en días de viento Föhn muy marcado incluso se llegan a aplazar las intervenciones quirúrgicas que no son urgentes. Hubo una época en que los crímenes cometidos en esos días gozaban de una atenuante derivada del viento Föhn, porque se suponía que las personas eran menos dueñas de sus actos.

Los primeros trabajos en torno a la meteoropatía causada por el viento Föhn se deben al médico austríaco del siglo XIX Anton Czermak; él la llamaba con su apelativo popular, Föhnkrankheit, es decir, enfermedad del Föhn. Más tarde, a comienzos del siglo XX, un estudio de la Universidad de Munich demostró que los suicidios y accidentes de todo tipo se incrementaban en promedio un 10 por 100 en los casos de Föhn normales, y bastante más cuando el fenómeno se hacía intenso y duradero. Por su parte, los canadienses estudiaron igualmente en la primera mitad del siglo pasado el efecto del Chinook, relacionándolo con un recrudecimiento de las migrañas. De hecho, en las prescripciones en alemán de la aspirina con la cafeína figuraba precisamente una alusión al alivio que podía producir frente a die Föhnkrankheit, la enfermedad del Föhn.

Un ejemplo sencillo, ligado a la ansiedad —a veces angustiosa— que muchas personas perciben antes de una tormenta a causa del intenso campo eléctrico entre nube y tierra, tiene que ver con la liberación de adrenalina y la cascada de acontecimientos bioquímicos que ello entraña: no sólo sensaciones psicológicas negativas sino también modificaciones endocrinológicas, que afectan a los niveles de azúcar en sangre, a la relación entre diversos iones orgánicos como el calcio y el potasio, además del sodio, el magnesio y otros muchos componentes ionizados del organismo.

Uno de estos autores, el israelí Felix Gad Sulman (1907-1986), fue no sólo un científico relevante y conocido investigador de la Universidad Hebrea de Jerusalén sino también un músico reputado, especialista en música religiosa del siglo XVI esencialmente coral. Muchas de sus investigaciones tuvieron que ver con la meteorosensibilidad de los seres vivos, y especialmente de los humanos. Incluso propuso la clasificación de las personas en cinco tipos constitucionales desde el punto de vista meteorotrópico: balanceado o equilibrado, vagotónico, simpaticotónico, serotonínico y tiroideo.

Por cierto, cabe señalar que en la época del imperio árabe del califato de Bagdad, rival del califato de Córdoba, la ley consideraba una atenuante el hecho de soplar el viento Jamsín o Jarmatán, cuando se producía algún crimen. Y antes de eso, algunas versiones de la Biblia acusaron a ese mismo viento de ser el causante del comportamiento como mínimo discutible de Salomón cuando al final de su vida cayó en la idolatría, teniendo cientos de mujeres y concubinas. La verdad es que esto último sí que es difícil de creer...

Y ya Hipócrates (460-370) se había referido a la estrecha relación existente entre la salud y los cambios bruscos de tiempo, y mencionaba en particular la influencia negativa de los vientos austros (viento del sur) que «cargan la cabeza y dejan al cuerpo lánguido y perezoso». Por su parte, el bóreas, o viento del norte (los romanos lo llamaron aquilón), parecía producir «dolores y horripilaciones»... La Real Academia define horripilación, que no es palabra demasiado usual, como «estremecimiento del que padece el frío de terciana u otra enfermedad».

O sea, que esta sensibilidad a las variaciones atmosféricas no sólo tiene componentes más o menos subjetivos, que sin duda ha de tenerlos, sino que constituye además una realidad biológica verificable, en función de algunas de las leyes más generales de la química y la física. En casos agudos incluso puede generar una especie de estrés meteorotrópico (o biometeorológico), con manifestaciones psíquicas patentes y también, en muchos casos, estrictamente fisiológicas.

La humedad relativa también debe jugar igualmente un papel determinante: un aire seco y recalentado —vientos desérticos en verano, por ejemplo— produce desazón y malestar general, induciendo incluso conductas violentas. En cambio, un aire demasiado húmedo, con más del 90 por 100 de humedad relativa, es agobiante y dificulta la respiración. Lo ideal es una humedad intermedia, del orden del 60 al 70 por 100, y a ser posible obtenida mediante salpicaduras intensas de agua en el seno de un aire relativamente seco, como ocurre en las proximidades de pequeñas cascadas o grandes fuentes urbanas, o bien en las fuentes con chorrillos que salpican, propias de pequeños patios o jardines interiores. No en vano los árabes hicieron de la Alhambra y los jardines del Generalife una especie de oasis de agua corriente, con fuentes y pequeñas cascadas de todo tipo.

2.4.3. Contaminación atmosférica

El aire contaminado es un viejo conocido de la humanidad. Durante la última glaciación, incluso a lo largo de todo el gélido Pleistoceno, los humanos inteligentes se refugiaron en cuevas para resguardarse de los rigores del clima. Dominaban el fuego y poseían cierta cultura, por rudimentaria que ahora nos parezca, que se manifestaba incluso en sus ritos funerarios, que indudablemente implicaban la idea de un más allá después de la muerte.

En la vida práctica, tanto para iluminarse como para calentarse utilizaban combustibles simples, esencialmente madera, aunque probablemente en algunos asentamientos debían conocer el carbón. Aquello debió originar grandes fogatas que, al resguardo de las cuevas, y por mucho tiro que éstas pudieran tener, debían producir unas humaredas dignas de mejor causa. Es más que probable que aquellas residencias provisionales ofrecieran protección pero a costa de un aire poco respirable. Se supone que no conocerían el tabaco, pero seguro que tenían los pulmones mucho más negros que los más adictos fumadores de hoy.

En un artículo antropológico publicado por la famosa revista Science hace algún tiempo se podía leer lo siguiente: «El hollín depositado en el techo de innumerables cuevas prehistóricas proporciona una evidencia amplísima de los elevados niveles de contaminación por humo en las viviendas trogloditas, que sólo podemos asociar a la reducida ventilación de los hogares frente al fuego de cocinar y calentarse».

La convivencia del ser humano con el humo generado por el fuego es, pues, muy antigua. Y aunque el impacto de esa contaminación específicamente antropogénica sobre el entorno natural debió de ser, obviamente, muy reducido —en total, había pocos seres humanos, y su capacidad tecnológica era obviamente muy limitada—, lo cierto es que su salud debió de resentirse notablemente por aquel ambiente viciado por el humo del interior de las cuevas... Bien es verdad que la esperanza media de vida de los humanos como nosotros —los neandertales desaparecieron hace 30.000 años— no debía ser por aquellas épocas, hace quince o veinte mil años, superior a los 25 años.

O sea que, al margen de ese efecto sobre su propia salud, las actividades de aquellos antecesores nuestros debieron de afectar bien poco al entorno natural. Desde luego, dominaban el fuego; con él conseguían transformar los alimentos y practicar algún tipo, todavía muy primitivo y reducido, de artesanía instrumental, agrícola y ganadera. Aunque lo esencial de su dieta se debía ante todo a su habilidad como cazadores, pescadores y recolectores.

Pero es obvio que el fuego —por extensión, la energía— y la incipiente modificación de una pequeña parte de la flora y de la fauna próxima a su hábitat hicieron ya del Homo sapiens de hace muchos milenios un contaminador en potencia. O sea, un transformador del medio natural según leyes diferentes a las hasta entonces vigentes. Con todo, lo hacían casi exclusivamente por razones de subsistencia.

Durante muchos siglos, el número de integrantes del género humano creció muy lentamente. Y ello a pesar de que los hombres iban sabiendo cada vez más cosas, e iban aplicando esos saberes a todas las facetas de su actividad, desde las meramente naturales —alimentación, reproducción, supervivencia— hasta las más abstractas, como la matemática o la astronomía. Desde las más inútiles pero gozosas, como las artes, hasta las menos naturales como, por ejemplo, la metalurgia o la carpintería. Eso sí, todas esas actividades tenían alguna repercusión ambiental que podría considerarse, en cierto sentido, contaminante.

Luego, al terminarse los fríos del Pleistoceno, el hombre del Holoceno, y hasta épocas recientes, fue aprendiendo a quemar bosques y atentar contra la biodiversidad introduciendo monocultivos agrícolas y ganadería extensiva. Y también emitió a la atmósfera humos y hasta gases tóxicos, sobre todo en zonas pobladas, ensució los ríos y las zonas costeras con sus desechos y, en suma, atentó contra su propio medio ambiente de forma similar a como lo siguió haciendo hasta hoy. Con dos diferencias notables: por una parte, los humanos consumíamos —es decir, transformábamos— energía de manera muy moderada (el consumo de energía «per cápita» era similar a la energía muscular que el propio ser humano puede proporcionar), y por otra éramos en total todavía muy pocos.

Se estima que al terminar el Pleistoceno apenas seríamos en total apenas uno o dos millones de humanos en todo el planeta. Luego, hace unos 2.000 años, la población total apenas sumaba cien millones de individuos. El crecimiento posterior fue lento, incluso con algún que otro retroceso; y así, en el siglo XVI, en la época de la Contrarreforma y el Barroco, la población mundial no llegaba siquiera a los 500 millones. A finales de ese siglo —cuando nació Juan Sebastián Bach, por ejemplo— la población humana del planeta Tierra comenzó a crecer a un ritmo lento, un 0,3 por 100 anual. Si se mantenía el crecimiento, se podría duplicar en 250 años: los mil millones de humanos se alcanzarían al filo del siglo XX. Pero, de hecho, se alcanzaron medio siglo antes, a mediados del siglo XIX.

La revolución industrial iba a incidir, de manera decisiva, en dos factores clave para los posteriores problemas de contaminación: el consumo de fuentes de energía y el incremento de la población. El desarrollo económico e industrial de los últimos dos siglos acabó asimilándose a una curva matemática fácil de visualizar pero difícil de comprender: la exponencial. Y es que cuando hay crecimientos rápidos también se generan cambios igualmente rápidos, lo que puede dificultar y, a menudo, impedir la adaptación de los sistemas vivientes a dichos cambios.

El desfase que se produce es lo que los autores de los célebres, y sin duda muy exagerados, informes al Club de Roma (Los límites del crecimiento, en 1971, Más allá de los límites del crecimiento, en 1991, y por último Los límites del crecimiento, treinta años después, en 2004) denominan overshooting, lo que puede traducirse con ciertas reservas por «sobrepasamiento». Algo que puede ser posible con este tipo de crecimientos exponenciales. Muchos de los problemas ambientales que debe afrontar el mundo de hoy, especialmente los ligados al crecimiento económico, al incremento de la población, a la extensión y generalización de la contaminación tóxica e incluso a la posible evolución de algunos parámetros climáticos, podrían tener mucho que ver con ese tipo de crecimientos exponenciales.

El caso es que algunos datos aportados por extracciones de hielo de Groenlandia, que corresponden a nieve depositada hace unos cuantos milenios, ya muestran el incremento de la contaminación en las épocas en las que comenzó la industria metalúrgica en Mesopotamia y luego en Grecia y también en China. Mucho más tarde, en el siglo XIII, el rey Eduardo I de Inglaterra hubo de prohibir, mediante un edicto en 1272, la quema de carbón en Londres por el espeso humo negro que invadía la ciudad por doquier. Un problema que, aun así, nunca se resolvió y que alcanzó cotas casi dramáticas cuando, a partir de mediados del siglo XIX, al humo de las chimeneas domésticas se añadió el de las industrias con las que la revolución industrial iba tapizando los entornos de las grandes ciudades, especialmente en zonas próximas a las minas de carbón.

Y no era sólo cuestión de aire sucio... Por ejemplo, en la que entonces era la capital del mundo, precisamente Londres, en el caluroso y seco verano de 1858 el Támesis presentaba un caudal inferior a lo normal. Tanto, que la suciedad que en él depositaba la gran ciudad —esencialmente basuras y deyecciones humanas— dio lugar a un episodio de pestilencia inaguantable en toda la ciudad que ha quedado consignado históricamente como el Gran Hedor (Big Stink) de Londres. Por cierto, además del mal olor, hubo epidemias de todo tipo, especialmente de cólera. Se asociaba al olor, a las miasmas del río...; y no sin razón, claro. A raíz de aquel dramático episodio, en la capital inglesa se inició la construcción de una entonces moderna red de alcantarillado que todavía hoy sobrevive en la red básica.

Incluso en la España de la segunda mitad de ese siglo XIX, mucho más atrasada industrialmente que el enorme —por aquel entonces— imperio británico, hubo un episodio que cubre de oprobio histórico a las autoridades de la época: el llamado Conflicto de los humos, que desembocó en los trágicos acontecimientos del 4 de febrero de 1888. Ese año fue conocido posteriormente como El año de los tiros, en alusión al ataque frontal del ejército —Regimiento de Pavía, al mando del gobernador civil de Huelva, Agustín Bravo y Joven— frente a una manifestación festiva de unas 12.000 personas, la mayoría familias con niños, que con bandas de música y pancartas efectuaban una mezcla de manifestación política y romería laica festiva, reclamando que se fuesen los humos y volviese la agricultura.

Disparos a bocajarro contra los asistentes, mientras muchos de ellos comían y bailaban, y luego ataque frontal con la bayoneta calada. Nunca se conoció el número de muertos, tanto adultos como niños, pero se sabe que fueron al menos dos centenares; la empresa causante del conflicto los enterró a toda prisa, con ayuda del ejército, en las escombreras de las minas.

¿Y por qué protestaban aquellas buenas gentes? El caso es que la región es, desde hace milenios, la sede de unos yacimientos de sulfuros metálicos (esencialmente, piritas de hierro y ferrocobrizas) de enorme interés, ya explotados desde la Edad del Cobre por tartesios y fenicios, luego por los romanos y, siglos después, por los almohades. Un industrial sueco compró las minas en el siglo XVIII, luego las recompró el estado, y finalmente fueron vendidas en 1873 a un consorcio británico que fundó la Riotinto Company Ltd. RTC siguió controlando el negocio hasta su incautación por el INI franquista en los años cincuenta.

Los ingleses querían sacar el máximo provecho a su inversión y comenzaron una explotación masiva con técnicas baratas pero bien experimentadas, las teleras. Se trata de gigantescas piras, como descomunales hormigueros que formaban un bosque de innumerables pirámides humeantes. En su interior, la lenta combustión de las piritas arrojaba a la atmósfera una humareda pestilente en la que predominaba el dióxido de azufre, hasta tal punto que toda la región, en muchos kilómetros a la redonda, estaba sumergida día y noche en una niebla tóxica de letales consecuencias, que no sólo arruinaba la salud de los trabajadores y sus familias sino que, además, condenaba a muerte a los cultivos y a los animales domésticos, contaminando además las aguas subterráneas y superficiales. Si había anticiclón, el humo de las teleras se acumulaba junto al suelo de modo que impedía incluso la respiración: los obreros y sus familias tenían entonces que huir a las cumbres cercanas. Por supuesto, en esos días de manta los obreros no trabajaban y, por tanto, no cobraban jornal...

Se suele decir que aquella manifestación brutalmente reprimida de 1888 fue quizá la primera protesta ecologista, pero no eran razones naturalísticas las que movían a los que protestaban sino de simple supervivencia ante una inhumana explotación de los obreros por un capitalismo salvaje, denunciado pocos años antes en Londres por un economista alemán, Karl Marx (1818-1883).

El caso es que con la llegada del siglo XX, tanto las grandes industrias y la metalurgia pesada como el acelerado desarrollo económico general que acabó por generalizarse en Europa, propiciaron emisiones crecientes de contaminantes y vertidos de todo tipo al ambiente, esencialmente al aire y al agua, e indirectamente, al suelo y al subsuelo. La situación empeoró aún más, ya bien entrado el siglo, al generalizarse los motores de combustión interna y los grandes generadores térmicos de electricidad, lo que propició un aumento desaforado del consumo de carbón, de petróleo y de sus diversos derivados.

Y eso que ya había habido algunos avisos. Por ejemplo, en 1881 las ciudades americanas de Chicago y Cincinnati hubieron de promulgar leyes a favor del aire limpio, y muchas otras urbes europeas y americanas siguieron su ejemplo años más tarde, ya iniciado el siglo XX. En 1930, en el valle belga del Mosa se produjo un episodio de intensas nieblas producidas por un anticiclón y que mantuvieron durante días una elevada humedad ácida por toda la zona. Al cuarto y quinto días de esa situación se registraba ya una mortalidad, por razones esencialmente cardiorrespiratorias, diez veces superior a la normal en esas mismas fechas: ¡un 1.000 por 100 más de mortalidad!

En 1948 fue también tristemente famoso el suceso ocurrido en la pequeña localidad americana de Donora, en el estado de Pennsylvania, muy cerca de Pittsburgh, a finales del mes de octubre: el anticiclón atrapó en las capas bajas del aire al humo industrial de unas fábricas metalúrgicas de zinc y acero, y en pocos días murió un centenar de personas por síndromes respiratorios agudos, quedando la mayor parte de la población con los pulmones dañados de por vida. Hasta tal punto que hoy se ha creado en la localidad, que cuenta con 5.500 habitantes, el Donora Smog Museum en recuerdo de aquel luctuoso suceso que duró algo más de una semana de aire cargado de humo venenoso. Una contaminación que fue, por cierto, cuidadosamente ocultada por las autoridades de la época.

El gobierno del estado, cuyos ingresos dependían en buena medida de la actividad industrial de la región, tardó aun así bastantes años en promulgar una ley que atajaba, con cierta contundencia por fin, aquel estado de cosas que, aunque con menos intensidad, se repetía cada vez que las condiciones meteorológicas impedían la renovación del aire. Es cierto que de aquellas fábricas relacionadas con el carbón y el acero vivía la mayor parte de la población, por lo que el episodio no dio lugar a revuelta popular alguna. De hecho, ese smog era habitual, y si hubiera habido protestas, éstas hubieran sido reprimidas por las empresas y los gobiernos, bajo la acusación de actividades comunistas, que era uno de los peores delitos que se podían cometer en Estados Unidos.

Pero el factor diferencial se daría una vez más en Londres, a pesar de que las ciudades americanas habían sido las abanderadas de la legislación ambiental. La Clean Air Act británica de 1956 puso remedio a una situación que venía repitiéndose en la capital desde finales del siglo XIX, cuando coincidían el tiempo húmedo y frío con un anticiclón que estabilizaba la atmósfera. Especialmente dramático fue el de la Gran Niebla de 1952, que mató directamente a más de 4.000 personas, y acortó la vida de decenas de miles de ciudadanos más. Un episodio anticiclónico con fuerte inversión térmica, enorme estabilidad atmosférica y niebla densa y permanente durante varias semanas de invierno, había provocado la acumulación de los humos de las calefacciones —todas de carbón— y de las grandes industrias del interior de la ciudad y de su periferia, llevándolos al aire que respiraban a diario los sufridos londinenses.

En general, podemos afirmar que la contaminación comenzó a ser considerada un problema mundial al terminar la segunda guerra mundial. Quizá contribuyó a ello la contaminación radiactiva detectada después de las pruebas de bombas atómicas efectuadas en la atmósfera por las grandes potencias. En el decenio de los sesenta fueron aprobadas en Estados Unidos leyes a favor del aire limpio, el agua limpia e incluso el ruido. Y muchos otros países europeos seguimos tarde o temprano la misma senda iniciada por los ingleses en 1956.

Las catástrofes con repercusiones ambientales han jugado igualmente un papel preponderante en la concienciación de los países en torno a estas cuestiones. La ausencia de fronteras en el agua y el aire ha tenido como consecuencia el daño sobrevenido en regiones que nada tenían que ver con el origen del problema contaminante. Y eso condujo a las Naciones Unidas a celebrar una primera reunión en Estocolmo, en junio de 1972, sobre desarrollo y medio ambiente. Lástima que, sólo un año después, el choque petrolífero y su escalada de precios hicieran olvidar a los países aquellas ideas proteccionistas.

En la reunión de Río de Janeiro de 1992 volvieron a adoptarse medidas que deberían ser obligatorias para los países desarrollados, cuanto menos. Pero la mayoría ni siquiera las tomaron en consideración, o lo hicieron sólo superficialmente. Curiosamente, el asunto del cambio climático originado por algunos de los gases emitidos al quemar carbón e hidrocarburos —en concreto, el dióxido de carbono y el vapor de agua— consiguió que se olvidase en gran parte la cuestión de los contaminantes dañinos para la salud y el entorno. Había aparecido un nuevo enemigo, aunque fueran gases imprescindibles para la vida en el planeta. Hoy es probable que la mayor parte de la población asimile el CO2 a la contaminación atmosférica, olvidando esos otros contaminantes auténticos que nos envenenan y que se siguen vertiendo, a pesar de las leyes crecientemente restrictivas, al aire que respiramos. En menor medida ya, es cierto, en Europa y Estados Unidos, pero sí de forma masiva en los países emergentes de Asia, y en particular en China e India.

Es obvio que ahora somos muchísimos más seres humanos en el planeta que hace un siglo: hemos sobrepasado los 7.000 millones cuando a comienzos del siglo XX apenas éramos poco más de 1.200 millones de personas. Además poseemos una capacidad tecnológica que está a años luz de la de nuestros antepasados. Todo ello origina, y de hecho lo lleva haciendo desde hace tiempo, un impacto considerable sobre el entorno natural. A cambio, nuestras viviendas gozan de comodidades y aire limpio —incluso acondicionado para temperar los rigores del calor y del frío— que garantizan que podemos respirar sin riesgos en una atmósfera confinada pero saludable, la de nuestros domicilios. Lo esencial de la contaminación atmosférica está ahora fuera de casa, no dentro de ella como ocurría en la época de los cromañones e incluso, como hemos visto, en las viviendas obreras del siglo XIX.

No será sólo por esta razón, claro, pero lo cierto es que ahora vivimos en promedio ochenta años, cuando los cromañones de hace 15.000 años vivían menos de 25 años en promedio, y los mineros de Riotinto, a finales del siglo XIX, apenas sobrepasaban los 35 de media... Lo que ocurre es que no podemos comparar nuestros estándares de vida con los de nuestros antepasados; eso es obvio. Pero todas esas mejoras ha llegado muy deprisa, justo es constatarlo.

Y a todo esto, ¿qué significado real tiene la expresión contaminación atmosférica? Porque es obvio que el humo de las fogatas, y los demás humos que los seres humanos hemos ido produciendo en las diversas combustiones que realizamos para múltiples fines, es una forma bien patente de suciedad del aire. Una suciedad que en algunos casos tiene un origen que nada tiene que ver con los seres humanos, como el humo de los volcanes o de los incendios provocados por los rayos, aunque lo cierto es que el desarrollo industrial ha aportado muchas otras suciedades aéreas, que son las que en realidad más nos preocupan hoy.

Podríamos definir la contaminación atmosférica como el conjunto de impurezas, naturales o artificiales, y en estado líquido (gotitas, aerosoles), sólido (partículas flotantes) y gaseoso (otros gases diferentes de los que componen el aire habitualmente) que perduran en el aire y producen efectos negativos sobre el entorno y los seres vivos.

En ese sentido, queda claro que ni el vapor de agua ni el dióxido de carbono pueden ser considerados contaminantes; no sólo son componentes naturales del aire sino que, además, han participado de forma directa en la aparición, la diversificación y el mantenimiento de la vida en la Tierra. Es cierto que la variación de estos gases influye en los climas de la Tierra: sabemos que hubo cambios climáticos en el pasado en los que no hubo intervención humana alguna. Por eso sería arbitrario atribuirles ahora el carácter, sin duda negativo, de contaminantes a esos dos gases que han hecho, desde hace muchos millones de años, del planeta lo que ahora es. Porque son, no lo olvidemos, los dos gases primordiales para la vida.

La mayor o menor concentración de contaminantes aéreos depende de muy pocos factores: la topografía y las condiciones geográficas locales del lugar donde se emite la contaminación, el volumen total de los contaminantes emitidos y sus características físicas y químicas, y finalmente las condiciones meteorológicas que propician su lavado, su transporte o su concentración in situ, en caso de lluvia, viento o atmósfera estable.

La topografía influye de manera obvia, aunque sólo sea por su efecto modulador del comportamiento atmosférico: en una ladera, lo mismo que en la costa, las brisas alternan la dirección del desplazamiento del aire, llevándose hacia uno u otro lado por ejemplo el humo que pudiera emitir una industria allí situada.

En cuanto al volumen de contaminación que se emite en la actualidad, las principales fuentes proceden de los grandes núcleos industriales y las aglomeraciones urbanas densamente pobladas. Y no sólo en el mundo rico sino, y esto es novedad de los dos o tres últimos decenios, sobre todo en los países en desarrollo como China e India (e incluso Brasil, Rusia, Sudáfrica, México y algunos otros países asiáticos en crecimiento acelerado). Habría que incluir también a algunos países muy pobres, donde las macrourbes —el ejemplo de Nairobi, en Kenia, es llamativo— son cada vez más insalubres por la pestilencia de sus humos. De hecho, la contaminación urbana e industrial es llamativamente elevada en esos países menos ricos que en los más desarrollados.

Es cierto que la atmósfera posee una notable capacidad para absorber estos contaminantes y difundirlos en todas las direcciones, pero los niveles medios de contaminación por unidad de volumen de aire suelen ser con frecuencia excesivos en esas zonas de emisiones concentradas y abundantes. Especialmente bajo ciertas situaciones meteorológicas de estabilidad anticiclónica.

También existe una contaminación más diluida pero que alcanza dimensiones planetarias, la contaminación de fondo, que se mide en observatorios situados en lugares muy alejados de los focos emisores más importantes —por tanto, lejos de los países más industrializados— y emplazados en zonas de alta montaña, lo que garantiza menos interacción con los contaminantes habituales.

No deja de resultar curioso que, a pesar de ejemplo llamativo de los Juegos Olímpicos de Pekín de 2008, donde todo el mundo aludía a la elevadísima contaminación del aire que podía dañar incluso la calidad atlética de las pruebas, hoy siga poniéndose por delante de todos los problemas atmosféricos al CO2 y el eventual cambio climático. En cambio, en los países ricos al menos, nadie parece acordarse del aire irrespirable que sigue provocando en Pekín o Shanghai problemas muy serios de salud a millones de personas. Cuando falla la eficacia de la escoba meteorológica, la basura aérea se acumula con enorme rapidez.

Esta idea de escoba meteorológica nos hace pensar casi de inmediato en el viento. Y, en segunda derivada, nos lleva a analizar la inestabilidad vertical de la atmósfera y las precipitaciones. El viento es, desde luego, el primero y el más importante de los mecanismos de transporte y dispersión de los componentes del aire. Mención especial merece aquí, en las zonas que emiten contaminación de forma permanente, la noción climatológica de viento dominante; así, por ejemplo, el emplazamiento de focos concretos emisores de contaminación debe ser estudiada de forma que el viento dominante en la zona no lleve los productos nocivos emitidos hacia lugares habitados, por ejemplo.

Es cierto que la legislación europea, y en general del mundo desarrollado, es hoy muy severa a la hora de autorizar chimeneas contaminantes, por ejemplo; pero aun así siempre existen emisiones indeseables y seguramente inevitables, aunque su cuantía sea ahora más reducida. Algo que no ocurre en países en los que el desarrollo industrial prima sobre otras consideraciones, como antes veíamos.

Las precipitaciones ligadas a la atmósfera inestable también influyen en la dispersión y transporte de los contaminantes. La lluvia lava, por así decirlo, el aire que atraviesa, arrastrando hacia el suelo las partículas sólidas y líquidas, y disolviendo las que pudieran ser solubles, e incluso llevándose, también por disolución o arrastre, buena parte de los gases más contaminantes.

Es cierto que eso va solucionando, aunque sólo sea momentáneamente, el problema de la calidad del aire que se respira en la zona contaminada, pero a costa de trasladar esa suciedad a otro sitio, como ocurría con el viento vertical y horizontalmente. En el caso de la lluvia, esa contaminación es arrastrada por las aguas pluviales hacia la red de alcantarillado en las grandes ciudades, o simplemente hacia el terreno circundante en otros casos. Claro que, al igual que en el caso del viento, la dilución de esos contaminantes es muchísimo mayor porque afecta a volúmenes de aire o agua muy superiores a los originales, y eso significa que la concentración —o sea, los niveles de inmisión— de esos contaminantes puede hacerlos bastante más inocuos para la salud y para el medio ambiente de lo que eran cuando estaban más agrupados en el aire contaminado inicial.

Eso sí, la única contaminación que acaba desapareciendo de forma absoluta es la que se deja de emitir. Por lo que no es muy inteligente encomendarse a la escoba meteorológica como única solución al problema de la contaminación, sino que hay que seguir legislando para exigir niveles de emisión cada vez más reducidos en las zonas productoras de basura aérea; sólo así se podrá garantizar a la larga la reducción sostenida de los niveles de inmisión.

Los contaminantes que emite a la atmósfera la actividad humana ligada, sobre todo, al desarrollo industrial pueden ser divididos en dos grandes grupos: los que se producen a partir de emisores fijos, como las chimeneas industriales, y los que se producen a partir de emisores en movimiento, como los diferentes medios de transporte. El caso de las ciudades es en sí mismo bastante especial: es cierto que el tráfico está formado por focos contaminantes puntuales en constante movimiento, pero se acaban sumando a los emisores fijos constituidos por las viviendas, las industrias, los bares y restaurantes, incluso los comercios y otras instalaciones urbanas fijas. Con todo, en el conjunto de la urbe, y con escasas variaciones de un día para otro, el volumen total de las emisiones contaminantes es más o menos constante: la gran ciudad es como un emisor puntual fijo aunque, eso sí, de enorme tamaño.

Además del origen de la suciedad conviene atender al comportamiento de los emisores —las calefacciones y el aire acondicionado no contaminan de igual modo en invierno y en verano, el tráfico urbano es diferente en días de diario y en fines de semana, etc.— y también al propio comportamiento de las sustancias emitidas y sus efectos sobre los seres vivos y, en particular, la población humana. En este segundo caso es evidente que una persona que pasea por la calle no es contaminada del mismo modo por los tubos de escape de coches o motos que por los humos de una chimenea que salen a mucha altura, aunque sus gases o cenizas puedan luego acabar bajando al nivel de la calle, de forma más diluida.

En fin, como puede verse este asunto de la contaminación del aire está lejos de haber sido resuelto satisfactoriamente. Y si las exigencias legislativas del mundo rico impiden ahora que se repitan sucesos lamentables como el de Sonora de 1946 o Londres en 1952, en el mundo en desarrollo las cosas se siguen haciendo igual de mal, si no peor, que lo hicimos nosotros hace más de medio siglo.

¿Cuáles son estas sustancias que ensucian el aire que respiramos? Los contaminantes primarios —los que se emiten directamente por chimeneas y tubos de escape— son esencialmente gases —como los óxidos de carbono, de nitrógeno y de azufre—, o bien aerosoles —como los hidrocarburos (líquidos o sólidos)— y partículas sólidas de todo tipo que componen lo que vulgarmente llamamos humo, ceniza y polvo. Algunos de estos contaminantes se convierten luego en la atmósfera, por efecto de la radiación solar, de la temperatura y de la humedad del aire, en otros contaminantes secundarios que pueden ser aún peores. Por ejemplo, algunos ácidos que se forman a partir de óxidos en presencia de agua —ácido sulfúrico a partir de los óxidos de azufre, ácido nítrico a partir de los óxidos de nitrógeno...—, o el mismísimo ozono, que es un potente oxidante y que se forma a partir de ciertas reacciones químicas en el aire, propiciadas por la radiación solar de onda corta en atmósferas secas y muy contaminadas.

2.4.4. Agricultura

La primera parte de este libro ha ofrecido múltiples ejemplos de la estrecha relación que, durante milenios, existió entre la meteorología popular y la agricultura. O, dicho más llanamente, el tiempo y los alimentos. Porque la forma de nutrirse de los humanos tuvo siempre mucho que ver con la caza, la pesca y, sobre todo, la recolección y cultivo de toda suerte de productos vegetales. Todo lo cual estuvo, y sigue estando, sometido al capricho de los elementos atmosféricos.

Lo interesante, por supuesto, llega con el desarrollo científico de los últimos siglos. Gracias a una tecnología en rápido auge, la agricultura, la ganadería y la pesca han dejado de ser en los países ricos los pilares de una sociedad anteriormente basada en la mera subsistencia, para convertirse poco a poco en actividades puramente económicas, de las que se puede vivir pero sin constituirse por ello, al menos no necesariamente, en la clave única de nuestra subsistencia.

En ese tránsito entre una agricultura de subsistencia y otra de mercado han jugado un papel sustancial las herramientas que puso a nuestra disposición la revolución industrial, con la que se inició una imparable carrera para proporcionarnos más y mejores alimentos de todo tipo, que además se transportan desde muy lejos, se consumen in situ o se conservan durante mucho tiempo gracias a las nuevas formas de envasado y almacenamiento, añadidas a las tradicionales artesanías de conservación en aceite, vinagre o salazón.

Con todo, todavía hoy estamos sujetos a las veleidades de la temperie en todas nuestras actividades; y sufren esas veleidades, más que ninguna otra cosa, las actividades agrícolas y, en general, las relacionadas con la obtención de alimentos. También puede verse afectado por las inclemencias meteorológicas el transporte por vía marítima, aérea y terrestre. Por todo ello, y es una actitud que se remonta a tiempos inmemoriales, la principal preocupación de los hombres del campo y de la mar fue el comportamiento, casi siempre hostil, de los meteoros.

El medio rural, incluso ahora, en pleno siglo XXI, se basa en tradiciones difíciles de desarraigar porque las labores cotidianas que se realizan son muy conservadoras: se planta en tal fecha, se trabaja en otra, se cosecha y conserva en otra... Los modernos conocimientos agronómicos suelen ser vistos con recelo, aunque poco a poco, y más en los países desarrollados —incluido España, con algo de retraso que ahora parece que vamos colmando—, se van imponiendo los cultivos basados en técnicas cada vez más novedosas, aunque se recele de ellas. Desde el regadío, que habrá de ser más bien generoso en un país de clima mayoritariamente seco, y sus diversas técnicas cada vez más eficientes —el riego a manta sustituido por el goteo es un buen símbolo de este cambio de mentalidad—, hasta la llegada de las semillas blindadas y otras novedades, incluidos los cultivos transgénicos que prometen una notable economía en el uso de pesticidas y plaguicidas.

Pero ese mundo moderno, por las técnicas agrícolas recientes y utilizando la predicción meteorológica más actual, convive a diario de forma más o menos abierta con la tradición multisecular. Aunque a muchos nos parezcan pintorescas y casi prehistóricas, lo cierto es que el Meteosat y el riego por goteo conviven aún con las Cabañuelas y el Calendario Zaragozano.

Conviene recordar que la posibilidad de vida en la Tierra reposa en la existencia de las plantas verdes; los demás organismos, incluso los que nos consideramos superiores, somos auténticos parásitos de esas plantas verdes ya que necesitamos ingerirlas y luego descomponerlas en el proceso digestivo para obtener algunas moléculas vitales que no sabemos fabricar por nosotros mismos. Nuestra alimentación depende, pues, de las plantas verdes, o bien de animales comestibles que a su vez se alimentan de esas plantas verdes. Que necesitan, como todos los seres vivos, agua líquida para subsistir.

Sabemos que la vida nació en el mar hace casi 4.000 millones de años. Luego, muchísimo más tarde, hace unos 400 millones de años, la vida marina conquistó tierra firme (los primeros vegetales quizá lo hicieran algo antes, pero los insectos y anfibios son posteriores). Pero antes de eso, todos los organismos, tanto vegetales como animales, necesitaron el agua como vehículo de transporte de los elementos químicos y biológicos que posibilitaban la supervivencia de sus células.

De hecho, incluso hoy todos los seres vivos que hemos conquistado tierra firme seguimos teniendo conectados nuestros sistemas vitales mediante una tupida red de canalizaciones —en los animales, arterias, venas, vasos capilares para la sangre, y ganglios y vasos linfáticos para la linfa, en los vegetales los conductos por los que circula la savia— que consiguen llevar agua y elementos vitales necesarios para el metabolismo a todas y cada una de las células. Y esas células bañan permanentemente en un líquido salado, como agua de mar residual; en los humanos lo llamamos plasma (que es una parte esencial de la sangre) o linfa (dentro de los ganglios y vasos linfáticos, y en el entorno de las células).

El caso es que las plantas y animales terrestres, y aéreos, son relativamente recientes en la historia del planeta Tierra. Aquellas plantas que acabaron colonizando los continentes emergidos seguían dependiendo del agua, como las plantas marinas. Pero al adoptar una vida aerícola sólo podían obtener el líquido vital a través del suelo, gracias a las raíces con las que captan, disueltos en agua, los elementos vitales requeridos para subsistir. Si por alguna causa se degrada o desaparece ese suelo fértil, no sólo morirán las plantas verdes que de él viven sino que también desaparecerán muchas otras formas de vida ligadas a ellas; lo que confiere una dimensión dramática al fenómeno de la erosión, que no es más que el primer acto de una tragedia que acaba llevando a la desertización y, en casos extremos, a la extinción de casi todas las formas de vida que allí hubo cuando había vegetación.

Los desiertos se mueven y se han movido desde que el planeta es planeta, a veces reduciendo su área y en otros casos ampliando su radio de acción. Y así, las zonas desérticas del planeta han cambiado de sitio a lo largo de los siglos, siempre al compás de los fenómenos climáticos. Por ejemplo, la zona libia de Selima, al norte del Sahara, tenía ríos y valles, con vegetación abundante, al menos en los dos últimos millones de años. Aquellos ríos del borde mediterráneo del Sahara, con fauna y flora consecuentes, duraron hasta etapas muy recientes de la historia geológica: hace sólo 5.000 años aún había habitantes permanentes en esa zona, como lo demuestran las pinturas rupestres de las grutas de Tassili y Ain-Sefra, en las que aparecen carretas y bueyes, una ganadería floreciente, labores agrícolas desarrolladas...

Además de las causas naturales que, desde siempre, han influido en los desiertos, los humanos hemos introducido mecanismos nuevos, lentos pero seguros, que se agudizan con la superpoblación. Por ejemplo, en la vertiente mediterránea las aguas de escorrentía se llevan al mar tanto suelo fértil como el que podría caber en el peñón de Gibraltar. Menos mal que, en conjunto, la repoblación forestal ha ido reponiendo muchas zonas boscosas perdidas y ha reconstruido mucho suelo vegetal en peligro de desaparecer. De hecho, hoy tenemos en España más árboles que hace un siglo. No todo ha de ser una mala noticia...

Es difícil estimar la extensión de las zonas áridas porque varía cada año, muy especialmente en las áreas de transición. En estos márgenes de los desiertos es evidente que la amplitud de las variaciones meteorológicas de año en año —e incluso climáticas, de siglo en siglo o de milenio en milenio— puede provocar una alternancia de períodos de prosperidad relativa o de aridez catastrófica difícilmente soportable por la mayoría de los seres vivos, y no digamos por los seres humanos.

Un buen ejemplo lo constituye la tragedia del Sahel, una región situada al sur del Sahara, que tuvo un período de abundancia de lluvias entre 1950 y 1969, y luego otro período de sequía extremada entre 1970 y el final del siglo XX. En la época buena se sobreexplotaron los pastos y se generalizaron los cultivos erosivos, a la vez que acudía en masa una población seminómada y hambrienta, ansiosa de obtener frutos de la tierra; y ahora, desde hace varios decenios se vive una dramática situación en la que la sequía no hace más que agravar lo que la mano insensata del hombre —pan para hoy, hambre para mañana— iniciara unos lustros antes. Lo que llueve allí no da para tantas personas; el equilibrio se rompió en los años sesenta, y aunque lleva ya unos años normalizándose, eso no va a permitir la recuperación de una población diezmada ya tras aquellos crecimientos efímeros. La bíblica referencia a las épocas de vacas gordas y flacas cobra aquí su más fiel valor testimonial...

Climatológicamente hablando es difícil determinar con precisión el mecanismo que lleva desde una situación de desertización incipiente a un desierto declarado: los climas muy secos pero erosivos —la poca lluvia que cae lo hace violentamente— pueden ir poco a poco empobreciendo el suelo fértil convirtiendo una región semiárida en algo parecido a un desierto aunque, al menos a corto plazo, no llueva en promedio menos que antes. Claro que el límite pluviométrico entre el desierto, las zonas semiáridas próximas y el bosque de pinos subhúmedo situado más allá no es excesivo. Entre el Sahara y la estepa norteafricana apenas median 150 milímetros anuales de precipitación. Y la estepa se convierte en un pinar ralo pero estable con sólo entre 100 y 150 mm más. Y si la precipitación anual se acerca a los 400 mm, ya entramos en las regiones subhúmedas, con vegetación más variada y reciclado del suelo fértil algo más activo.

En realidad, bastaría añadirle —¿pero cómo?— a su lluvia anual unos 200 milímetros para llegar a borrar del mapa la mayoría de los desiertos tropicales. Conseguirlo es, hoy por hoy, pura fantasía ficción casi delirante. Lástima...

Y están los incendios forestales. Aunque el clima sea en este caso más un factor complementario que una causa directa, es obvio que los incendios tienen también mucho que ver con estos procesos de empobrecimiento del suelo e inicio de la desertización. El fuego se produce, y se ha producido siempre, por causas naturales; pero en los últimos tiempos han comenzado a proliferar los incendios provocados, cuya extinción acaba cobrándose incluso la vida de muchas personas.

Los incendios naturales siempre han servido para remineralizar los suelos, para provocar que unas especies predominen sobre otras y, en suma, para contribuir a la biodiversidad que hoy conocemos mediante esos procesos al azar tan característicos, aunque no exclusivos, de la evolución. Pero desde que la mano del hombre se ha sumado al proceso, la situación ha ido adquiriendo una gravedad distinta, con tintes ocasionalmente dramáticos, precisamente en esas regiones áridas, muy amenazadas ya por el proceso erosivo derivado de su clima. El incendio forestal elimina del suelo a su mejor protector natural, la vegetación. La copa de los árboles y la masa de los arbustos actúan a modo de paraguas, absorbiendo la energía de las más fuertes lluvias —lo que reduce su poder erosivo— y dejando fluir el agua más tarde de forma mucho más uniforme —lo que reduce a su vez la escorrentía erosiva—; y ello ocurre incluso con lluvias torrenciales y en laderas de fuerte pendiente.

La desertización alcanza en el mundo su punto más dramático en las regiones más pobres de África, sin ir más lejos las que rodean al Sahara. Pero incluso en el Primer Mundo hemos de afrontar problemas similares en algunas de nuestras regiones más secas; eso sí, disponemos de recursos cuantiosos y posibilidades técnicas superiores, por lo que los daños son mucho más limitados. Y eso ocurre no sólo en Europa —sureste de España, sur de Italia, Grecia...—, sino incluso en Estados Unidos, donde la mitad de las tierras de cultivo se ven afectadas por un proceso desertizador incipiente, e incluso en Canadá, donde se destinan a la lucha contra la erosión muchos millones de dólares al año.

En todo caso, como es inevitable que las actividades agropecuarias dependan de las condiciones del suelo, resulta indispensable vigilar aquellos parámetros del tiempo y, a largo plazo, del clima, que pueden alterarlo; el terreno fértil actúa no sólo como reserva de materia orgánica nutricia para las plantas, sino que además sirve para retener e incluso almacenar agua en las épocas más secas.

No hay que olvidar que la explotación agrícola y, sobre todo las múltiples técnicas que para ello ha venido desarrollando el ser humano, conducen inevitablemente a una homogeneización artificial de los suelos. Y en el caso de las modernas explotaciones intensivas, eso afecta al suelo hasta profundidades de más de medio metro. La propia estructura de los componentes minerales y biológicos de ese suelo se regenera, pues, muy difícilmente al disminuir mucho lo que los edafólogos llaman estructura de estabilización, que depende de muy diversos microorganismos descomponedores —esencialmente bacterias y hongos— que degradan las moléculas orgánicas complejas y las hacen asimilables por las plantas. Con la agricultura, el suelo se va empobreciendo y es cada vez más sensible a la erosión. Resulta paradójico, pero las técnicas agrícolas humanas favorecen a su peor enemigo, la desertización...

De todos modos, incluso ahora, en pleno siglo XXI, la alimentación del mundo sigue dependiendo básicamente de la agricultura. De forma muy indirecta en los países ricos, de forma muy directa, como norma esencial de subsistencia, en el mundo pobre. De ahí la importancia de los estudios de agrometeorología, como método para conocer mejor las características atmosféricas que pueden apoyar, o por el contrario entorpecer, ese proceso de obtención de alimentos.

Un factor esencial en todo el mundo, rico y pobre, de esa agrometeorología científica lo constituye el estudio de las sequías y la forma de paliarlas mediante la adopción de medidas preventivas, en lugares propicios a ello, o bien medidas correctoras cuando aparece el indeseado fenómeno. Es curioso cómo en algunos países, España sin ir más lejos, la sola mención del cambio climático lleva más fácilmente a considerar que lo que se avecina no es tanto un incremento de temperaturas, que es algo que asusta menos porque el calor excesivo es un viejo amigo/enemigo bien conocido, como un descenso previsible y quizá catastrófico de la poca lluvia que cae en las regiones de lo que solemos llamar la España Seca.

Quizá convenga matizar que existen muchos tipos de sequía. Por ejemplo, la sequía climatológica, que es cuando llueve menos de lo normal, obteniendo esa normalidad de un promedio de lluvia mensual o anual en períodos de muchos años. También podemos hablar de sequía meteorológica, o pluviométrica: aparece cuando llueve menos de lo habitual durante muchos días, sobre todo cuando eso ocurre en épocas en las que debería llover (en España, por ejemplo, durante el otoño). Esta sequía es un fenómeno aislado dentro de un año cualquiera y sólo demuestra lo caprichosa que es la atmósfera. Los expertos en regulación de cauces se refieren a la sequía hidrológica cuando los ríos llevan menos agua de la normal y, por esa causa, los embalses reducen la cantidad que pueden almacenar. A veces esta sequía hidrológica se agudiza porque se utiliza en exceso el agua como recurso —esencialmente agrícola, aunque también doméstico e industrial—, en momentos de sequía climatológica. En tales períodos resulta indispensable, incluso antes de que las cosas se agraven, establecer políticas de ahorro en el consumo y de eficiencia en el transporte del agua de unas zonas a otras. Y también existe una sequía agrícola, si la lluvia escasea precisamente en los momentos que más falta le hace a un determinado cultivo de secano.

Y hay quien habla de sequía psicológica, cuando las personas se quejan de que no llueve, incluso en tiempos o épocas del año en los que eso sería relativamente normal... Los periódicos en busca de noticias catastróficas que llevarse al quiosco suelen hablar mucho de eso en pleno verano, que es una época en la que en España llueve habitualmente muy poco o nada. Eso sí, cuando llueve mucho, nadie vuelve ya a acordarse de la sequía ni, lo que es peor, de las políticas de ahorro y eficiencia que tanto se reclaman cuando deja de llover. Es aquello tan antiguo de acordarse de santa Bárbara sólo cuando truena.

España es un país rico, y aquí el problema de la falta de agua es más bien un problema económico: el sector agrícola y ganadero es importante desde el punto de vista productivo, como lo es la industria o los servicios, pero en España ya no dependemos directamente de las cosechas para sobrevivir. La agricultura ha pasado a ser un recurso económico más, que a su vez demanda con insistencia otro recurso que comienza a ser valorado económicamente como tal: el agua. Hay, pues, que reconvertir los regadíos con el fin de aprovechar mejor el agua de la que se dispone, y no aspirar a más de la que hay.

Eso significa, simplemente, que tenemos que pasar de una política de oferta de agua a una política de demanda, a ser posible establecida por consenso democrático.

Pero la agrometeorología ha de afrontar otros problemas, además de los que se derivan de la sequía y los incendios. Por ejemplo, una visión moderna de esta disciplina podría ser la conservación de los recursos naturales y la protección ambiental contra los usos más nocivos, de modo que se lleguen a imponer restricciones a determinadas formas de utilizar el suelo, por mucho que se pretenda alcanzar la máxima productividad de las cosechas o el máximo aprovechamiento de la madera y otros productos forestales. Es decir, imponer limitaciones de tipo ambiental al furor productivo exclusivamente orientado al máximo rendimiento a costa de lo que sea.

La meteorología agrícola aborda el estudio de la mutua interacción que se produce entre los distintos elementos del tiempo de todos los días —y su influencia en el ciclo hidrológico aprovechable para el campo y la ganadería— y el rendimiento agrícola en su más amplia acepción (que incluye la horticultura, la silvicultura y la ganadería, además de las prácticas agrícolas más extensivas y tradicionales como cereales o viñedos, por ejemplo). Su campo de acción se extiende, pues, desde las capas del suelo más o menos profundas, allí donde enraízan las plantas, hasta las copas de los árboles más frondosos y aún más allá, donde el viento puede ayudar a diseminar semillas, esporas, pólenes, insectos y, eventualmente, plagas de todo tipo. Eso implica considerar no sólo los datos meteorológicos e hidrológicos sino también, como decíamos, los que tienen que ver con la modificación del entorno natural que efectúa de forma obligada esta actividad humana de notable impacto ambiental.

Los agricultores llevan milenios levantando la cabeza con inquietud con el fin de adivinar, hasta donde les fuera posible, de qué forma el tiempo iba a favorecerles o, lo más probable, perjudicarles a la hora de la siembra, el cultivo o la recogida de cosechas y frutos. Pero ahora que por fin la meteorología ha dejado de ser un conjunto de mitos y creencias para convertirse en una actividad científica de pleno derecho sería absurdo no utilizar esos avances en la mejora de nuestros métodos de producción de alimentos. Así lo han hecho los países ricos, y eso mismo es lo que deberíamos enseñar a los países pobres: no darles peces ni lechugas, enseñarles a pescar y cultivar con técnicas modernas y adaptadas a sus respectivos ámbitos climáticos.

2.4.5. Navegación marítima y aérea

Si nuestra supervivencia depende, en última instancia, de la agricultura y la ganadería, tributarias a su vez de las condiciones de la temperie a cada instante, muchas otras actividades, tanto pasadas como presentes, tienen que ver con los desplazamientos de personas y mercancías que garantizan la actividad económica tanto productiva como comercial. En esos desplazamientos, la navegación siempre desempeñó un papel esencial, primero a corta distancia —por ríos y costas—, luego a través de los mares y océanos, y a partir de mediados del siglo XX, surcando los aires.

En la navegación por ríos y costas, quizá tan antigua como la humanidad misma, influyen menos las condiciones atmosféricas; o al menos, de forma no muy diferente a como lo hacen en tierra firme. Pero cuando se navega perdiendo de vista la costa y sus accidentes identificables, ahí sí que resultaba esencial, y lo sigue siendo hoy, conocer el comportamiento de los vientos, las tormentas y muchos otros meteoros bien conocidos tierra adentro pero que adquieren una especial dimensión en alta mar. El viento, por ejemplo, tiene una dirección mucho más estable sobre el mar que en tierra, y aunque puede ser más violento, muestra en cambio una turbulencia y una irregularidad bastante menores.

Cuando los humanos supimos desarrollar la navegación de altura empujados por el viento, pudimos emprender travesías de largo alcance; el ejemplo de la Odisea de Homero, que le ha dado nombre a las aventuras más arriesgadas (hoy decimos, sin duda exageradamente, de algún viaje difícil que «fue toda una odisea»), es bastante elocuente. Y eso que Ulises, al fin y al cabo, sólo viajaba por un mar interior, el Mediterráneo, relativamente pequeño frente al tamaño de los océanos.

Mucho más tarde, los vikingos, y más tarde Colón, Magallanes y Elcano, y el primer turista de alcance mundial, Marco Polo, acabaron por ofrecernos una dimensión de los viajes por mar completamente insólita. El relato del primer viaje de Colón —con sus vendavales y sus calmas chichas, su absoluta dependencia del viento y sus caprichos, y su ignorancia, dicho sea de paso, respecto a la forma de medir la longitud geográfica (la latitud es fácil, gracias a la estrella Polar)— es la mejor prueba de la dependencia que tenían los marinos antiguos de eso que hoy llamamos condiciones meteorológicas; lo que no les impedía buscar los alisios a la ida, o los vientos del oeste a la vuelta; sin saber nada del porqué de su existencia, sin ni siquiera haber tenido noticias previas de ella.

Hemos hablado de marinos antiguos, pero hoy existe esa misma dependencia, desde luego; pero nos hemos vuelto exigentes y deseamos seguridad y regularidad en nuestros viajes por mar, y por supuesto cuando lo hacemos volando. Y en todo ello, seguridad incluida, el papel de los elementos atmosféricos sigue siendo crucial.

Ya hemos visto que la meteorología moderna nació más o menos en la segunda mitad del siglo XIX, una época en la que la máquina de vapor había ido poco a poco reemplazando a los grandes clippers de varios palos que sostenían enormes velas. La máquina de vapor garantizaba viajes más seguros y, sobre todo, más regulares. Pero aun así los vientos, las tormentas, y en general los meteoros más dinámicos seguían condicionando esas y muchas otras travesías; y eso es algo que ocurre incluso hoy día. Es cierto que, a partir de los barcos con motor, lo ideal es que la travesía discurra precisamente con calma chicha, aquella que tanto fastidiaba en los tiempos heroicos de la vela. Pero como el viento y los meteoros pueden ser más violentos en el mar que en ningún otro sitio, y las posibilidades de refugio son nulas —incluso a menudo suele ser peor estar cerca de la costa que en alta mar—, es obvio que no hay marino en el mundo que no le tema a la temperie. Hacerse a la mar requiere, ante todo, tenerle un enorme respeto a las condiciones meteorológicas, presentes y futuras. De ahí el interés por la predicción, y la actualización de los datos, en lo que a la atmósfera se refiere.

En aquella época de transición entre la navegación de vela y de motor para las grandes travesías interoceánicas, un personaje clave fue el norteamericano Matthew Fontaine Maury (1806-1873), que ya citamos en el apartado de la prehistoria de la meteorología. La vida de este personaje fue bastante sorprendente: marino de vocación desde su infancia, ya le había dado la vuelta al mundo con 24 años de edad cuando un accidente, curiosamente en un breve trayecto en diligencia, le dejó cojo y hubo de pasar el resto de su vida confinado en tierra, donde dedicó toda su energía al estudio de la meteorología marítima y su estrecha relación con otra ciencia incipiente, la oceanografía, de la que es considerado justamente el fundador, y a la que él llamaba Geografía Física Marina.

Esa especialidad de meteorología marítima recobró nuevo vigor a mediados del siglo XX; suele citarse como momento de su despegue el famoso desembarco de Normandía, efectuado al parecer no sólo en un lugar insólito —no previsto por los nazis— sino, sobre todo, navegando emboscados tras un frente frío cuyos vientos y lluvias sirvieron de pantalla eficaz al viaje de las tropas aliadas entre Inglaterra y las playas francesas. También influyó, sin duda, el interés renovado por las condiciones atmosféricas en la alta atmósfera sobre los océanos, de cara a los viajes transoceánicos tan comunes ya en la primera mitad del siglo pasado.

La realidad, hoy, es que las actividades marítimas implican un riesgo potencial más que considerable no sólo para la vida de los tripulantes y pasajeros, sino también para las economías de los países implicados y, en muchos casos, para el medio ambiente marino y costero. La inmensa mayoría de las exportaciones e importaciones no urgentes se hacen por vía marítima, sin contar con el transporte a largas distancias de los recursos energéticos, esencialmente el crudo.

Por estas razones la Organización Meteorológica Mundial unificó después de la segunda guerra mundial la información que debe ser suministrada a y desde los buques en todos los mares del mundo. Luego, los centros nacionales elaboran sus propios boletines de predicción marítima que cubren las diferentes zonas de responsabilidad que son de su competencia. Se trata de informaciones adaptadas a las necesidades de los usuarios marítimos, considerando sobre todo las particularidades del viento y del oleaje, y distinguiendo zonas costeras y áreas de alta mar. Para cada una de ellas se elaboran boletines específicos y bastante detallados.

La base de esas informaciones y predicciones la constituyen los análisis de superficie y los de diferentes niveles de la atmósfera, en los que se basan los mapas previstos a partir de diferentes modelos matemáticos, en particular los del Centro Europeo de Predicción a Plazo Medio de Reading (Inglaterra) en lo que respecta a España y otros países europeos. Los boletines costeros españoles son elaborados por los Grupos de Predicción y Vigilancia (GPV) de los Centros Meteorológicos Territoriales (CMT) con responsabilidad marítima, y los de alta mar los realiza el Centro Nacional de Predicción (CNP), que también elabora los boletines de aviso en caso de alerta a la flota.

Directamente accesible al gran público a través del servicio Teletiempo existen unos teléfonos —de pago— destinados exclusivamente a proporcionar información meteorológica marítima en un plazo de hasta tres días, para zonas costeras y para alta mar. Son los siguientes: 807 170 370 para Baleares y alta mar, terminado en 1 para las costas mediterráneas y alta mar, terminado en 2 para las costas cantábrica y gallega, terminado en 3 para las costas de Andalucía occidental y Canarias, y terminado en 4 para el Atlántico Norte.

A la cada vez más pujante navegación marítima vino a sumarse, ya bien entrado el siglo XX, la aviación civil. Es cierto que por razones bélicas ya hubo aviones en la primera mitad del siglo, y sobre todo en la segunda guerra mundial. Pero al terminar el conflicto comenzaron a explotarse las primeras líneas aéreas comerciales, lo que supuso un enorme impulso para el estudio de las condiciones meteorológicas existentes por encima de las regiones deshabitadas, y especialmente sobre los grandes océanos.

Porque si los barcos se mueven en el interfaz aire-agua, los aviones en sus despegues y aterrizajes lo hacen en el interfaz tierra-aire, y luego, cuando alcanzan las zonas costeras, en el triple contacto aire-tierra-agua. Ya en vuelo, el avión es un ente mecánico muy pesado que logra la hazaña de sustentarse en el aire gracias a la acción conjunta de la velocidad a la que le impulsan sus motores y la forma de sus alas y fuselaje. En vuelo, el aparato está sometido exclusivamente a las condiciones físicas y químicas de la atmósfera en los distintos niveles verticales que va alcanzando en su desplazamiento, desde centenares de metros en los aparatos antiguos, hasta diez u once kilómetros en los modernos reactores transoceánicos, y más de veinte kilómetros en el caso del ya abandonado supersónico Concorde.

Se comprende bien, por tanto, la importancia que adquirió la meteorología para esta nueva forma de transporte, sobre todo cuando los intereses económicos y comerciales fueron adquiriendo una importancia cada vez mayor, en paralelo a una incesante demanda de mayores cotas de seguridad. Todo ello acabó beneficiando, de manera muy directa, en primer lugar a la clásica navegación marítima y, de modo más general, a la comprensión de los fenómenos que ocurren en la alta atmósfera, cerca ya de la tropopausa; y en el caso de los aviones supersónicos, en plena estratosfera.

Aunque la aviación civil internacional se desarrolló sobre todo a partir de mediados del siglo XX, lo cierto es que los vuelos pioneros, siempre bastante aislados, datan de unos años antes. Las primeras compañías aéreas nacieron en 1919; fueron la actual KLM holandesa y la colombiana AVIANCA, que entonces se llamaba Sociedad Colombo-Alemana de Transporte Aéreo. Ya en 1939 realizaban vuelos comerciales más o menos regulares las compañías Pan American Airways y Air France Transatlántica, que utilizaban, entre otros, el Boeing 40 en sus distintas versiones, para cuatro pasajeros y unos 500 kilos de carga, y otros aviones similares como el Dornier Merkur y el Fokker F-2. Como puede verse, nada que ver con los aviones de hoy...

Antes de eso, la tecnología de los «más ligeros que el aire» se había desarrollado poderosamente poco antes de la primera guerra mundial, gracias a los dirigibles, gigantescos globos en forma de huso muy alargado, y con una barquilla motorizada capaz de albergar a numerosos pasajeros. Los zepelines, ideados por el conde alemán Ferdinand von Zeppelin (1838-1917), acabaron constituyendo toda una flota dedicada al transporte civil de viajeros por el aire ya en los años veinte, después de la guerra, en directa competencia con los grandes buques transatlánticos por su mayor rapidez, ya que sobrepasaban ampliamente los 100 km/h.

Los dos más grandes fueron el Graf Zeppelin II y el LZ129 Hindenburg. Tenían 250 metros de longitud, 40 de diámetro y una capacidad para 200.000 metros cúbicos de gas. Su velocidad máxima era de casi 140 km/h, aunque eso dependía mucho de los vientos dominantes a lo largo de su recorrido. El antecesor de aquellos gigantes, el Graf Zeppelin I, ya había volado más de dos millones de kilómetros, dando la vuelta al mundo sin un solo accidente.

El Hindenburg, estrenado a comienzos de 1936, realizaría ese año la ruta Europa-América en 17 ocasiones, recorriendo más de 300.000 kilómetros. Uno de sus vuelos, en julio de ese año, batió un récord mundial al cruzar dos veces el océano en poco más de cinco días... Tenía una capacidad para 72 pasajeros y más de 60 tripulantes; conviene recordar que eran vuelos lujosos, con toda clase de refinamientos, incluido dormitorios, restaurante, bar, salón con piano y hasta una sala de fumar, a pesar de llevar por encima miles de metros cúbicos de hidrógeno.

Por razones aerodinámicas, estas dependencias para los pasajeros se encontraban dentro del propio cuerpo del dirigible, y no en la barquilla colgante. Fue construido con tela de algodón, barnizada exteriormente con óxido de hierro y acetato-butirato de celulosa, impregnado de polvo de aluminio para evitar descargas eléctricas; lo malo es que el polvo de aluminio y el óxido de hierro forman una mezcla llamada termita, que es terriblemente inflamable.

La idea inicial era llenarlo con helio, pero el único productor mundial era Estados Unidos, y por razones estratégicas había un embargo de ese gas. Como los alemanes ya habían usado el hidrógeno en dirigibles anteriores sin sufrir accidente alguno, no se preocuparon por el cambio de gas, e incluso, para mayor seguridad, revistieron al dirigible con una cubierta antiestática para evitar descargas eléctricas.

El terrible accidente, en mayo de 1937, precisamente del Hindenburg —la leyenda de una supuesta seguridad total recordaba, en cierto modo, a la del Titanic en grandes paquebotes—, fue en las proximidades de Nueva York cuando ya había atracado, y tuvo mucho que ver con el tiempo: una tormenta muy activa dificultaba las maniobras de desembarco cuando una descarga inició un incendio en la nave que quedó destruida, devorada por las llamas, en menos de un minuto. La estructura cayó a tierra desde una altura de entre quince y veinte metros, junto a los pasajeros y tripulantes; muchos de ellos salvaron la vida —murieron en total 36 personas de las 97 que había entonces a bordo— sin duda porque junto a los restos ardientes también cayeron los tanques de agua de la nave que quizá evitaron que quedasen carbonizados.

Así como el Titanic no significó el fin de los grandes cruceros marítimos, el Hindenburg sí que significó el final definitivo de los dirigibles, que fueron abandonados como medio de transporte lujoso y masivo. Pero no tanto por el accidente en sí, sino por una razón bastante obvia: eran más rápidos que los transatlánticos aunque con una capacidad de transporte mucho más reducida; pero, sobre todo, eran muchísimo más lentos que los aviones que, ya en los años cuarenta, conseguían velocidades medias tres o cuatro veces mayores.

Con todo, si nos hemos detenido un poco más en la historia de los dirigibles es porque, como objetos flotantes que eran, dependían más que ningún otro medio de transporte de las condiciones meteorológicas tanto en la salida y la llegada como en la elección del nivel de vuelo, el rumbo a tomar y la velocidad del recorrido. No sólo el viento les afectaba sino, obviamente, la temperatura del aire —esencial para el poder ascensional de cualquier globo— y, desde luego, los distintos meteoros que pudieran dañar su ligera y no muy resistente estructura. Incluyendo, claro, la electricidad atmosférica que finalmente provocó el famoso accidente del Hindenburg.

El caso es que poco antes de la segunda guerra mundial ya habían comenzado a utilizarse de manera bastante generalizada los grandes hidroaviones para vuelos transoceánicos. Uno de los mayores de la época fue el Dornier DO-X, con doce motores, seis en cada ala, que no tuvo mucho éxito hacia 1930 porque era lento y gastaba mucho combustible. Le superó poco después el famoso Boeing 314 Clipper, capaz de transportar en cada viaje a 74 pasajeros en sus primeros vuelos, en 1938. Tenía un salón-comedor para 14 comensales, 40 camas e incluso una suite nupcial... Fue la era dorada de estos gigantes que no necesitaban aeropuertos porque se posaban en el mar, y desembarcaban su pasaje en un puerto, como los transatlánticos. Estos hidroaviones fueron, sin duda, los que más daño hicieron a los dirigibles, accidentes al margen.

Aquel Clipper de Boeing requería 16 toneladas de combustible, que le otorgaba una autonomía de casi 6.000 kilómetros. Cruzaba el Atlántico a una velocidad de crucero de 300 km/h y hacía la ida durante el día para regresar durante toda la noche. La guerra le dio la puntilla a estos aviones, que dejaron de existir definitivamente en 1946.

En paralelo fue ganando terreno la aviación comercial que hoy conocemos. Un monoplano con dos motores nacido en 1936, el Douglas DC-3, se iba a convertir en el primero de los aviones populares para el tráfico civil, y lo sería durante muchos años. Su velocidad de crucero se acercaba a los 300 km/h y en total fueron construidos más de 13.000 aparatos. Su autonomía, de poco más de 1.500 kilómetros, no le permitía hacer vuelos intercontinentales, pero en cambio resultaba muy versátil para las comunicaciones interiores, en América y en Europa. Este modelo, y muchos otros que fueron saliendo años después, propiciaron un rápido incremento del tráfico aéreo, tanto de pasajeros como de carga, y en países muy grandes se convirtió en el principal enemigo —en pocos años vencedor absoluto de la contienda— del tren o el automóvil.

El desarrollo de la aviación civil propició la llegada de aparatos cada vez más potentes y con autonomía de vuelo en constante aumento. El cambio vino de la mano de los propulsores, cuando los motores de explosión que movían las hélices evolucionaron hacia los motores turbohélice —el primero que voló comercialmente fue el Vickers Viscount 700, que llegaba a 500 km/h y albergaba a 50 pasajeros, y años más tarde a 70—; muy poco más tarde llegarían las turbinas de reacción.

Más potencia, menos ruido, más autonomía... Y, por tanto, más altitud de vuelo, lo que se traducía en un menor consumo por el rozamiento disminuido con un aire menos denso, y en una mayor distancia recorrida entre escala y escala. Los primeros reactores redujeron la duración del vuelo entre Londres y Tokio de 85 a 36 horas, bastante menos de la mitad. Hoy un moderno reactor hace ese vuelo de un tirón, en poco más de doce horas...

Luego llegaron los aviones de reacción. Para hacerse una idea del cambio que supuso su aparición baste decir que el primero de ellos que voló comercialmente —con un éxito de ventas más que notable— fue el De Havilland Comet, que hizo en 1952 el viaje Londres-Johannesburgo a una velocidad de crucero de 770 km/h. Recordemos que el famoso y ubicuo DC3, avión de corto radio que exigía muchas paradas, apenas llegaba a los 300.

La segunda mitad del siglo XX fue testigo de la eclosión del tráfico aéreo civil, que se beneficiaba de manera muy directa de las innovaciones que iba introduciendo la aviación militar, que tanto en el campo aeronáutico como, más tarde, en el astronáutico siempre fue esencial para las grandes potencias. Era, y es, una industria estratégica fundamental.

¿Y la meteorología, en todo esto?

Es obvio que a mayor diversidad de aviones y recorridos, mayores requerimientos de las condiciones atmosféricas en cuanto a seguridad del vuelo y ahorro de combustible. Los reactores vuelan mucho más alto que los aviones de hélice, requieren cabinas presurizadas para poder viajar confortablemente a muchos miles de metros de altitud, y necesitan conocer de la manera más detallada posible las condiciones de los aeropuertos de salida y destino, y sobre todo de la ruta a seguir.

Los recorridos a muy larga distancia en dirección este siempre pueden aprovechar las corrientes en chorro que discurren más o menos en esa dirección, en la alta troposfera; en cambio, volar contra el viento a esas altitudes no sólo retrasa el vuelo sino que además obliga a un mayor consumo de combustible. Por esa razón los vuelos de ida entre Europa y América duran siempre bastante más que los de vuelta. Desde Madrid a Nueva York, a causa de esos vientos el vuelo dura en promedio una hora más a la ida que a la vuelta. Y entre Madrid y Los Ángeles esa diferencia puede llegar a las dos horas.

Como ya hemos visto, en marzo de 1950 fue creada en el seno de la ONU la Organización Meteorológica Mundial, de carácter intergubernamental, y muy pronto adquirió enorme importancia no sólo su actividad en torno al comercio marítimo sino, sobre todo, en cuestiones aeronáuticas. Algo que no ha dejado de crecer con el paso del tiempo, en paralelo al incremento de la actividad mundial en este campo.

También en España podríamos decir que casi todas las unidades de la actual Agencia Estatal de Meteorología, desde los observatorios a las redes de observación y de comunicaciones, pueden acabar siendo utilizadas por la navegación aérea, aunque los organismos directamente implicados son las Oficinas Meteorológicas de los aeropuertos, las Oficinas de Vigilancia Meteorológica, los Grupos de Predicción y Vigilancia y, desde luego, el exclusivo Servicio de Aplicaciones Aeronáuticas que es quien presta, de forma directa, ese apoyo.

Ningún avión, no ya en España sino en el mundo entero, sale sin el preceptivo estudio meteorológico de los aeropuertos —de salida, llegada y alternativos, estos últimos por si hay algún problema en el recorrido—, así como de la ruta prevista a muy distintos niveles. Incluso en vuelos muy largos suelen disponer de diversas rutas posibles, en función de los vientos favorables, las condiciones de turbulencia, las posibles áreas tormentosas y otros aspectos del vuelo que pudieran alterar su duración, su seguridad e incluso su confort. Los ordenadores y los modernos aparatos de observación y localización, como el radar y el GPS, facilitan hoy la labor de los meteorólogos a la hora de proporcionar una información esencial para cualquiera de estos viajes. De hecho, hoy la elección de la mejor ruta posible se hace de forma casi automática, y se actualiza casi al instante en función de la evolución de las condiciones atmosféricas.

Es tal la demanda profesional de este tipo de información que bien se puede decir que la aeronáutica es la mayor usuaria de los servicios meteorológicos en todo el mundo. También es cierto que se trata de la única actividad humana que, salvo el despegue y el aterrizaje, se efectúa íntegramente en el seno de la atmósfera; lo que significa que es la más directamente implicada en temas meteorológicos, y la que, por añadidura y de forma a menudo indirecta, más ha hecho progresar a la ciencia del tiempo.

Veamos rápidamente cuáles son los principales parámetros meteorológicos que afectan a la aeronáutica en sus múltiples facetas de actividad.

En primer lugar conviene recordar que los aviones modernos disponen, para cada modelo, de un manual de operación que contiene tablas y datos de todo lo que afecta al vuelo, desde la longitud mínima de pista para despegar o aterrizar según las distintas condiciones de viento o visibilidad, hasta las tasas de ascenso de nivel, la velocidad de pérdida de sustentación en función del viento, la temperatura y el propio desplazamiento del avión, los ángulos críticos de alabeo o cabeceo del aparato, etc.

Un buen ejemplo puede ser el peso máximo al despegue (las siglas internacionales son MTOW, que corresponden al inglés Maximum Take-Off Weight), que en cada avión depende no sólo del aparato mismo sino también de la densidad del aire sobre la pista de despegue. Y esa densidad depende a su vez, obviamente, de la temperatura, la humedad y la altitud del aeropuerto. Esta última es conocida, pero la temperatura puede variar muchísimo según la época del año: un avión despega, y aterriza, mucho antes y en menos distancia en un frío día invernal que en una jornada calurosa de verano. Sobre la pista de un aeropuerto como Barajas puede haber en pleno verano, a muy pocos metros de altura sobre la pista, más de 35 grados: el avión tarda mucho más en echar a volar, y también recorrerá más distancia al aterrizar que, por ejemplo, en el mes de enero, con una temperatura de algunos grados bajo cero.

Estos datos tienen mucho que ver, también, con la longitud de la pista... En todo caso, el pasajero no tiene por qué saberlo: el avión efectúa sus maniobras con la misma precisión y seguridad en uno y otro caso.

Por supuesto, es muy raro que se alcancen valores críticos, pero el cálculo de la carga del avión a la hora de despegar exige, por ejemplo en el caso de un Boeing 747 (Jumbo) que por cada grado de temperatura que haya en el aire por encima de los 30 grados se reduzca el peso del avión unas dos toneladas. Si el Jumbo tiene un peso máximo de despegue del orden de 380 toneladas a 30 grados, cuando el aire está a 35 grados el peso al despegue no podrá sobrepasar las 370 toneladas. ¿Cómo se logra esto? Pues reduciendo la carga del avión —los contenedores de carga siempre completan, hasta donde sea posible, la carga del avión formada por el aparato, las personas y los equipajes— o incluso reduciendo algo el combustible, si el vuelo no es muy largo y lo permiten los manuales del aparato. Por cierto, los aviones más modernos que el Jumbo tienen índices de tolerancia muy superiores; la tecnología también ayuda...

Otra cuestión que afecta al despegue y al aterrizaje es el viento. Un avión con un determinado peso al despegue puede llevar más carga si el viento en contra es muy fuerte que si el viento es muy flojo. Si por casualidad tuviera que despegar con viento en cola —algo que no se hace casi nunca, salvo por razones de fuerza mayor— ello exigiría reducir el peso del avión. El Jumbo del ejemplo anterior, con una temperatura de 15 grados y viento de frente de unos 10 nudos puede despegar con unas 5 toneladas más que si el viento estuviera en calma. Pero si tuviera que despegar con viento de cola de sólo 5 nudos (menos de 10 km/h), tendría que reducir su peso en 9 toneladas... Todo ello suponiendo, claro, que el avión fuera cargado a tope, que es lo que desean las compañías con el fin de rentabilizar al máximo el viaje.

Como simple curiosidad, añadamos que una tonelada es el peso de dos pasajeros, su equipaje y el combustible requerido para transportarlos en un recorrido de unos 8.000 kilómetros... En el transporte aéreo, las personas pesamos, a efectos prácticos, en promedio media tonelada.

Puede resultar chocante el hecho de que los aviones tengan que despegar —y aterrizar— con el viento de frente en lugar de hacerlo con el viento de cola. Parece más intuitivo pensar que el viento trasero empujaría al avión, acelerándolo y haciendo que el despegue fuera más rápido. Pero eso es olvidar que el avión no es un vehículo terrestre sino aéreo, como los pájaros. Y a la hora de dejar la tierra y echarse a volar, el aparato tiene literalmente que apoyarse sobre el aire para ganar altura. La velocidad es importante, pero aún lo es más el sustento que debe darle el aire en esa transición entre rodar y volar. El viento en contra disminuye muy poco la velocidad (cuando el avión está a punto de despegar se mueve a una velocidad de casi 200 nudos, y si el viento en contra es de diez nudos su velocidad se reduce muy poco, un 5 por 100), pero en cambio incrementa muchísimo el apoyo que le ofrece el aire al aparato que ha de despegar. Y esa sustentación —creada por la forma del ala— es la que permite precisamente el vuelo.

Al aterrizar ocurre algo parecido, pero al revés. El avión va frenando y bajando, apoyándose en el aire para ello. Si tuviera viento empujándole, su velocidad sería un poco mayor —lo que alargaría la maniobra de aterrizaje— y, además, tendría menos apoyo en el aire junto al suelo para frenar y bajar.

Es obvio que lo ideal parece ser el tiempo frío, con viento en contra, para todas las operaciones de despegue y aterrizaje. Siempre que ese tiempo frío no se complique con lluvia o, aún peor, con niebla, hielo o nieve. La pista cubierta con apenas un centímetro de agua de lluvia o sólo 5 centímetros de nieve recién caída requiere una reducción del peso al despegue de entre 25 y 50 toneladas en un avión grande como el Jumbo 747 o el Airbus 340. Y no digamos si el aparato ha de despegar bajo una fuerte nevada o, lo que es mucho peor aún, con lluvia engelante. La nieve o el hielo súbito de la lluvia engelante pueden depositarse en el borde de ataque de las alas, deformando su perfil aerodinámico y dificultando, incluso impidiendo, el despegue.

Los aviones modernos disponen de calefacción en las alas para evitar este grave problema, pero aun así ha sido la causa de algunos accidentes dramáticos, como aquel que afectó a un Boeing 737 en el despegue del aeropuerto de Washington, en enero de 1982. El avión, de Air Florida, no pudo remontar el vuelo y cayó sobre el río Potomac, en el mismo centro de la capital estadounidense, por culpa de una durísima tormenta de nieve y lluvia helada.

Otro factor meteorológico de enorme importancia en los aeropuertos es la presión atmosférica. Antes del radar, los satélites y el GPS que hoy complementan con suficiente precisión el dato de la altitud del aeropuerto sobre el nivel del mar, sólo era posible obtener ese dato con precisión del orden del metro mediante la presión atmosférica leída en un altímetro. Éste es en realidad un barómetro graduado en metros de altitud en lugar de hectopascales; su inconveniente es que requiere ser «puesto en estación» antes de la lectura, debido a que por el paso de borrascas y anticiclones, la presión atmosférica en un lugar dado puede variar en más o en menos, falseando la medida de la altitud. Hoy los aviones disponen de radioaltímetros, basados en el radar, que miden con enorme precisión la distancia entre la parte más baja del avión y el suelo. Son muy útiles para indicar el punto exacto de la trayectoria de descenso en el que el piloto ha de efectuar el redondeo de su descenso justo antes de tocar tierra las ruedas, tanto en sistemas automáticos como en pilotaje manual.

Y también ahora, gracias no sólo al radar sino sobre todo a los modernos satélites, las trayectorias de los aviones y su altitud de vuelo se encuentran bajo el control automático de diversos sistemas, lo que incrementa la fiabilidad de los datos medidos y, consecuentemente, la seguridad de todo el tráfico aéreo. En la altitud de crucero, el viento en cola es un buen aliado y el viento en contra se convierte en un adversario incómodo y costoso. Es lógico: ya en vuelo, si nos desplazamos sobre una masa que se mueve en nuestra misma dirección —viento de cola— las velocidades (respecto al suelo inmóvil) del aire y del avión se suman. Lo que significa que el avión va más deprisa respecto al suelo, pero a la misma velocidad respecto al aire, que es lo que condiciona el consumo. O sea, llega antes al destino pero gastando menos combustible. Con viento en contra ocurre exactamente lo contrario, claro.

De ahí la enorme importancia de la información meteorológica también para los distintos niveles de vuelo que el avión puede ir adoptando en su recorrido, sobre todo cuando dicho recorrido es de larga distancia. Es más, no suele bastar con la información de partida; en un vuelo de muchas horas, las condiciones de la alta atmósfera, y esencialmente los límites y la velocidad de las corrientes en chorro, pueden variar respecto a las que se habían previsto inicialmente. Eso exige un flujo constante de información meteorológica entre el piloto y los meteorólogos, a través de los más modernos sistemas de telecomunicación. De hecho, el trabajo está automatizado de forma prácticamente total gracias a los modernos ordenadores meteorológicos.

2.4.6. Turismo

El turismo tal y como hoy lo concebimos es una actividad a medias entre lo lúdico y lo cultural que lleva relativamente poco tiempo entre nosotros. Pero en tiempos pasados, muchas poblaciones humanas fueron esencialmente nómadas y seguían siempre un camino migratorio similar al de las aves viajeras, buscando características meteorológicas favorables para las distintas estaciones del año. Pero aquellos desplazamientos —los amerindios en las grandes praderas de Norteamérica, los mongoles en el centro de Asia...— no se hacían por gusto sino por necesidad, incluso por mera supervivencia.

También hubo desde siempre, y las grandes odiseas de la Antigüedad así lo atestiguan, aventuras de exploración en busca de mundos desconocidos, territorios nuevos que conquistar, fabulosas riquezas por descubrir, extrañas especies vegetales y animales para consumir, eventualmente más interesantes que las ya conocidas... Esa ambición del descubrimiento, de la exploración de lo desconocido, podía estar motivada por el espíritu aventurero propio de líderes carismáticos y míticos —Jasón, Ulises...—, pero desde luego nunca adquiría un carácter lúdico como el que caracteriza al turismo actual. No se viajaba en plan recreativo, o cultural, por el puro placer de conocer otras gentes y otros paisajes antes de regresar al habitual confort del hábitat propio, sino por una suerte de destino épico que acabaría llevando a los intrépidos viajeros nada menos que... a la inmortalidad o bien al anonimato de una desaparición que nadie conocería nunca.

El turista moderno sólo viaja durante un corto período de tiempo, como mucho un mes en todo el año, incluso menos. Y tras el viaje siempre regresa al lugar de origen, salvo casos realmente excepcionales. ¿Qué busca, entonces, si al final vuelve al punto de partida, al hogar propio, haya visto lo que haya visto en su periplo? Lo habitual es que el turista busque sencillamente un cambio de aires, de paisaje, de hábitos, de compañía incluso... Pero sabiendo que todo ello tiene carácter efímero, momentáneo, nunca permanente. Y por eso resulta lógico que exija de esos desplazamientos, que además entrañan un gasto más que considerable, el cumplimiento de unas expectativas de ocio, descanso y cambio de tipo de vida lo más placenteras y satisfactorias posibles.

En todo ello es evidente que las condiciones meteorológicas desempeñan un papel importante. Claro que, por ejemplo, si uno se va a una playa de Asturias a pasar veinte días de vacaciones en agosto, quizá no espera encontrar allí el mismo tiempo que en una playa de la Comunidad Valenciana; a cambio, encontrará otras cosas bien diferentes. Pero aun así siempre es mejor saber si va a hacer mucho frío, si va a llover poco o mucho, si...

Lo cierto es que lo que se espera del comportamiento atmosférico en general es algo bastante sencillo: que no contribuya a frustrar las expectativas, tanto durante el viaje como a lo largo de la estancia en el lugar elegido. Que llueva algunos días en pleno verano asturiano es normal, que ocurra lo mismo en Almería no tanto... Si es turismo de verano, que es el más común, se espera que el tiempo sea el normal en la zona; en las regiones de clima cálido y seco, lo obvio es que el tiempo sea soleado, caluroso y propicio al baño o la excursión. En cambio el turismo de invierno, cada vez más importante económicamente hablando, espera que el tiempo se corresponda con el frío y la nieve debidos, aunque siempre es deseable una atmósfera estable que favorezca la práctica del esquí, la escalada o cualquier otra actividad propia de esa época. En cuanto al turismo de aventura y descubrimiento, menos masificado y bastante más acostumbrado a afrontar ciertos riesgos, el tiempo adverso quizá forme parte de las emociones del viaje y por tanto cobra menos interés que las nubes se porten mejor o peor.

En suma, la meteorología turística no es, después de todo, más que el estudio de las condiciones óptimas para la actividad recreativa que se pretenda. Y el óptimo pasa por... la normalidad más absoluta. Es decir, calor en verano, frío y nieve en las montañas durante el invierno, y así sucesivamente. Lo cierto es que no habría mucho más que decir si no fuera porque las veleidades atmosféricas hacen luego que la normalidad atmosférica sólo se cumpla... en promedio y a largo plazo; o sea, que lo normal es lo que dicta el clima de la zona. Que, como es un promedio, no siempre se ajusta a las veleidades de la temperie día a día. Ahí es donde cobra especial relevancia la predicción del tiempo, que no del clima, con fines estrictamente turísticos.

¿Sería posible concebir una especie de índice climatológico turístico? ¿Cabría incluso la posibilidad de realizar predicciones del tiempo a muy corto plazo orientadas esencialmente a la actividad turística —especialmente en determinadas épocas del año—, del mismo modo que se elaboran predicciones especializadas para la aeronáutica o el transporte marítimo, tanto costero como de alta mar? Obviamente, sí. Pero ni siquiera los países más implicados en ese asunto en todo el mundo, España entre ellos —somos la sede de la Organización Mundial de Turismo (OMT) de la ONU—, consideran el asunto con la seriedad que requiere el caso.

El turismo quizá sea nuestra primera industria, y a él han destinado nuestros gobernantes múltiples recursos. Y lo cierto es que, a pesar de que los precios han subido mucho y ya no son lo que eran, España sigue siendo una de las primeras potencias turísticas mundiales y un ejemplo en el que se miran los demás países. Pero en el aspecto meteorológico lo cierto es que en España —y también, desde luego, en muchos otros países— se da por descontado el hecho de que el tiempo será el que suele ser, suponiendo casi sin pensar que la normalidad climática habrá de presidir el devenir del tiempo de todos los días. ¡Craso error! El clima, a la larga, se cumple; pero las excepciones meteorológicas pueden resultar costosas, o sencillamente molestas... Y más frecuentes de lo que quisiéramos.

¿Qué le interesa al turista de un país nórdico que viene, por ejemplo, a la Costa del Sol a pasar una semana de asueto en el mes de junio? Pues, grosso modo, que haga honor a su fama; es decir, que en los días más largos del año esa región española tenga efectivamente un tiempo soleado. Incluso puede no importarle que llueva de noche, que haya viento de levante en el Estrecho y áreas próximas, o que el anticiclón de las Azores se haya desplazado hacia el golfo de Cádiz alejándose de su habitual posición atlántica.

Pero si ocurre precisamente esto último, y no es muy raro que eso suceda, entonces podría darse una situación de vientos terrales, de componente Norte, que hacen subir la temperatura hasta extremos casi insoportables. Algo que a unos gustará y a otros puede que no tanto. En otras ocasiones pueden presentarse, en plena Costa del Sol, nieblas y nubes bajas durante la mañana y buena parte de las horas centrales del día por culpa de la mezcla de masas de aire atlántica y mediterránea. Y aunque la causa de estos y otros sucesos meteorológicos le produzca total indiferencia al visitante nórdico de nuestro ejemplo, lo que es obvio es que en ningún caso la región habrá cumplido con el compromiso adquirido del asoleo permanente, que va implícito en su nombre.

Puede parecer exagerado, pero es obvio que los datos estadísticos del clima no siempre reflejan lo que luego nos ofrece el tiempo día a día, año tras año. Esas estadísticas justifican, sin la menor duda, que la Costa del Sol se llame así. Pero a veces, incluso allí falla la insolación diurna...

En suma, la meteorología turística, todavía en mantillas, quizá debiera establecer partes del tiempo actual y previsto, orientados de manera clara a las actividades propiamente recreativas típicas de cada una de las zonas consideradas. Si es una playa, obviamente importa sólo el tiempo que vaya a hacer en las horas en que los visitantes se acercan a la orilla del mar para nadar, tomar el sol o realizar cualquier actividad costera, incluyendo la navegación a vela próxima a la orilla. Si es turismo de invierno y montaña, no sólo importa el estado de la nieve para esquiar sino sobre todo algunas características meteorológicas especialmente adversas; no tanto que salgo un día soleado, siempre deseable aunque a lo mejor pudiera reblandecer en exceso la nieve, sino sobre todo que no haya demasiado viento, con o sin precipitación, o nieblas densas que impidan la práctica del esquí. Y así sucesivamente...

No es necesario decir que ni los turistas de hoy, ni aún menos los agentes que intervienen en toda esa cadena de actividades que llevan al cliente desde su casa al destino elegido, difícilmente pueden influir sobre el tiempo. Nadie puede encargar a voluntad que haya tiempo soleado o que nieve allí donde uno va; pero sí se puede planificar con cabeza, de manera informada, usando las estadísticas climatológicas y las predicciones a corto y medio plazo. Aunque eso no garantice del todo que al final las cosas van a salir bien, es obvio que pone más papeletas a favor en esa especie de lotería que es el comportamiento de la atmósfera. Y más vale poner de nuestro lado a las leyes de la probabilidad, hasta donde ello sea posible. Un servicio de valor añadido que deberían ofrecer las agencias de viajes, los hoteleros, las compañías aéreas y, desde luego, las agencias oficiales de meteorología.

Al comenzar la primera guerra mundial se calcula que había ya en Europa, en el verano del año 1914, unos 150.000 turistas americanos. El conflicto bélico frenó esa actividad, pero a partir de los años treinta, el auge de los automóviles y, más adelante, la aparición de la aviación civil, surge un creciente turismo de sol y playa, y se intensifica aún más el turismo de masas para visitar lugares desconocidos. A mediados del siglo XX, y hasta el primer choque petrolífero de 1973, crece desmesuradamente la actividad turística y, en paralelo, crece igualmente la demanda de informaciones meteorológicas cada vez más precisas. Ya hemos visto la dependencia del tiempo que tiene el transporte por tierra, mar y aire, pero ese vínculo se hace poderoso cuando, además, ese transporte se hace con fines estrictamente turísticos.

El famoso eslogan español de Curro que se va al Caribe tuvo un éxito sin precedentes, pero es obvio que antes de ir a aquella región de clima envidiable conviene enterarse de la posibilidad de ocurrencia de un ciclón tropical, fenómeno más que habitual en esas regiones en verano y en otoño. Más de un imitador del famoso Curro volvió a Europa compuesto y sin vacaciones por culpa del mal tiempo. No se puede ignorar el clima de las regiones a visitar —es un dato poco preciso, pero siempre útil—, y además conviene informarse del tiempo previsto, aunque sea con pocos días de antelación, para hacerse a la idea de lo que uno puede llegar a encontrarse.

3

Clima y tiempo

3.1. Observación y predicción

3.1.1. Redes terrestres y satélites

La meteorología está hoy plenamente integrada como ciencia a parte entera, y con todas sus consecuencias —cátedras de universidad, centros de investigación, especialistas del máximo nivel—, además de haberse puesto de moda de forma casi universal no tanto por sus predicciones del tiempo en el fin de semana como por el alcance que han adquirido las cuestiones relacionadas con el cambio climático.

Pero además de hacer predicciones acerca del estado de la temperie al día siguiente o de ocuparse de los problemas que aquejan a nuestros climas, se trata de una ciencia que rinde servicios de enorme valor a la sociedad, aunque ésta no siempre lo advierta, al menos no conscientemente.

Por ejemplo, muchos pasajeros de avión ignoran que los pilotos, antes de emprender un viaje, efectúan —y es una de sus tareas preparatorias indispensables— un exhaustivo análisis de la situación meteorológica de los aeropuertos de salida y llegada, así como de los pormenores de su ruta. Para ello reciben toda clase de datos e informes elaborados por los propios servicios meteorológicos de la compañía, además de los que se reciben internacionalmente por Internet.

Sabemos ya que la ciencia meteorológica no tiene nada de mágica y sí mucho de actividad racional, muy rentable en términos puramente económicos y en enriquecimiento científico para la humanidad. Todo ello sería imposible sin una amplia red de observación compuesta de miles de centros situados en distintos puntos de la superficie terrestre, cuyos datos se complementan con los que proporcionan numerosos satélites artificiales, que pueden observar todo el planeta, océanos, montañas y zonas polares incluidos.

Esas observaciones resultan esenciales para establecer algún tipo de predicción acerca de su evolución futura a más o menos corto plazo. Lo mismo que el médico requiere una previa observación del enfermo, realizando todo tipo de análisis —desde la simple auscultación y el uso del termómetro clínico, hasta los sistemas más sofisticados de estudio del interior del cuerpo— antes de emitir un pronóstico y recomendar algún tipo de tratamiento, el meteorólogo debe conocer lo mejor posible el estado de su «enfermo» (o sea, la atmósfera) antes de poder efectuar una prognosis sobre su evolución. Donde aún no sabe llegar es a la fase de tratamiento; estamos muy lejos de poder «curar» los peores males que aquejan a la atmósfera, como los ciclones tropicales o las sequías extremas...

De ahí la importancia, en todo caso, de la auscultación del paciente; lo malo es que el de la meteorología tiene un tamaño gigantesco: todo el volumen atmosférico. Por eso, a pesar de los poderosos medios puestos hoy a disposición de los especialistas, aún fallan más de lo que quisiéramos los datos relacionados con el tiempo, sobre todo cuando queremos referirnos a todos y cada uno de los puntos de la atmósfera. Su tamaño lo dificulta extraordinariamente. Y si eso es así con la temperie, qué no será cuando se abordan problemas relacionados con los promedios a largo plazo, es decir, los climas.

El establecimiento de observatorios en muy diversos lugares con el fin de determinar las características locales del tiempo en esas zonas es relativamente reciente; apenas siglo y medio en Europa para un corto número de lugares, y menos de un siglo para la mayoría de los actuales observatorios del mundo entero. La mejora de los medios de comunicación y la concentración casi instantánea de datos procedentes de casi cualquier lugar comenzó a ser posible a finales del siglo XIX y durante los primeros años del XX; gracias a ello, la meteorología comenzó a dar pasos de gigante gracias a las posibilidades de analizar esos datos casi simultáneos. La aparición de la meteorología sinóptica en Bergen hubiera sido imposible sin todas esas medidas cada vez más numerosas y fiables de los parámetros del tiempo, que luego se plasmaban en esquemas elegantes y resumidos visualizados en mapas sencillos de interpretar.

Las actuales redes de observación, que se articularon mucho antes que Internet en un formato de interconexión múltiple entre observatorios, siguen siendo una herramienta esencial para comprender el tiempo, para elaborar estadísticas del clima y para disponer de datos de partida con los que elaborar modelos matemáticos de predicción.

Los observatorios en tierra pueden ser completos, lo que significa que miden todos los parámetros posibles de manera regular y son atendidos por personal especializado. O bien pueden ser parciales y medir sólo precipitación, o bien precipitación y temperatura; estas estaciones pluviométricas o termopluviométricas suelen estar a cargo de personal no especializado que, de forma voluntaria, se presta a tomar esos datos y enviarlos de manera regular al correspondiente organismo oficial, con fines más climatológicos que meteorológicos.

Estaciones completas:

Estas estaciones también se llaman observatorios sinópticos de superficie, y suelen constar de una zona de observación y una oficina en la que trabajan los especialistas que están al cargo de ella. Se realizan observaciones de muy diferentes variables meteorológicas a intervalos frecuentes, y luego se cifran y se difunden. Su finalidad es básicamente la predicción del tiempo, pero los datos se acumulan también con fines climatológicos. Se miden la cantidad, altura y tipo de nubes, la visibilidad horizontal, la dirección y velocidad media del viento en los últimos diez minutos (incluyendo las rachas máximas, en el anemocinemógrafo), la temperatura, la humedad relativa y la presión atmosférica (tanto la que se mide en la estación como la que se calcula reduciéndola al nivel del mar), así como las temperaturas extremas, tanto en la garita como, a menudo, muy cerca del suelo, e incluso la temperatura del subsuelo; y, además, el número de horas de sol, la precipitación total y la evaporación.

La oficina meteorológica alberga los instrumentos registradores, conectados con los medidores externos (por ejemplo, los registradores de viento), además de los barómetros y barógrafos para medir la presión. En la zona exterior se colocan los aparatos de medida de intemperie; la mayoría se instalan dentro de una garita de láminas de madera pintadas de blanco, que dejan pasar el aire pero no el sol. Su puerta sólo se abre para leer los termómetros y otros aparatos, y está orientada al norte (en nuestras latitudes, porque en el hemisferio sur la puerta se abre, claro, hacia el sur) para que nunca entre la luz solar directa, que podría falsear los datos.

Esta garita, de medida estándar, se sitúa también por normativa internacional sobre cuatro soportes a una altura de metro y medio sobre el suelo, que ha de ser ajardinado (normalmente, césped). Como todos los observatorios siguen esta misma regla, eso garantiza la homogeneidad de los datos obtenidos a lo largo y ancho del planeta. El heliógrafo, en cambio, ha de orientarse hacia el sur en nuestro hemisferio (y al norte en el otro hemisferio); es lógico que nada deba darle sombra...

Los medidores de viento se instalan sobre un mástil a diez metros de altura y a una distancia mínima de diez metros de cualquier obstáculo que pudiera falsear sus medidas; los medidores de lluvia se sitúan a la misma altura que la garita, pero lejos de cualquier obstáculo que pudiera acumular la precipitación o provocar un registro que no coincida con la regularidad o la homogeneidad de lo que esté cayendo.

Un tipo especial de estación terrestre es la aeronáutica, típica de los aeropuertos civiles y de las bases aéreas militares. Su finalidad inmediata es la obtención de todas aquellas variables que puedan resultar de utilidad para la navegación aérea de los aparatos civiles y militares, tanto helicópteros como aviones. Por supuesto, son observatorios integrados en la red general, pero que además de los trabajos normales en cualquier oficina meteorológica también elaboran informes acerca de las distintas rutas que tomen los aviones en cada momento. La zona de observación de estas estaciones suele situarse a pie de pista, y las normas que se aplican no son sólo las de la OMM, sino también las que dicta la OACI (Organización de Aviación Civil Internacional).

Estaciones complementarias:

Son mucho más numerosos los observatorios terrestres termopluviométricos y pluviométricos. Los primeros realizan medidas diarias de temperaturas extremas y de precipitación en 24 horas, los segundos sólo miden esa precipitación diaria. En ambos casos se ha de indicar el tipo de meteoro producido. Estas estaciones, al ser los datos diarios, tienen una finalidad esencialmente climatológica; una vez recopilados a lo largo de un mes, se envían al organismo oficial competente. En cuanto a las precipitaciones en zonas de montaña, a veces son difíciles de medir en los pluviómetros totalizadores (suelen ser leídos una vez al mes, o incluso al trimestre, por su inaccesibilidad), sobre todo en invierno, cuando el medidor no realiza su función por congelación del agua o la nieve recogidas.

Algunas estaciones completas suelen incluir a menudo un observatorio secundario destinado a medir la evaporación efectiva, un dato de enorme interés para aplicaciones agronómicas. Estas estaciones evaporimétricas utilizan una instrumentación bastante curiosa, consistente en un tanque de evaporación, con su pozo tranquilizador, además de un pluviómetro propio, un anemómetro y un termómetro especial llamado Six-Bellami.

Estaciones de radar:

Algunos observatorios principales pueden controlar estaciones de radar aunque todas ellas suelen estar situadas en algún lugar aislado y en una elevación que dificulte las señales parásitas. En España son trece en la península y dos en las islas.

Las antenas correspondientes ofrecen una excelente imagen radar de las nubes y sus precipitaciones, mostrando además con bastante precisión la intensidad instantánea de la lluvia. Los datos se ofrecen al público gratuitamente en la página web de la Agencia Estatal de Meteorología (http://www.aemet.es/es/eltiempo/observacion/radar), en forma de mosaico, con imágenes cada media hora. También se ofrecen las imágenes de los radares regionales, cada diez minutos; todo ello en tiempo real.

Los ingentes progresos de la informática moderna aplicados al tratamiento de estos datos de radar permiten ampliar y explotar al máximo todos esos datos, incluso precisar en una pequeña área muy concreta algún aspecto especialmente interesante por la razón que sea. Lo cual resulta esencial en el análisis del tiempo presente y su posible predicción a corto plazo, pero también para estudios climatológicos posteriores; por ejemplo, si se produce una catástrofe aislada en un lugar desprovisto de observatorio meteorológico, el radar puede ayudar a posteriori a determinar qué es lo que ocurrió exactamente. Aunque sólo sea por las indemnizaciones ligadas a los seguros, esta aplicación del radar meteorológico puede implicar enormes sumas de dinero... No es, pues, de extrañar que se haya convertido en una herramienta de análisis y decisión para múltiples organismos, públicos y privados, en diversos campos de actividad.

Hay más ventajas, ligadas a la medida de la precipitación y, de forma indirecta, de las nubes, el viento y otras variables: el radar es mucho más eficiente a coste igual que un sistema de medición con aparatos fijos en tierra. Es decir, se obtienen datos mucho más completos, generales y precisos, a mucho menor coste. Y si lo comparamos con los datos de satélite, el radar no sólo es mucho más barato de instalación y uso, sino que además alcanza una precisión muy superior. Los satélites tienen en cambio otras ventajas, por ejemplo para medir muchos otros parámetros, y sobre todo para obtener datos de regiones despobladas, incluidos los océanos.

Estaciones de radiosondeo:

Los sondeos de la atmósfera superior mediante globos podría pensarse que están ya obsoletos, ahora que disponemos de radares y satélites. A finales del siglo XIX se usaban simples globos, cuya trayectoria al ascender informaba acerca del grado de estabilidad de la atmósfera, además de ofrecer una idea intuitiva de la dirección e incluso la velocidad del viento en los distintos niveles. Luego, a mediados del siglo XX ya se habían generalizado los globos dotados de una pequeña barquilla en la que se colocaban aparatos de medida y una pequeña emisora de radio para transmitir en código los datos medidos de forma continua durante el ascenso. Desde hace un par de decenios se ha generalizado el uso del GPS con el fin de conocer con el máximo detalle la localización del globo a cada instante.

O sea que, a pesar de los satélites y los radares, seguimos utilizando los sondeos; sencillamente, porque siguen siendo muy útiles para conocer el estado de la atmósfera en sus distintos niveles casi de forma instantánea. En este caso no importa mucho que haya pocos lugares donde se efectúan los sondeos: en altura, el aire se comporta de forma mucho más homogénea que en superficie. Aquí abajo los rasgos del relieve introducen turbulencias y variaciones considerables, incluso a corta distancia. Tampoco sería de mucha utilidad la realización de sondeos muy frecuentes; las variaciones temporales de las condiciones de la alta atmósfera son bastante más lentas y predecibles que las de un punto concreto de la superficie. Por eso estos radiosondeos se hacen dos veces al día; suele ser suficiente, aunque a veces se hacen cada seis horas.

La trayectoria ascendente del globo es sumamente irregular, con desviaciones a veces muy considerables respecto a la vertical. Tan errática trayectoria, analizada posteriormente para cada nivel de altitud, proporciona datos valiosos de viento, presión, temperatura, humedad y, sobre todo, de estabilidad de la atmósfera. Algo esencial para predecir, por ejemplo, tormentas vespertinas con el sondeo de la mañana del mismo día.

Por cierto, cuando el globo estalla a muchos kilómetros de altitud por la escasa presión atmosférica existente allí, la barquilla cae a tierra, pero es difícilmente recuperable porque suele quedar gravemente dañada en su caída, a pesar de tener un pequeño paracaídas para amortiguar el descenso.

En España existen diez estaciones de radiosondeos, a las que habría que sumar las de Lisboa y Gibraltar, para abarcar toda la península Ibérica. Los sondeos de Madrid y Tenerife miden, además, el ozono; sus globos son mayores que los de las demás estaciones, por lo que alcanzan altitudes muy considerables, de hasta 35 kilómetros.

Satélites meteorológicos:

La puesta en órbita del Sputnik en octubre de 1957 abrió una nueva era para la humanidad: la conquista del espacio exterior, más allá de la atmósfera. Desde aquella lejana fecha, hace ya más de medio siglo, se han ido multiplicando las sondas viajeras y los satélites de todo tipo.

Las naves que han viajado más allá de la gravedad de nuestro planeta han sido y son todas ellas automáticas, no tripuladas excepto, claro, las del programa Apolo. Seis de estas últimas llevaron en total a doce hombres —y a otros seis más que se quedaron en órbita lunar esperando a sus compañeros— para que pisaran la Luna entre 1969 y 1972.

Los numerosos viajes de exploración espacial, lejos del planeta o en torno a él, nos han proporcionado datos de enorme interés para múltiples aplicaciones, incluida obviamente la meteorología. Sobre todo gracias a los satélites específicamente destinados a ese fin, tanto en órbitas bajas como en la órbita geoestacionaria.

La órbita geoestacionaria fue descubierta y explicada por el escritor británico de ciencia ficción, el físico e inventor Arthur Charles Clarke (1917-2008). Clarke contaba entonces con sólo 28 años, y su artículo técnico —titulado «Extra-terrestrial Relays» («Relés extraterrestres»)— sentaba las bases de lo que podrían ser los satélites artificiales aparentemente inmóviles en el cielo sobre una determinada región de la Tierra. Eso lo escribió en 1945, doce años antes del Sputnik. Pero el primer satélite geoestacionario, el Syncom-3, no sería lanzado hasta 1964 —cuando Clarke ya era un famoso novelista— y permitió la retransmisión a Europa de los Juegos Olímpicos de Tokio.

En esa órbita el satélite gira a la misma velocidad que la Tierra y, por tanto, parece literalmente colgado del cielo, visto desde el suelo. Puede, pues, ser utilizado como una especie de antena fija para remitir datos o señales de telecomunicación... pero desde 36.000 kilómetros de altitud. Un auténtico relé extraterrestre, como lo había bautizado Clarke. Hoy existen muchos satélites de todo tipo, más de la mitad de ellos meteorológicos, en esa órbita que es conocida como «Cinturón de Clarke».

Los satélites meteorológicos actuales observan muchas más cosas que las nubes, y son capaces de discriminar la temperatura dentro de esas nubes, en diferentes niveles, además de ofrecer muchos otros datos de interés. Desde hace unos años suelen ser de dos tipos: los polares, de órbita baja, y los geoestacionarios. Entre estos últimos destacan los norteamericanos GOES (en estos momentos están en órbita los números 11 y 12), el japonés MTSAT-1R, el ruso GOMS y los europeos METEOSAT (el primero de la serie fue lanzado en 1977). También disponen de satélites geoestacionarios con fines meteorológicos China, que tiene dos de ellos, e India, que posee uno. Estos satélites cubren aproximadamente un tercio de la superficie del planeta, las zonas generalmente más habitadas. En cambio, ofrecen escasa información acerca de las regiones polares. Por cierto, aunque parezcan estar quietos en su posición respecto al planeta, estos satélites giran sobre sí mismos a gran velocidad, dando unas cien vueltas por minuto.

Por su parte los satélites de órbita polar se mueven a una altitud de entre 350 y 900 kilómetros —la Estación Espacial Internacional, con sus tripulantes, gira a unos 500 kilómetros de altitud—. Los satélites polares están, pues, mucho más cerca que los geoestacionarios, y sobrevuelan el planeta pasando por los polos. Las órbitas se calculan de manera heliosíncrona, es decir, de forma tal que, contando con el propio giro de la Tierra en torno al Sol, los satélites acaben observando toda la superficie del planeta en sucesivas pasadas, sobrevolando dos veces al día la misma región. Sus imágenes son mejores que las de los geoestacionarios, pero éstos observan el discurrir de las nubes y los meteoros de manera continua mientras que los polares sólo pasan un par de veces al día por cada lugar. Cada sistema tiene sus ventajas para según qué usos...

3.1.2. Análisis: manual e informático

Los aparatos de medida que se han venido desarrollando en los últimos tres siglos y pico, y las observaciones mucho más recientes procedentes de satélites y otros observatorios modernos, nos proporcionan unos datos cada vez más completos y generalizados acerca del comportamiento de la atmósfera en cada instante. La inmediatez de las transmisiones permite, además, concentrar esos datos en múltiples oficinas meteorológicas donde los profesionales pueden, así, proceder al análisis de toda esa ingente cantidad de datos con el fin de comprender cuál es la situación real del tiempo en regiones muy extensas del planeta, en cada instante. Y con ese análisis es posible intentar, incluso, predecir la evolución futura de esa situación con suficiente antelación como para que resulte de alguna utilidad.

Así que el proceso completo sigue el orden siguiente: obtención de datos en muchos sitios a la vez y en momentos concretos, transmisión y concentración de todos esos datos en las oficinas meteorológicas, análisis de todos esos datos en las oficinas, y finalmente elaboración de predicciones de comportamiento futuro del tiempo. Esas predicciones son finalmente difundidas por canales específicos a usuarios concretos —por ejemplo, la aviación civil, que las necesita de forma inexcusable—, o bien por canales abiertos que les permiten llegar al gran público.

Hemos visto hasta aquí la obtención de datos gracias al establecimiento de las redes de observación y, más recientemente, de los satélites meteorológicos. El paso siguiente es el análisis de toda esa información, que inicialmente se realizaba de forma manual, incluido un cierto «ojo de buen cubero» del especialista, pero que ahora se apoya de manera cada vez más decisiva en las nuevas tecnologías informáticas y las posibilidades que abren para el cálculo numérico.

Con todo, el análisis manual no ha sido abandonado del todo, y de hecho sigue haciéndose en los grandes centros dedicados a la ciencia meteorológica. Ya hemos visto que alcanzó su despegue real con la escuela noruega de Bergen, a comienzos del siglo XX, gracias a los avances obtenidos en el conocimiento teórico del movimiento del aire en función del desplazamiento de las zonas de altas y bajas presiones, de los frentes y de los diversos elementos atmosféricos que cambian y se desplazan de manera constante.

Hasta entonces, los intentos previos de predecir científicamente el tiempo se basaban en métodos intuitivos, en general analizando ejemplos del pasado que mostraran similitudes con el caso presente, y deduciendo entonces cuál podría ser la evolución. Pero era éste un método muy subjetivo, aunque sin duda sencillo, y muy pronto se vio que servía de bastante poco: siempre se veía, a posteriori, que la evolución de los fenómenos atmosféricos casi nunca parecía seguir algún tipo de patrón, ni siquiera cuando la situación inicial parecía ser idéntica a la de algún caso anterior producido años antes. El tiempo meteorológico es tan complejo y variable que nunca parece repetirse de la misma forma; el método de comparación con casos análogos ofrecía, por eso, demasiados fracasos y muy pocos éxitos.

Cuando los noruegos, con Bjerknes a la cabeza, iniciaron su análisis científico —y, en parte, matemático— de los primeros mapas de presiones se inició la aventura que aún hoy continúa: el análisis científico y minucioso del tiempo actual, como base para la predicción del tiempo futuro. Lo malo es que, por aquella época, hace un siglo, se carecía de datos fiables acerca del comportamiento de la atmósfera en los océanos, en las zonas selváticas, en los hielos polares... Y no se tenía información alguna acerca de la alta atmósfera.

Por fortuna, durante estos últimos decenios se ha ido afinando la metodología y, además de disponer de datos cada vez más numerosos y fiables, también se han ido conociendo mejor las leyes que gobiernan el movimiento de las nubes, los frentes y las borrascas y anticiclones. Incluso, ya lo hemos visto, conocemos mucho mejor el conjunto de la atmósfera a todos los niveles y en cualquier lugar del globo terrestre, gracias a los datos proporcionados en continuo por los satélites artificiales.

De todos modos, conforme iba creciendo la complejidad del problema analizado, que gira en torno a la situación actual del tiempo y la predicción de su evolución futura, más complicado se iba haciendo su análisis. Inicialmente, los noruegos utilizaban un mapa en el que situaban los datos registrados en las diferentes localidades, a una misma hora, inscribiendo sobre el mapa mismo una serie de símbolos acerca de los principales parámetros como la nubosidad, la precipitación, la presión y su tendencia (sube o baja en las últimas horas), la temperatura...

Cuando la densidad de los datos fue creciendo, la escala de los mapas fue aumentando, y el área abarcada se iba reduciendo cada vez más. Todo esto se hacía a mano, para que luego el analista pudiera, de un vistazo, abarcar todo ese conjunto de datos sobre el mapa, y deducir cómo se trazaban las líneas isobaras y, por tanto, la situación de los anticiclones, las borrascas y los frentes. A partir de ahí, y basándose en la experiencia del analista —que a su vez se basaba en su conocimiento de las reglas teóricas que se iban descubriendo, y en la estimación personal de la importancia atribuida a unos u otros datos (por ejemplo, la presión y la temperatura en descenso, o en ascenso)—, se podía incluso trazar un mapa previsto sobre el que deducir alguna tendencia del tiempo futuro.

Este análisis manual fue perfeccionado poco a poco a lo largo del siglo XX, y era lo único realmente útil hasta que la creciente complejidad de los datos obtenidos —sobre todo, cuando hubo que integrar los que procedían de los satélites— y la eficacia cada vez más importante de los sistemas informáticos aconsejó complementarlo con métodos numéricos, que hoy se van poco a poco imponiendo.

El hecho de poner en ecuaciones el tiempo presente, y deducir matemáticamente el tiempo futuro, no es muy reciente. Probablemente tiene también, como el análisis científico, un siglo; como ya vimos, es más que probable que la figura clave al respecto fuera el matemático británico Lewis Fry Richardson (1881-1953), el primero que estableció las bases matemáticas —todavía muy rudimentarias— para el pronóstico numérico del tiempo. Por cierto, él era un pacifista convencido y también estableció predicciones numéricas de los conflictos armados, con la esperanza de poder así resolver definitivamente el problema de la guerra y hacerlas inútiles ante la previsión de los males que pudiera acarrear, siempre superiores a las ventajas que el conflicto bélico pudiera ofrecer a uno u otro contendiente. De hecho, cuando se enteró al final de su vida que sus descubrimientos acerca de la atmósfera podrían ser utilizados para difundir armas químicas, destruyó todas sus investigaciones en curso y todo lo ya descubierto pero todavía no difundido...

Por cierto, Richardson también anticipó la teoría de las fractales que más adelante conduciría a la teoría del caos; lo hizo casi de pasada, como una pequeña broma formulada, eso sí, de forma aproximadamente poética, que podría traducirse más o menos así: «los grandes remolinos tienen pequeños remolinos que se alimentan de su velocidad, los pequeños remolinos tienen remolinos aún más pequeños, y así hasta la viscosidad»:

Big whirls have little whirls

that feed on their velocity,

little whirls have lesser whirls

and so on to viscosity.

Otros personajes intervinieron en lo que podríamos llamar prehistoria del tratamiento numérico del tiempo. Por ejemplo, el famoso John von Neumann (1903-1957), matemático norteamericano de origen húngaro, que trabajó sobre todo en el Instituto de Estudios Avanzados de Princeton. Von Neumann organizó entre 1948 y 1952, en paralelo con sus muchas otras actividades, un grupo de trabajo para establecer un modelo de análisis y pronóstico del tiempo, que intentó poner en práctica con ayuda del ordenador MANIAC, más evolucionado que el ENIAC que tanto asombró a Richardson. Pero aún era pronto para eso; eran máquinas muy lentas y tenían poca capacidad de cálculo, incluso comparadas con cualquier modesto ordenador doméstico de hoy.

No obstante, a lo largo de los decenios siguientes la informática fue avanzando a pasos agigantados, aunque los modelos matemáticos para predecir el tiempo seguían sin servir para gran cosa. Quizá fue eso lo que hizo suponer al meteorólogo norteamericano Edward Norton Lorenz (1917-2008) —no confundirle con el neerlandés Hendrik Antoon Lorentz (1853-1928), premio Nobel de Física y que le dio su nombre a la transformación relativista que sufre la materia a velocidades próximas a la de la luz)— que las cosas no eran tan simples y que en la naturaleza la temperie no era determinista. Lo que le llevó a formular la teoría del caos... Lo veremos extensamente más adelante.

3.1.3. Predicción

Las anécdotas en torno a los hombres del tiempo —muchos de los cuales fueron y son excelentes profesionales de la meteorología que, además, se han convertido en personas famosas por el hecho de difundir personalmente en los medios de comunicación el estado del tiempo y su predicción— son infinitas. «Te equivocas más que el hombre del tiempo», suele decirse jocosamente... En todo caso, lo que aquí nos importa es saber cómo se realizan esas predicciones, lo que quizá ayude, en segunda derivada, a comprender por qué se equivocan —en realidad, eso no es del todo cierto, enseguida lo veremos— las predicciones meteorológicas.

Digamos antes de nada que en estos momentos, al comienzo de la primavera de 2013, la predicción del tiempo hasta un plazo máximo de 72 horas, alcanza una fiabilidad muy superior a la que se podía conseguir hace tan sólo veinte años, y no digamos hace más de cuarenta años, cuando quien estas líneas escribe comenzaba a dedicarse a esos menesteres en la entonces única televisión que había en España. No es fácil ofrecer cifras, pero es probable que, a sólo 24 horas de plazo, las predicciones de los años setenta acertaran tres de cuatro veces, mientras que ahora se ha pasado de ese 75 por 100 al 95 por 100, si no más. A tres días vista, los aciertos en los setenta apenas llegaban a los dos tercios, mientras que ahora se alcanza más o menos el 80-85 por 100...

¿Cómo se ha conseguido tan notable mejoría? Las razones son varias, pero quizá quepa mencionar en primer lugar la mejora en la identificación de las cada vez más complejas relaciones que existen entre los numerosos parámetros que afectan a la evolución del estado de la atmósfera; esa mejora en la teoría científica, indudable, no ha sido no obstante excesiva. Ya en los años setenta se comprendía bastante bien, al menos en primera aproximación, el funcionamiento a corto plazo del devenir meteorológico. Aun así, la ciencia no deja de saber más y más...

Una segunda explicación, quizá más poderosa, tiene que ver con la observación del tiempo presente, que ha mejorado increíblemente gracias a las nuevas redes terrestres automáticas y de radares, amén del perfeccionamiento incesante de las redes de observación tradicionales y, por supuesto, el enorme incremento de la calidad y cantidad de los datos obtenidos gracias a los satélites artificiales. Mejorar la observación significa conocer con mayor precisión los datos actuales y, por tanto, obtener puntos de partida más precisos con los que elaborar las predicciones que, inevitablemente, resultarán más precisas igualmente. Cuanto mejor sea el análisis de la situación actual, mejores pronósticos podremos hacer de cara al futuro; lo mismo que el médico que, lógicamente, realizará un mejor diagnóstico de la enfermedad si conoce mejor el estado del paciente que si carece de datos al respecto, o se limita a tomarle el pulso.

El tercer factor, quizá el más espectacular, ha tenido que ver con el desarrollo de la informática, que ha venido en auxilio de los analistas del tiempo aportándoles precisión en sus cálculos y mapas, de modo que ahora puedan contar con mejores medios para sus predicciones. Incluso utilizando modelos numéricos, cada vez más útiles si se combinan con el famoso ojo clínico del predictor.

La mejoría en la capacidad predictiva de las matemáticas aplicadas a la meteorología sólo ha dado hasta hoy frutos apreciables en lo que respecta a la predicción del tiempo a muy corto plazo, como máximo dos a tres días. Luego, y hasta siete días de plazo, la predicción es menos buena aunque en general aceptable. Y entre diez y catorce días de plazo los intentos actuales suenan esperanzadores pero aún están muy lejos de ser satisfactorios. Más allá, nada...

Algunos expertos se atreven con plazos de hasta 384 horas (16 días), como ocurre con el modelo norteamericano de aviación GFS. Obviamente, con plazos por encima de las 144 horas (seis días) el modelo no para de corregir cada día que pasa sus propias predicciones. Es obvio que se pretende que aprenda de sus propios errores... Es buena idea, sin duda; quizá no lo sea tanto el hacerlo público en Internet.

Pero, en todo caso, ha de quedar claro que cualquier predicción «científica» del tiempo que pretenda ser capaz de predecir lo que va a ocurrir dentro de un mes, o en el siguiente trimestre, o el año que viene... será cualquier cosa menos ciencia.

Los modelos matemáticos utilizados para la predicción del tiempo no tienen mucho que ver con los que se usan para la predicción climática, como veremos más adelante al tratar las cuestiones relacionadas con el cambio climático. Aunque sólo sea porque el plazo que abarcan es de uno a pocos días, y no muchos años como los del clima.

Un modelo numérico intenta representar matemáticamente el proceso mediante el cual es posible obtener el estado futuro de la atmósfera a través de las soluciones a un grupo de ecuaciones que se supone que describen la evolución de las principales variables observadas —temperatura, humedad, presión, viento, etc.— y que se toman como representación del estado actual de la atmósfera. Es obvio que, al no poder utilizar todas las variables que pueden influir en el proceso, el resultado será aproximado. Por eso las soluciones son cada vez menos buenas conforme el plazo de predicción se va alejando del presente.

Todo comienza, obviamente, con la descripción lo más precisa posible del estado de la atmósfera en un momento dado. Para ello son indispensables los observatorios que proporcionan los datos de medida, las redes para la difusión y posterior concentración de esos datos con el fin de permitir el análisis rápido de la situación, la introducción de todos esos datos en el ordenador, y la posterior salida (en forma de datos numéricos o de mapas que los integran visualmente) como predicción del tiempo.

Todos los modelos numéricos de la atmósfera se basan en el mismo grupo de ecuaciones que gobiernan el comportamiento de los diversos parámetros atmosféricos en función de las leyes del movimiento de los gases, de la conservación de la masa y la energía, de la hidrostática y la termodinámica, del comportamiento del vapor de agua...

Luego cada modelo realiza aproximaciones y suposiciones acerca de cómo unos u otros mecanismos influyen sobre los demás, y en la adopción de soluciones forzosamente simplificadas para poder realizar los cálculos a tiempo.

Un problema esencial, que afecta aún más a los modelos climatológicos, es que entre observatorio y observatorio no disponemos de datos reales. Hay que estimarlos, suponerlos, extrapolarlos... Pero esos datos, en cierto modo inventados, podrían ser —de hecho, lo son con seguridad— cruciales para comprender bien el comportamiento «fino» de la atmósfera a corto plazo (y no digamos a muy largo plazo, como en el caso del clima). En todo caso, los modelos actuales consiguen buenos resultados en las predicciones a dos o tres días vista. Pero los problemas que acabamos de esbozar, y otros que sería prolijo detallar aquí, impiden que esa predicción sea buena en cuanto nos adentramos en el futuro, aunque sea sólo unos pocos días más.

En todo caso, cada grupo de expertos en modelos tiene su propia idea acerca de cómo realizar el trabajo, lo que explica que al final surjan diferencias incluso en una predicción a corto plazo. De hecho, como ningún modelo es del todo exacto para absolutamente todas las situaciones, es fácil observar cómo los técnicos defienden calurosamente su propio modelo frente a los modelos de los demás. En realidad, salvo que alguno de ellos consiga un avance realmente indiscutible, en cuyo caso todos lo adoptan, cada cual se fía más de lo suyo que de lo ajeno, como ocurría cuando la predicción tenía más de arte que de ciencia por aquello del ojo clínico...

Las previsiones se suelen presentar en forma de mapas, pero no de la situación actual —la correspondiente al momento de obtención de los datos— sino de las situaciones futuras previstas (a 12, 24, 48, 72 horas, y así sucesivamente). Con esos mapas, los especialistas elaboran las predicciones.

En el medio plazo, más de dos días y menos de siete, uno de los centros más prestigiosos del mundo es el CEPPM (Centro Europeo de Predicción a Plazo Medio, cuyas siglas en inglés son ECMWF), localizado físicamente cerca de Londres, en Reading, pero con financiación y personal especializado de todos los países europeos. Este centro realiza predicciones matemáticas con uno de los más potentes sistemas informáticos del mundo. Un ejemplo, que proporciona el propio centro, de cómo han ido mejorando sus previsiones podría ser el número de días de anticipación con el que se predice por encima del 60 por 100 de aciertos; en 1980 ese porcentaje de aciertos apenas llegaba a cinco días mientras que en 2010 alcanzaba ocho días y medio, y a comienzos de 2013 está ya en nueve días. A cinco días vista, se llega ahora al 80 por 100 de aciertos, lo cual suena increíble para quienes nos dedicábamos a esto hace cuarenta años, cuando ese porcentaje era difícilmente alcanzable ni siquiera en una predicción realizada para el día siguiente...

El poderío informático del CEPPM es impresionante; quizá uno de los más potentes del mundo, sólo comparable a los ordenadores militares de la NASA. En conjunto, es capaz de realizar veinte billones de operaciones por segundo (20 teraflops) y su memoria de disco duro es del orden de 1,2 petabytes (Pb), o sea 1.200 billones de bytes. Cada uno de sus 32 procesadores calcula 18,8 gigaflops (18.800 millones de operaciones por segundo).

3.1.4. Cooperación internacional

Ya hemos visto cómo en el siglo XIX comenzaba a generalizarse la cooperación entre países a la hora de intercambiar información meteorológica, muy especialmente a partir del invento del telégrafo eléctrico. La necesidad de establecer algún tipo de organización que agrupara a los distintos países interesados fue obvia a partir de entonces. Y así fue como en el verano de 1853 se convocó en Bruselas la Primera Conferencia Meteorológica Internacional, a la que acudieron delegados de doce países. Por cierto, casi todos ellos eran oficiales de marina porque la navegación era, en aquella época, la que mayor interés tenía en las perspectivas que ofrecía la información meteorológica.

Lo que resulta curioso es que, a pesar del más de siglo y medio transcurrido, siga siendo válida la convocatoria de aquella conferencia, cuyo texto decía literalmente: «Resulta no sólo apropiado sino de interés político que la descripción de los instrumentos a emplear, los elementos a observar y los métodos y formas de operar sean objeto de trabajo conjunto por las partes implicadas». Más actual, imposible...

A finales del siglo XIX ya eran muchos los países que disponían de servicios meteorológicos organizados. En el Reino Unido lo impulsó el vicealmirante Robert FitzRoy (1805-1865), que ha pasado a la historia por haber sido el capitán del Beagle, el barco del famoso viaje de Darwin. En España la reina Isabel II creó en 1860 la primera red meteorológica, dependiente inicialmente de la Junta General de Estadística, pero que muy pronto acabó dependiendo del Observatorio Astronómico de Madrid, cuyo nombre se completó a partir de entonces con el de «Meteorológico». Luego, ya en 1887, fue creado el Instituto Central Meteorológico.

En 1873 se reunía en Viena el Primer Congreso Meteorológico Internacional; su principal logro fue impulsar la Organización Meteorológica Internacional (OMI), que mucho más adelante, en 1950, se constituiría definitivamente como Organización Meteorológica Mundial (OMM), dependiente de la ONU.

No obstante, las bondades de la OMI —cooperación internacional, voluntarismo, interés científico, armonización de los instrumentos y los datos— comenzaron a ser también sus debilidades; en particular, por el hecho de que las decisiones adoptadas no eran vinculantes sino simples propuestas de los delegados. Los problemas se hicieron patentes después de la primera guerra mundial hasta que en 1947 se aprobó un convenio para definir una nueva organización. Y en 1950 se celebró el Congreso Fundacional de la OMM (Organización Meteorológica Mundial), en el seno de la ONU.

Cualquier persona interesada en la historia reciente de la meteorología en España puede consultar la publicación de la Agencia Estatal de Meteorología, AEMET, que lleva por título Notas para la Historia de la Meteorología en España, y de la que son autores dos meteorólogos históricos, Lorenzo García de Pedraza y José Mario Jiménez de la Cuadra.

En estos momentos, la OMM es el portavoz autorizado de la ONU acerca del estado y el comportamiento de la atmósfera terrestre, su interacción con mares y océanos, los climas que subyacen en las distintas regiones y la distribución de los recursos hídricos en el mundo. Incluye a 189 estados y territorios y tiene su sede en Ginebra. Su misión es promover la cooperación para la creación de redes de observaciones meteorológicas, climatológicas, hidrológicas y geofísicas, y para el intercambio, proceso y normalización de los datos afines, contribuyendo además a la transferencia de tecnología, la formación de los especialistas y la investigación científica en esos temas.

La estructura de la OMM es compleja, como suele ocurrir con los organismos importantes de la ONU. Su órgano supremo es el Congreso Meteorológico Mundial, que reúne cada cuatro años a los representantes de los países miembros para determinar la política a seguir en ese período, además de aprobar los planes a más largo plazo y autorizar el gasto anexo. Del Congreso emana un Consejo Ejecutivo, nombrado para esos cuatro años, que se responsabiliza de la coordinación de los programas y de la utilización de los recursos presupuestarios con arreglo a las decisiones tomadas en cada congreso.

Al margen del trabajo de los servicios y agencias de los países miembros, la OMM coordina y controla el trabajo estrictamente meteorológico de nueve satélites, 3.000 aviones, 7.300 buques, 100 boyas marinas fijas y 600 boyas más que navegan a la deriva, unas 10.000 estaciones terrestres de observación, unos 500 radares meteorológicos... Cada día se distribuyen 30.000 informes y 2.000 mapas a través de una red mundial que facilita previsiones meteorológicas y previsiones estacionales experimentales, incluyendo alertas en caso de condiciones meteorológicas graves. Al tiempo, se computan y analizan los datos registrados por 2.500 estaciones de observación climática, esenciales para comprender cómo son los climas de la Tierra y cómo podrían estar evolucionando.

En suma, puede muy bien decirse que en cuestiones de meteorología, la colaboración internacional es máxima. Casi óptima..., lo cual no es, lamentablemente, demasiado frecuente en estos días.

3.2. Los meteoros

3.2.1. Hidrometeoros

3.2.1.1. Agua en suspensión

En meteorología, un meteoro es, según la OMM, «un fenómeno que tiene lugar en la atmósfera y que puede consistir en una precipitación, suspensión o depósito de partículas líquidas o sólidas, acuosas o no, o bien puede consistir en una manifestación de naturaleza óptica o eléctrica». Los meteoros son los que determinan las diferencias que existen entre unos u otros estados del tiempo; y si se promedian luego esos datos meteorológicos a largo plazo, también identifican los climas.

Algunos meteoros, como los que implican al agua, se pueden medir y cuantificar de manera objetiva; otros requieren la experiencia de los observadores con muchos años de especialización. Ningún aparato, por ejemplo, nos dirá si la nube que vemos es un cirro o un cúmulo... Y sólo un experto sabrá decirnos cuándo estamos ante una lluvia débil o una llovizna, que no son la misma cosa.

Entre los meteoros que implican al agua, que es el grupo más numeroso, quizá sea la observación de las nubes el que más controversias generó en el pasado porque nunca dispusimos de instrumentos para identificarlas y cuantificar sus características —por ejemplo, su espesor—. Existen unos aparatos llamados nefoscopios que intentan medir visualmente, con sistemas de espejos o similares, al estilo de los sextantes, el movimiento de las nubes tanto en dirección como en velocidad aparente; pero el dato debe ser luego relativizado por la altura a la que se encuentra la nube en movimiento, y eso sólo puede ser estimado con escasa fiabilidad.

Por eso la OMM estableció, ya en 1956, un Atlas Internacional de Nubes que las clasificaba en diez géneros (los nombres oficiales son en latín, pero preferimos españolizarlos para mayor claridad):

• Nubes altas: cirros (Ci), cirrostratos (Cs) y cirrocúmulos (Cc). Son nubes poco espesas, a veces incluso transparentes, con la base y la cumbre a varios kilómetros de altitud sobre el suelo. Están formadas por diminutos cristales de hielo y son de color blanco brillante.

• Nubes medias: altostratos (As), estratocúmulos (Sc) y altocúmulos (Ac). No dan lluvia ni son muy espesas, y están a media altura, a menos de cinco kilómetros sobre el suelo. Su apariencia es blanquecina, con la base gris. Pueden ser translúcidas pero nunca transparentes.

• Nubes bajas: estratos (St) y nimbostratos (Ns). Las primeras son muy bajas, y a veces tocan el suelo (niebla); producen lloviznas abundantes. Las segundas son más espesas y dan lluvia, a veces intensa pero nunca en forma de chubascos. Nubes de evolución diurna: cúmulos (Cu) y cumulonimbos (Cb). Son nubes algodonosas, con la base a menos de mil metros pero la cima a varios kilómetros de altura. Suelen crecer con el calor del día y alcanzan su máximo desarrollo por la tarde.

Los cúmulos pueden dar chubascos, mientras que los cumulonimbos, que pueden ser gigantescos (muchos kilómetros en vertical, aunque no muy extensos en horizontal), siempre producen las tormentas y aguaceros muy intensos, con granizo y aparato eléctrico. A veces su parte alta choca contra la tropopausa, a más de diez kilómetros de altura, y se aplana para formar un penacho —en forma de boina o yunque— de cristales de hielo, como los cirros. De hecho, cuando la tormenta se disipa, a veces quedan en el cielo, a gran altura, restos del yunque en forma de cirrostratos...

Los géneros se subdividen, a su vez, en tipos de nubes; se escriben en latín. Por ejemplo, los cumulonimbos pueden ser incus (con yunque), calvus (sin yunque) o mammatus (con mamas, como enormes bolsas en su base).

En todo caso, conviene recordar que las nubes son agrupaciones de gotitas minúsculas de agua o de cristales de hielo, depositados sobre soportes materiales aún más diminutos llamados núcleos higroscópicos de condensación (partículas de polvo, de humo, hollín, microcristales de algún tipo de sal). El muy distinto aspecto de los diferentes tipos de nubes depende, luego, de las condiciones físicas y químicas del lugar de la atmósfera en el que aparecen. Y su apariencia, vistas desde el suelo, no es la misma cuando las vemos desde el aire o incluso desde el espacio.

Para medir la cantidad de nubes que existen en la atmósfera en un momento dado se recurre a una estimación del espacio que abarca la suma de toda esa nubosidad sobre el total del cielo que podemos observar. Se subdivide a ojo el cielo en cuatro cuadrantes, y éstos a su vez en dos cada uno; en total ocho partes, llamadas octas. Y se intenta estimar cuántas octas cubrirían las nubes si estuvieran agrupadas. Es una forma grosera de medir la nubosidad, y requiere cierta experiencia por parte de quien lo hace. Pero también es verdad que no resulta muy grave estimar cinco octas en lugar de seis, por ejemplo. O sea, que el dato es muy aproximado pero sirve, a la larga, para registrar con cierta seguridad lo despejado o no del cielo sobre el lugar de la observación: es un buen complemento a las medidas de insolación.

En cuanto a la altura de la base de las nubes, también se obtiene visualmente, a estima de un observador cualificado. Los aviones, al aterrizar, suelen ayudar a que esas medidas sean lo más acertadas posible, anunciando la altitud a la cual «perforan» la nube al bajar y salir de ella. De hecho, suele ser tan buena la estimación que hacen los observadores de los aeropuertos que los pilotos rara vez se quejan del dato que se les proporciona. Además, hoy existen sistemas informáticos de aproximación y aterrizaje de enorme precisión en los aviones modernos, lo que hace menos relevante el dato de altura de la base de nubes, salvo que se vuele sin instrumentos, cosa imposible en la aviación comercial.

Globalmente considerado, nuestro planeta tiene más nubes que cielo despejado; en promedio, en torno a dos tercios de su superficie está permanentemente cubierta de nubes. Visto el efecto de las nubes sobre las temperaturas, parece esencial disponer de algún tipo de información acerca de la evolución pasada de esa nubosidad global del planeta, con el fin de intentar predecir qué pasará en el futuro. De momento, los modelos informáticos usados para predicciones de cambio climático no saben muy bien cómo abordar esta cuestión, a pesar de su trascendencia.

En cuanto a la niebla, se trata de otro meteoro de notable importancia por las dificultades que implica su presencia de cara al transporte por tierra, mar y aire. En realidad la niebla es como una nube, de la familia de los estratos, cuya base toca el suelo. La diferencia entre niebla y neblina tiene que ver con la densidad de las gotitas de agua, muy superior en la niebla, y eso es lo que provoca una notable reducción de la visibilidad horizontal, un factor esencial, por ejemplo, a la hora de tomar tierra un avión o viajar por carretera. Las neblinas, en cambio, son más tenues; de hecho, dejan de ser nieblas cuando permiten distinguir objetos a más de un kilómetro de distancia.

Existen diversos tipos de nieblas y neblinas, todas ellas producidas por alguna forma de enfriamiento del aire húmedo que, por esa causa, termina por alcanzar el punto de rocío y se condensa. Las nieblas de irradiación se producen cuando el enfriamiento del suelo se hace muy rápido en noches sin nubes; pueden ser muy densas pero también poco espesas. En cambio las nieblas de advección, o de viento, se producen cuando llegan masas de aire muy húmedas y pasan sobre suelos fríos; el aire que llega se enfría por contacto con el suelo y su humedad se condensa. Es una niebla típica de las costas de países fríos. Lo contrario es la niebla de vapor, en la que el aire frío se desplaza sobre aguas más cálidas, haciéndolas literalmente «humear» (es lo que ocurre también con el café caliente que humea, es decir, emite vapor condensado en gotitas visibles).

A veces cuando llueve y las gotas de lluvia atraviesan un aire muy seco, muchas de esas gotas se evaporan para formar vapor que luego se condensa convirtiéndose en niebla. También en las laderas de las montañas y en las costas se forman nieblas cuando las brisas llevan aire cálido o frío, según el momento del día, sobre una zona más húmeda.

En el caso de los valles, cuando lo que baja por la ladera es la brisa de monte (aire más frío y denso, el famoso «relente»), el enfriamiento del aire húmedo del valle produce a veces nieblas muy densas y prolongadas; en estos lugares nunca debería instalarse un aeropuerto, obviamente.

En las regiones polares y sus proximidades las gotitas de agua de la niebla son pequeños cristales de hielo, debido a que la temperatura está a muchos grados bajo cero. Y sobre lagos y ríos, a veces incluso sobre zonas boscosas húmedas, cuando llega una masa de aire muy frío, por ejemplo en pleno invierno, no es rara la aparición de una neblina o incluso niebla que parece humear hacia arriba quedándose luego pegada al suelo. Suelen ser muy poco espesas, aunque a veces llegan a ser muy densas.

Ya hemos visto que la diferencia entre niebla y neblina estriba exclusivamente en la visibilidad horizontal; las neblinas tienen, además, gotitas de inferior tamaño y nunca llegan a «mojar», como sí suelen hacerlo las nieblas más densas.

3.2.1.2. Agua que precipita

La lluvia es probablemente el meteoro más conocido, incluso el más frecuente, en todo el mundo. De hecho en todas partes llueve a lo largo de un año, en mayor o menor cantidad. Incluso en las zonas más frías del planeta a veces llega a llover, en algunos casos de forma sorprendente porque esa lluvia lo hace a varios grados bajo cero (es la lluvia engelante). La única excepción, en cuanto a la lluvia, quizá sean las zonas más gélidas del mundo, como buena parte de la Antártida y el interior de Groenlandia.

La definición oficial de la lluvia es la siguiente: «precipitación de partículas líquidas de agua con gotas de diámetro normalmente mayor de 0,5 mm, aunque pueden mezclarse con gotas de menor diámetro». Si no alcanza la superficie terrestre, no será lluvia sino virga (también llamada cortina de precipitación). Y si el diámetro de las gotas es uniformemente menor de esos 0,5 mm, ya no será lluvia sino llovizna.

La lluvia se mide en milímetros de altura de agua caída. Anteriormente se usaba una unidad más complicada, el litro por metro cuadrado. Ambas unidades significan lo mismo: si distribuimos un litro de agua en una superficie de un metro cuadrado su altura será de un milímetro.

Al caer, las gotas de lluvia adquieren formas curiosas; si son pequeñas, como pesan poco y el aire supone un freno, su velocidad de caída es reducida y mantienen una forma muy aproximadamente esférica. Las gotas más pesadas caen más deprisa y entonces se achatan en su borde de ataque, lo que las hace adoptar una forma de esfera achatada. Lo que no tienen nunca es la típica forma de lágrima que aparece en muchos dibujos (redondas por abajo y puntiagudas por arriba). No parece haber límite, al menos en teoría, para el tamaño máximo. Se han llegado a medir gotas —más bien goterones— de cerca de un centímetro de diámetro, pero rebasar esa cifra parece difícil porque al caer la macrogota acabaría fraccionándose en múltiples gotitas.

Como decíamos, la velocidad de caída depende del peso, o sea, del tamaño de las gotas. En un espacio vacío, todas caerían a la misma velocidad, claro; pero la presencia del aire hace que el tamaño —por el rozamiento que implica— esté en proporción directa con la velocidad. Y si el viento las acelera, aunque sea oblicuamente, lógicamente esa velocidad puede hacerse muy superior.

Se mide siempre la cantidad total de la lluvia caída en un determinado intervalo de tiempo, generalmente largo y que normalmente incluye siempre todo el transcurrir de la precipitación (en temporales muy largos, al menos se toman las cifras cada 12 o 24 horas). Es un dato medio, que no hay que confundir con la intensidad, que también se registra pero que, en cambio, es una medida puntual de la lluvia que cae en un período corto de tiempo (diez minutos, una hora).

Para medir intensidades de la precipitación el aparato registrador más idóneo es el pluviógrafo, que ofrece una gráfica de la lluvia que se va acumulando en función del tiempo transcurrido, lo que permite estimar la pendiente de la curva ascendente. A mayor pendiente, mayor intensidad de lluvia. La intensidad media del conjunto se puede calcular dividiendo el total de lo que ha caído por el tiempo empleado en ello.

Los chubascos son lluvias bruscas e intensas, y proceden siempre de grandes cúmulos o cumulonimbos. En los casos más extremos suelen ocasionar, por su carácter súbito y su violencia, problemas serios en las redes de alcantarillado urbano, o bien ocasionan riadas a menudo destructoras.

En cambio, las lloviznas dejan en general poca cantidad de precipitación, y nunca caen con intensidad elevada. Es curioso que se las designe con multitud de nombres populares, quizá porque son beneficiosas para el campo y, en todo caso, nunca hacen daño. En diversos países hispanoamericanos se conoce a la llovizna como chilcheo, camanchaca o garúa. Lloviznar es chispear, en casi todos los países hispanohablantes. Y en las distintas regiones españolas a la llovizna se la conoce como orballo u orbayu (Asturias), orbillo y orballo (Galicia), sirimiri o chirimiri (País Vasco, Navarra, Cantabria, Castilla y León), murmia (Cantabria) y, sobre todo, calabobos (mitad sur del país). Esta última acepción es de lo más expresivo... y representa bien lo que es: casi no parece que llueve pero al final los más bobos acaban calándose.

Un tipo especial de hidrometeoro sin precipitación aparente es el rocío, que es un depósito de agua líquida que se condensa directamente sobre las zonas más frías pegadas al suelo —generalmente en el mismo suelo, sobre la hierba o los campos, o bien en los coches o en el mobiliario urbano a la intemperie—, sin que caiga de ningún sitio. De hecho, es una precipitación in situ: al enfriarse el aire nocturno puede llegar a alcanzar el llamado, precisamente por eso, punto de rocío, que es la temperatura de condensación del gas vapor de agua en el líquido que llamamos agua.

La peligrosa lluvia engelante aparece cuando la lluvia o la llovizna atraviesan al caer una capa de aire mucho más frío, bajo cero, antes de tocar el suelo. Las gotas de agua se enfrían por debajo de cero pero mantienen el estado líquido (subfusión) siempre que no haya ningún choque que provoque su congelación. Eso es lo que ocurre cuando llegan al suelo: lo que podía ser una superficie mojada se convierte instantáneamente en una superficie irregular de agua helada.

El agua líquida en ese estado, inestable, de subfusión ofrece un espectáculo insólito: parece como si lloviese literalmente hielo. Si alguien va caminando bajo una precipitación de ese tipo, es fácil observar cómo la vestimenta se cubre de golpe de hielo amorfo. No es nieve helada, sino lluvia líquida que se congela de golpe al chocar contra el suelo o cualquier obstáculo. Incluso el ala de un avión, cuando éste atraviesa una nube con gotitas en subfusión: el hielo se acumula sin avisar en el borde de ataque de las alas, haciéndoles perder su perfil aerodinámico, provocando el accidente. Por eso hace ya tiempo que los aviones llevan calefacción en las alas, que se pone en marcha en cuanto se detecta uno de estos fenómenos.

De todos esos meteoros de agua helada el más conocido, el más frecuente y el que produce mayor cantidad de precipitación es, sin duda, la nieve. Es curioso porque, siendo agua helada, la complejidad de cada uno de los cristales —copos de nieve individualizados— nos puede hacer pensar en un suceso insólito, nada frecuente en el mundo real: la estructura fractal, en forma de bellísimas estructuras muy variadas en su forma pero siempre con simetría hexagonal, de cada copo de nieve —siempre pequeño de tamaño, en torno al milímetro—, resulta como mínimo asombrosa.

Por cierto, si la nieve es agua helada cristalizada, y el hielo tiene una densidad similar al agua (levemente menor), o sea, mil veces más denso que el aire, parece lógico pensar que la precipitación de nieve debería caer a mucha velocidad; al menos, como la de agua. Y sin embargo parece caer flotando... Y es que, sobre todo cuando la temperatura se acerca al cero Celsius, muchos de esos cristalitos se agrupan en grandes copos informes, que caen blandamente porque su densidad es pequeña por el mucho aire que hay dentro de los cristalitos hexagonales de estructura fractal, y entre cristal y cristal en los grandes copos.

Un último apunte acerca de la nieve. Desde el punto de vista de la hidrología, así como la lluvia rápidamente resbala por las laderas y se acumula en los valles y en los ríos, a veces de manera torrencial, la nieve en cambio se queda in situ, y en las zonas más altas perdura hasta bien entrada la primavera. Ello supone una inapreciable reserva de agua por dos razones: ante todo porque, al fundirse más tarde, aporta agua cuando ya se aproxima el verano, y en segundo lugar porque cuando comienzan a suavizarse las temperaturas al final del invierno, el agua bajo la nieve se infiltra con mayor eficacia bajo tierra, recargando las reservas de agua en manantiales y surgencias. Todo ello significa un aporte de agua que se prolonga durante mucho más allá de las épocas frías, de cara a la estación calurosa. No es de extrañar, pues, que uno de los refranes más famosos sea el que afirma que un año de nieves será sin duda un año de bienes.

No siempre las precipitaciones heladas son en forma de copos de nieve. La cinarra, por ejemplo, está compuesta de gránulos de nieve que el viento —vertical y horizontal, y probablemente la suma de los dos— ha ido compactando en forma esférica antes de llegar a caer al suelo. Es una especie de intermedio entre el granizo y la nieve, pero siempre aparece con temperaturas muy bajas, no como el granizo, que es frecuente en las tormentas veraniegas. Cuando el diámetro de los gránulos de nieve compactada es muy pequeño, del orden del milímetro o menos, se llama propiamente cinarra. Si el tamaño es ya mayor, hasta medio centímetro, se suele recurrir al término nieve granulada.

El granizo es, junto a la nieve, la precipitación de agua helada que prácticamente todo el mundo conoce, porque es frecuente en todas las regiones y épocas del año. Es muy fácil de identificar ya que es compañero inseparable de las tormentas. Su proceso de formación es enormemente complicado, y sólo es posible gracias a los enormes y violentos desplazamientos de aire, agua y hielo que tienen lugar dentro de las nubes convectivas más poderosas, los cumulonimbos.

Son nubes muy verticales, como chimeneas cuya base puede estar a muchos grados sobre cero y su cima a muchos grados bajo cero. Eso explica el proceso de formación del granizo, que inicialmente es sólo una gotita de agua que se acaba de condensar en la base de la nube, a unos centenares de metros sobre el suelo. Pero las violentas corrientes verticales del interior de la nube —tan violentas que los aviones las evitan, rodeando la nube— pueden hacerla subir varios kilómetros hacia arriba en dirección contraria a su inicial caída. Allí se congela, pero enseguida es arrastrada hacia abajo hasta llegar a zonas más cálidas, donde sobre el hielo fundente se acumulan otras gotitas líquidas. Nueva ascendencia, y nueva congelación. Y así sucesivamente... Al cabo de muchos viajes de éstos, hasta veinte o más, la gotita inicial se convierte en una esfera de hielo, con capas concéntricas como una cebolla pequeña (cada una indica un viaje de subida y bajada), y acaba cayendo a tierra.

A veces el granizo es de gran tamaño e incluso pierde su habitual forma esférica para convertirse en bloques de hielo informe, de varios centímetros, capaces de romper cristales y agujerear tejados y coches. Se le llama pedrisco, o piedra, porque se comporta como tal, y es temido en las zonas rurales con razón: se le conoce como «lotería del infierno» porque allí donde cae arrasa cualquier tipo de producción agraria. Además de la nieve y del granizo, existen muchos otros meteoros de hielo. Por ejemplo, en ocasiones no muy frecuentes puede producirse en zonas muy frías una precipitación que incluso puede darse con escasa nubosidad, los prismas de hielo, que proceden de la sublimación directa del vapor de agua en hielo. La resultante es una especie de caída lenta, como flotando, de minúsculas agujas o columnas muy tenues de hielo finísimo, que agudizan notablemente la sensación de frío. Suele llamarse polvo de diamante y, en zonas montañosas de Castilla, friura.

Otra curiosa forma de precipitación helada es el hielo granulado, en inglés weather ice pellets, aunque los norteamericanos prefieren el uso de sleet. Son granitos de hielo, con tamaños del orden de unos pocos milímetros, bastante parecidos al granizo menudo, pero que nada tienen que ver con él. Se produce cuando las gotitas de agua de un nimbostrato —el granizo es exclusivo de las tormentas— atraviesan antes de llegar al suelo una capa de aire muy frío. Las gotitas se congelan pero no se quedan en estado de subfusión, como veíamos en la lluvia engelante, sino que forman pequeñas esferas de hielo. En algunas regiones esta precipitación es conocida como granizo de invierno.

Otro meteoro parecido, pero de génesis diferente, es el llamado graupel (el nombre es de origen germánico). Se trata de una curiosa mezcla, bastante infrecuente por cierto, de copos de nieve y gránulos de hielo. Se produce cuando existe en una nube estratificada agua bajo cero en estado líquido, o sea, en subfusión. Si algún cristalito de nieve que cae atraviesa esa zona de agua subfundida ocurre que ésta se deposita sobre él en forma de hielo. El copito de nieve hace entonces las funciones de núcleo de condensación, en este caso, de congelación, y cae finalmente como granito de hielo con un fino copo de nieve que existe en su interior.

La nieve granulada o cinarra, el polvo de diamante, el hielo granulado o sleet, y el graupel son precipitaciones de agua helada, propias de inviernos muy fríos; pero son todos ellos muy diferentes de la nieve y, aún más, del granizo.

Otros meteoros de hielo están ligados al simple depósito del agua helada sobre los objetos del suelo con viento en calma, o sobre los obstáculos de la superficie cuando hay mucho viento, por la parte de sotavento. Siempre a temperaturas bajo cero, claro. Entre los primeros, están la helada y la escarcha, y también el rocío blanco. Los que aparecen con viento son la ventisca, la cellisca y la cencellada.

La helada aparece cuando la temperatura baja de cero, y el agua presente en el suelo —charcos, lagunas, gotas, lo que sea— se congela sin más. Si la helada es intensa, la capa de hielo en la superficie de agua —albercas, piscinas, lagunas, lagos, incluso ríos— puede llegar a ser tan espesa que soporte el peso de animales y personas.

A veces, el rocío nocturno, una vez formado, llega a congelarse: es el rocío blanco. No tiene nada que ver con la escarcha, que aparece por sublimación, es decir paso directo del vapor al hielo. A veces aparece escarchado el cristal de un coche cuando la mínima de la noche no bajó de cero; pero es que el coche se enfría más deprisa que el aire, y sus ventanas pueden estar bajo cero —por eso aparece la escarcha— y el aire no.

Otros meteoros de hielo van asociados al viento. La ventisca, por ejemplo, no es más que una nevada con vientos fuertes. Los copos no caen blandamente sino que toman una dirección oblicua y se mueven a mucha velocidad; a veces se entremezclan por los torbellinos que se forman, y su ataque es casi horizontal sobre los objetos salientes. Un fenómeno similar sería la cellisca, sólo que en este caso lo que cae es una mezcla de lluvia y nieve. La cellisca a veces enfría más que la ventisca porque no sólo enfría sino que, además, moja de forma casi inmediata.

Por su parte, la cencellada, o cenceñada, se produce cuando existe una niebla densa, un viento moderado y una temperatura bajo cero. Las gotitas de niebla, con agua en subfusión, se hielan al entrar en contacto por la acción del viento con los objetos del suelo, sobre todo los más salientes —árboles, postes, arbustos—, cubriéndolos de jirones de hielo que, curiosamente, quedan a sotavento del obstáculo, como banderas heladas que pueden llegar a ser bastante grandes.

3.2.1.3. Ciclones tropicales

Como los ciclones tropicales son eso, tropicales, en España los conocemos sólo de oídas, o bien por las imágenes que a veces nos ofrece la televisión. Aunque es cierto que en alguna ocasión aislada los restos de algún ciclón del Caribe, alguno incluso formado al sur de Canarias, han acabado por afectar a las regiones atlánticas de nuestro país, desde las Islas Afortunadas hasta Galicia.

Lo ciclones no son propiamente meteoros sino más bien una suma de diversos meteoros de agua, viento y electricidad. Estos fenómenos extremos que caracterizan a los climas de regiones situadas en los mares más cálidos de la Tierra conllevan siempre nubes tormentosas gigantescas, chubascos muy intensos con granizo, potente aparato eléctrico, vientos huracanados (nunca mejor dicho)... Como una especie de compendio de casi todos los meteoros juntos, todos ellos con máxima violencia.

La potencia y la frecuencia de estos poderosos agentes atmosféricos condicionan, y de qué modo, el clima de las regiones afectadas. Su «temporada» se alarga durante varios meses, entre finales del verano y comienzos del invierno, en los mares tropicales muy cálidos de todo el planeta; de hecho, suponen una de las características más notables de esos climas, como bien saben los turistas que van al Caribe y al golfo de México; y no sólo en el mar mismo sino, lo que es peor, en las regiones costeras del sur y sureste de Estados Unidos, México y Centroamérica, y el norte de América del Sur; incluidos, por supuesto, los diversos archipiélagos de las Antillas. Pero aún son más intensos y frecuentes los ciclones tropicales del Índico y del Pacífico, aunque como la mayoría de los países afectados son pobres solemos tener menos información de ellos.

La energía que desarrolla un ciclón tropical de potencia media (grado 3 en la escala de Saffir-Simpson) equivale a la explosión de una bomba termonuclear de 10 megatones, unas mil veces más potente que la de Hiroshima, y eso... ¡¡cada veinte minutos!! Esa energía del ciclón en varios días equivale a casi cien veces la energía que consumimos todos los humanos del planeta en ese mismo tiempo.

El mapa de la página 6 del pliego indica cuáles fueron la trayectoria y la intensidad de los ciclones tropicales que se dieron en todo el planeta durante el período 1985-2005. Se observa que en realidad es muy grande la superficie marina concernida, que abarca no sólo a las franjas tropicales del planeta, sino a menudo llega a afectar zonas situadas bastante más allá. Los colores fríos (de azul claro a azul oscuro) indican ciclones de poca a mediana potencia, 1 y 2 en la escala Saffir-Simpson, mientras que los colores cálidos —de amarillo a rojizo—, señalan los ciclones cuya potencia se va intensificando hasta la potencia 5.

En las costas oceánicas de Europa, por nuestra situación geográfica en latitudes medias, no llegan casi nunca los ciclones tropicales como tales, pero puede ocurrir que nos acabe afectando alguna pequeña borrasca muy activa que en su origen fue un ciclón tropical. Durante su largo periplo a través del Atlántico, sobre aguas cada vez más frías, los ciclones van perdiendo en el camino buena parte de su energía. Aun así, sus efectos son los de una borrasca muy activa; en Galicia todavía recuerdan, por la virulencia de su lluvia y de sus vientos, el paso de una borrasca muy activa que había sido semanas antes el ciclón Hortensia, en el año 1984, y también hicieron sentir su potencia años más tarde los restos del ciclón tropical Gordon, en el año 2006.

En Canarias se pueden ver afectados, si bien de forma bastante excepcional, por algún ciclón tropical nacido al suroeste del archipiélago que, en lugar de viajar hacia el Caribe como es lo más frecuente, acaba desplazándose excepcionalmente en dirección norte y noreste. Sus restos no sólo pueden alcanzar a nuestro archipiélago sino incluso llegar más al norte, a Madeira, Azores e incluso el suroeste peninsular.

En todo caso, la climatología moderna se ocupa con creciente rigor y dedicación al conocimiento de estos fenómenos, todavía difíciles de predecir; aunque hay científicos que piensan, sin pruebas que lo corroboren, que el cambio climático podría influir en aumentar su frecuencia y hacerlos más intensos y, por tanto, más dañinos, lo cierto es que eso no parece estar ocurriendo en los últimos decenios, ni tampoco antes. A este respecto, conviene consignar como simple curiosidad que el año 2010, que fue uno de los más calurosos de los últimos cien años, también fue, en cambio, el que menos ciclones tropicales consignó en todo el planeta desde que existen registros sistemáticos, o sea, desde hace algo más de medio siglo.

Desde el punto de vista del clima, y observando los datos precisos —disponemos de ellos desde hace medio siglo más o menos— es fácil observar que los ciclones son fenómenos cuya frecuencia e intensidad muestra una enorme irregularidad año tras año. Si realizamos los promedios estadísticos típicos de la climatología, se puede afirmar que no hay ningún cambio significativo en el último medio siglo —período en el que disponemos de datos homogéneos y fiables— en cuanto a la frecuencia de ciclones tropicales en el conjunto de los océanos del planeta. Por lo que respecta a la frecuencia de los ciclones de mayor intensidad (categorías 3, 4 y 5 Saffir-Simpson), el decenio con más ciclones tropicales intensos fue el de los años cincuenta. Pero no sabemos si eso había ocurrido ya antes, en siglos anteriores.

Las causas por las que unos u otros años hay más o menos ciclones no se conocen aún con precisión, aunque existen numerosas hipótesis de trabajo bastante coherentes que, sin duda, algo tendrán que ver con esa irregularidad. Por ejemplo, se sabe que para que nazca un ciclón se requiere una temperatura superficial del agua superior a los 26 grados; parece, pues, obvio que el número de ciclones en cada temporada debería depender de una u otra forma de esa temperatura en los mares tropicales.

Por otra parte se han identificado distintos períodos oscilantes de las condiciones reinantes en la atmósfera tropical que sin duda tendrán alguna influencia en la génesis de muchos o pocos ciclones, o de más o menos ciclones muy activos. Por ejemplo, la oscilación QBO (en inglés Quasi-Biennial Oscillation, Oscilación Cuasi-Bianual), que es una oscilación del sentido oeste-este de los vientos estratosféricos sobre la franja ecuatorial del planeta, que varía cada 12 a 15 meses y posteriormente se propaga a la baja atmósfera en las zonas situadas a ambos lados del Ecuador, sobre los trópicos o incluso más allá.

También debe tener algún efecto la llamada Circulación MJO (en inglés Madden-Julian Oscillation, Oscilación de Madden-Julian), también conocida como oscilación intraestacional. Tiene que ver con los patrones de reparto de las precipitaciones en las zonas tropicales, y presenta un ciclo que oscila más o menos cada mes y medio, o sea, unas dos veces por estación.

Al parecer tiene alguna relación con la Oscilación del Niño, conocida por sus siglas en inglés, ENSO (El Niño South Oscillation), que aparece irregularmente cada dos a cuatro años en el Pacífico Sur. La Circulación MJO parece presentar mayor actividad cuando no hay ENSO (es decir, cuando se da lo contrario al Niño, que es La Niña), y es casi nula cuando hay ENSO fuerte. Además parece probable que la mayor o menor frecuencia e intensidad de los ciclones tenga que ver igualmente con la evolución de la NAO (en inglés, North Atlantic Oscillation, Oscilación del Atlántico Norte), que expresa de algún modo la variabilidad del promedio de las diferencias de presión entre la borrasca de Islandia y el anticiclón de las Azores.

En todo caso, lo que sí es claro es que no ha habido más ciclones tropicales en el último medio siglo, ni tampoco se ha incrementado en promedio su intensidad. Y ello a pesar del aumento medio de la temperatura media del planeta, que el IPCC cifra en casi 0,7 ºC en el último siglo.

Por cierto, recordemos que en el Caribe suelen decir huracán, en lugar de ciclón, traduciendo directamente del inglés hurricane, aunque en castellano un huracán es sólo un viento muy fuerte, de más de 118 km/h, o sea, 64 nudos. La palabra hurricane, o huracán, proviene del idioma taíno, pero el Popol Vuh de los mayas dice que «Hurakan» significa corazón del cielo, y está relacionado con «el más grandes de los dioses», la tormenta (probablemente, lo que hoy nosotros llamamos ciclón tropical). De hecho, suele ir acompañado por varios dioses menores: el trueno (Caculha-Hurakan), el rayo (Chipa-Caculha) y el relámpago (Raxa-Caculha).

Otro aspecto de singular importancia es el relacionado con la energía total de los ciclones, un dato que podría resultar esencial para intentar comprender la extrema variabilidad de estos fenómenos tan dañinos, y la posibilidad de que el cambio climático les afecte de una u otra forma. La Agencia Norteamericana de la Atmósfera y el Océano, NOAA, ha elaborado un índice llamado ACE (Accumulated Cyclone Energy, Energía Acumulada de los Ciclones) que se calcula año tras años para el área atlántica próxima a Estados Unidos. Este índice ACE representa la energía total del viento (se define como el cuadrado de la velocidad máxima del viento en superficie, en nudos, para todos los sistemas con nombre (tormentas y ciclones tropicales) de cada temporada.

Pasemos ahora a unas estadísticas climatológicas que, no por más tristes resultan menos importantes: las de víctimas y daños producidos por los ciclones. Conviene decir de antemano que, a igualdad de condiciones físicas del evento catastrófico —en este caso no importa si es de origen meteorológico, como un ciclón tropical o un tornado, o bien de tipo geológico como un seísmo y eventualmente su maremoto asociado—, son siempre los países más pobres los que registran más víctimas.

Las razones son bastante obvias, y no tanto por disponer de peores medidas defensivas de forma activa —es poco lo que se puede hacer para combatir directamente un fenómeno tan devastador como un ciclón tropical, un tornado, o bien un terremoto o una erupción volcánica—, sino por carecer de medidas de prevención pasiva y, sobre todo, de sistemas de protección civil después de ocurrida la catástrofe, que puedan aportar rápido auxilio a las víctimas y buenos medios de recuperación —hospitalaria, social, psicológica, alimenticia, energética...—, cuando ello es posible.

En todo caso, en esa triste estadística, los diez ciclones más dañinos de los que existen referencias directas se produjeron en el suroeste de Asia y en la India. El peor de todos fue el ciclón Bhola, en el Pakistán Oriental de 1970: provocó destrozos e inundaciones en las que fallecieron al menos 500.000 personas, aunque se piensa que la cifra real debió acercarse mucho al millón de víctimas entre muertos y desaparecidos. Al parecer la indiferencia de los musulmanes del Pakistán Occidental ante la difícil situación de sus hermanos orientales pudo ser la gota que colmó el vaso de la antigua reivindicación separatista: y así, un año después de la tragedia, aquel Pakistán Oriental acabó convirtiéndose en Bangladesh (literalmente, País de Bengala).

He aquí la lista de los diez ciclones más mortíferos:

Como contraste, en el Caribe el ciclón tropical que más víctimas produjo tuvo lugar entre el 10 y el 16 de octubre de 1780: aunque las estadísticas no son precisas por la época en que se produjo, parece que murieron al menos 20.000 personas, aunque se da por seguro que entre muertos y desaparecidos bien pudieron ser el doble. Afectó a diversas islas caribeñas y se llevó por delante a numerosos barcos en alta mar. Es recordado en la zona como El Gran Huracán de 1780.

El segundo más mortífero ejerció su máxima capacidad destructiva en Nicaragua, Honduras, México y Florida: fue el ciclón Mitch, que provocó unas 18.000 víctimas en total —la mayor parte, hondureñas— y muchos desaparecidos aún no censados, entre el 22 de octubre y el 5 de noviembre de 1998. Casi un cuarto de siglo antes, el ciclón Fifí había golpeado a las mismas zonas entre el 14 y el 19 de septiembre de 1974, y el censo de víctimas sobrepasó las 10.000. Otro ciclón caribeño mortífero ocurrió entre el 8 y el 9 de septiembre de 1900, y afectó sobre todo a la región costera de la ciudad texana de Galveston; produjo 12.000 víctimas. A título comparativo, el Katrina de 2005 produjo 1.836. Como puede verse no fue el más mortífero de la historia, ni siquiera en Estados Unidos. Lo cual no le quita, obviamente dramatismo, al conjunto de todas estas tristes estadísticas.

Si nos referimos a las pérdidas materiales, entonces sí cabe esperar que la cuantificación monetaria de dichas pérdidas sea encabezada por los desastres caribeños que afectan a Estados Unidos. Sobre todo a los más recientes, porque es obvio que otro aspecto de este dramático asunto es el que se refiere a las pérdidas económicas: evidentemente, cuanto mayor nivel de desarrollo tiene un país, menor suele ser el número de víctimas, pero en cambio suele ser mucho mayor el montante de las pérdidas económicas. Por eso medir la violencia o maldad de un ciclón tropical —o, ya puestos, de cualquier otra catástrofe natural— mediante las pérdidas económicas producidas no puede ser considerado como un método objetivo; es más, resulta casi un escarnio para los países más pobres del planeta... a no ser que se le ponga precio a las vidas humanas, claro. ¿Es eso lo que quieren sugerir, subliminalmente, algunos informes deshumanizados que sólo reflejan esa realidad estrictamente monetaria?

Los ciclones llevan nombres, que últimamente son oficializados por los expertos. Muchas personas piensan que esa forma de humanizar fenómenos adversos de la Naturaleza tiene su punto ridículo, sobre todo cuando se emplean nombres humanos. ¿A qué se debe tan insólita costumbre?

Hace varios siglos, los ciclones eran recordados por el santo cuya festividad se celebraba ese día. Fue famoso por sus destrozos en Puerto Rico el ciclón San Mateo, el 21 de septiembre de 1557. También se recordaban los peores ciclones por el lugar afectado: El Cubano fue un destructivo ciclón de 1844 que arrasó parte de aquella isla, y el Gran Huracán de Galveston arrasó en 1900 aquella zona de Texas.

Un meteorólogo australiano, Clement Lindley Wragge (1852-1922), tuvo la ocurrencia de poner nombres a todos los ciclones y tormentas tropicales, a finales del siglo XIX, con el alfabeto griego o la mitología clásica. Nadie le hizo caso... Luego, en la segunda guerra mundial los pilotos norteamericanos los llamaban con nombres femeninos so pretexto, obviamente machista, de que los ciclones eran tan imprevisibles, volubles, caprichosos y dañinos... como las mujeres. Lo sorprendente fue que en 1950 un Comité Internacional de Meteorología decidiera institucionalizar aquel sistema, y en 1953 todo el mundo aceptó aquella absurda propuesta. Las feministas norteamericanas protestaron y acabaron haciéndoles caso... ¡en 1979! Desde entonces, los ciclones adoptan en todo el mundo nombres masculinos y femeninos, alternativamente y por orden alfabético.

3.2.1.4. Otros hidrometeoros

Finalmente, y sin ánimo de ser exhaustivos, cabe mencionar la existencia de algunos otros hidrometeoros sin duda interesantes pero relativamente menos frecuentes que los anteriores. Nos limitaremos a destacar tres de ellos: los rociones, las virgas y las trombas.

Rociones

Tienen que ver con el mar y con el viento, y no tanto con la atmósfera, aunque es en ella donde acaban apareciendo. Los rociones son gotas pulverizadas de agua de mar, levantadas por el fuerte viento y que llegan a subir a muchos metros de altura, recorriendo distancias a veces considerables. En todo caso, y más pronto que tarde, los rociones acaban cayendo como una curiosa forma de lluvia salada. Por cierto, una simple salpicadura no es un roción; para que se pueda considerar un meteoro, el fenómeno debe producirse a gran escala y propagarse a cierta distancia, incluso ascendiendo mucho por encima de la superficie del agua que los originó.

Virga

Es lluvia que se ve bajo las nubes, a lo lejos, pero que no llega al suelo porque acaba evaporándose durante su caída. Es como un fleco, a veces tan extenso como una cortina de precipitación que pende de la nube pero sin tocar tierra; también se llama lluvia fantasma. Aunque parece un fenómeno inofensivo, en realidad la condensación del agua, la precipitación y la posterior evaporación crean puntualmente diferencias térmicas notables —por los calores latentes de cada cambio de fase—, lo que engendra turbulencias pequeñas pero intensas y no fácilmente perceptibles, que pueden tener ciertos riesgos para la navegación aérea. La palabra virga procede del latín, y significa rama; de ahí viene la palabra vara... También es el acrónimo inglés de Variable Intensity Rain Gradient Aloft (gradiente vertical de lluvia con intensidad variable).

Tromba

Finalmente, la tromba marina —quizá fuera innecesario el adjetivo, debido a que una tromba en tierra es un tornado—, o manga de agua (waterspout en inglés), está siempre asociada a las tormentas, como apéndices de los cumulonimbos; igual que los tornados. Toman la forma de una especie de embudo (hubo quien las llamó antiguamente nubes de embudo) que gira a gran velocidad bajo el cumulonimbo, y su extremo más fino toca el agua, que parece hervir formando una especie de surtidor humeante. Por eso la incluimos en los hidrometeoros. La inmensa mayoría de las trombas son más débiles que los tornados en tierra, pero algunas pueden ser similares, si no peores; suelen proceder de tornados costeros que penetraron en el mar, pero también puede ir asociadas a los ciclones tropicales. Las trombas y los tornados son bastante similares, en su dinámica pero no en su potencia, a los típicos torbellinos de polvo o arena que se observa en playas o áreas desérticas, cuando el aire muy caliente del verano asciende muy deprisa.

3.2.2. Litometeoros y fotometeoros

3.2.2.1. Litometeoros

El viento puede levantar arena y polvo, generalmente muy finos y capaces, por tanto, de viajar a gran distancia, o incluso quedar flotando en el aire como niebla seca. También el humo de los incendios o de los volcanes puede ser luego transportado muy lejos de su foco de origen. En todo caso, el polvo y las partículas sólidas sin agua que flotan en el aire tienen un origen casi exclusivamente terrestre —el polvo de origen extraterrestre suele consumirse, incandescente, al penetrar en la atmósfera, lo que da origen a las estrellas fugaces— y, por tanto, sólo puede haber sido levantado o transportado por el viento.

El más frecuente de los litometeoros en nuestras latitudes es la calina, o calima. La meteorología considera la calima como una niebla seca que consiste en la suspensión en el aire de finísimas partículas de polvo, cenizas, arcilla o arena. La humedad relativa es, en una calima espesa, muy próxima a cero; es decir, completamente opuesta a la humedad relativa de la niebla o la neblina que está en el 100 por 100, es decir, el punto de rocío. De hecho, las calimas son frecuentes en muchas zonas mediterráneas en pleno verano, y dan lugar a un tiempo seco y sofocante, que parece más caluroso de lo que ya es.

A menudo el polvo procede de zonas desérticas muy alejadas y se queda flotando en el aire durante bastante tiempo; si se produce una típica tormenta de verano, no es raro que las primeras gotas caigan cargadas de ese polvo que, cuando es rojizo, provoca manchas en el pavimento, en los coches y en los cristales. Es conocida como «lluvia de sangre» en las regiones meridionales de la península Ibérica, pero no es más que eso, una lluvia cargada de polvo rojizo que flotaba en el aire, procedente de zonas áridas con tierras superficiales de color rojo por los óxidos de hierro.

Cuando hay calima, muchas personas se quejan de molestias en los ojos, y también en la nariz y en la garganta, y suelen abundar las crisis de asma. Por fortuna, con cierta frecuencia el calor asociado a estas situaciones suele inestabilizar a la atmósfera, lo que provoca viento y eventualmente tormentas que acaban limpiando el aire del polvo que llegó desde lejanas regiones desérticas.

En cuanto al humo procedente de algún incendio lejano o bien de alguna erupción volcánica, puede tener efectos locales de leves a moderados, según la densidad de las cenizas y el polvo, y según la proximidad al foco del incendio o al volcán. Es obvio que si se está muy cerca de un volcán en erupción, cosa difícil en la península pero no en las Canarias, existe un riesgo evidente de sufrir aunque sólo sea los efectos negativos de los gases. Conviene recordar que Plinio el Viejo murió contemplando, al otro lado de la bahía de Nápoles, la erupción del Vesubio que acabó con Pompeya y Herculano. Los gases letales de la erupción atravesaron la bahía y provocaron la muerte por asfixia o por envenenamiento de muchos curiosos, entre ellos el historiador romano.

Un riesgo relativamente novedoso ligado al humo de los volcanes desplazado por el viento es el que afecta al transporte aéreo, incluso a grandes distancias del foco de la erupción. El enorme impacto sobre el tráfico de aviones derivado de la erupción del volcán islandés Eyjafjalla en la primavera de 2010 fue para una enorme cantidad de personas una gran sorpresa, debido a que las partículas silíceas, incluso las más finas y casi invisibles, de aquel humo volcánico podían dañar el fuselaje y los motores de los más modernos aviones reactores, aun en concentraciones relativamente reducidas.

El viento suele jugar malas pasadas igualmente cuando sopla con cierta intensidad y de manera continuada sobre superficies desérticas o muy áridas. Algunas de las polvaredas que levanta pueden llegar muy lejos, provocando calimas y frecuentes tolvaneras; pero en las enormes extensiones arenosas de los desiertos subtropicales, como el Sahara, pueden producirse auténticas tormentas de arena empujadas por el viento, que pueden resultar sumamente peligrosas si atraviesan zonas habitadas —oasis o campamentos— porque pueden sepultarlo todo bajo varios metros de arena muy fina.

En todo caso, quizá el peor de los litometeoros sea, por sus consecuencias y por su potencia, el tornado. Ya vimos que un tornado es un enorme torbellino de viento, que gira a velocidades increíbles, que pueden acercarse a los 500 km/h, siempre por debajo de nubes de tormenta muy activas, que a veces se entremezclan formando supercélulas convectivas. De ellas parecen colgar unos embudos nacientes, que no son más que la manifestación por debajo de la nube del poderoso remolino de aire ascendente, originado por el suelo caliente y seco; todo ello suele suceder antes de que descargue la lluvia, y suele ir acompañado de un potente aparato eléctrico. En realidad, el torbellino ya se ha iniciado pero sólo se hace visible la parte próxima a la nube, la más ancha, cuando el vapor de agua del aire acaba condensándose en agua que gira y asciende hasta penetrar en la nube.

Los tornados son meteoros de enorme violencia aunque de alcance limitado. Ellos mismos suelen desplazarse lentamente; no como los vientos giratorios que los forman, que adquieren velocidades elevadísimas. Un tornado típico se desplaza en una trayectoria bastante errática en promedio a menos de 50 km/h (aunque se han reportado casos aislados en los que algún tornado llegó a moverse a más de 100 km/h). Y suelen disolverse por sí mismos a medida que descarga la tormenta.

El giro del viento suele ser en sentido contrario a las agujas del reloj en el hemisferio norte (giro ciclónico), pero en alguna rara ocasión giran en sentido contrario; debido a su limitada extensión y a la enorme violencia de los vientos que lo conforman, al tornado no le afecta la aceleración de Coriolis (que es la que produce en las borrascas el giro ciclónico). Pero como es un fenómeno que aparece ligado a los mesociclones —término técnico que designa a una borrasca energética creadora de cumulonimbos de gran tamaño—, y en éstos los vientos giran en sentido ciclónico, lo normal es que ése sea igualmente el giro de los vientos del tornado, que se inician como pequeños fenómenos asociados al de mayor escala. Pero, aunque no es muy frecuente, algún accidente del terreno o alguna otra circunstancia puede hacer que el giro se invierta.

Al aproximarse el tornado, la presión atmosférica que ya había comenzado a bajar en picado antes de la tormenta, sufre un nuevo descenso aún más aparatoso, para volver a recuperarse de nuevo a medida que se aleja el fenómeno. Su trayectoria no afecta a una gran extensión de terreno; en promedio el rastro de destrucción que deja un tornado tiene apenas medio kilómetro de ancho, y una longitud media unas diez veces mayor, o sea unos cinco kilómetros; pero algunos tornados violentos han llegado a dejar un rastro destructivo durante muchas decenas de kilómetros.

Para medir su intensidad se adoptó en 2007 la escala Fujita mejorada, que considera seis grados de intensidad, desde la F0 con vientos de menos de 120 km/h y trayectorias del orden de un kilómetro, hasta la F5 con vientos de más de 420 km/h y trayectorias de más 160 kilómetros.

El 80 por 100 de los tornados son de grado F0 y F1; menos de un 1 por 100 alcanzan las categorias F4 y F5. Curiosamente, en América del Norte se producen prácticamente la mitad de todos los tornados que se registran en el planeta. Ello es debido a la distribución geográfica de ese subcontinente, con las Montañas Rocosas al oeste, separando el aire del Pacífico del aire interior. Al este, una cadena montañosa menos elevada, los Apalaches, separa ese aire interior del aire atlántico. Entre medias, sobre la inmensa llanura que va del golfo de México hasta los grandes lagos y el sur de Canadá, se produce una gradación climática llamativa desde el clima tropical del norte de México y sur de Estados Unidos hasta el clima subpolar del norte de la zona.

Esa especie de anchísimo y largo pasillo entre cadenas montañosas, que coincide más o menos con la cuenca del Misisipi-Misuri, propicia las alternancias de aire frío o cálido en el sentido de los meridianos, con choques de masas de aire sobre la zona, donde se libran con cierta frecuencia esas batallas meteorológicas. El resultado es un clima siempre extremado, con fríos y calores de enorme amplitud, y numerosas tormentas de enorme energía. No es, pues, extraño que los norteamericanos llamen a esa extensa región Tornado Alley (Avenida de los Tornados).

También hay tornados en muchos otros lugares del mundo, claro. En Asia, en Australia, en el sur de África, incluso en Europa... En Europa, curiosamente el país que más tornados registra en promedio tiene una superficie muy reducida: los Países Bajos. Se dan sólo unos 20 al año, pero eso significa el mayor número de tornados del mundo por unidad de superficie: 0,48 por cada mil kilómetros cuadrados, casi el doble que en Estados Unidos (que es, claro, muchísimo más extenso).

En esa estadística de número de tornados por mil kilómetros cuadrados le sigue el Reino Unido, con 33 tornados al año de media: 0,13 tornados por 1.000 km2. Pero el sitio donde los tornados hacen más daño, en forma de muertes anuales, es Bangladesh, con 180 víctimas mortales al año. La causa no puede ser más obvia, como en el caso de los ciclones tropicales: la enorme densidad de población de aquel país y la extrema pobreza de sus gentes.

3.2.2.2. Fotometeoros

3.2.2.2.1. Arcoíris

Los fotometeoros, o meteoros ópticos, son fenómenos luminosos que ocurren en la atmósfera, por sí solos o asociados a otros meteoros. Es obvio que la atmósfera, aunque parece transparente a la luz, produce muy diversos fenómenos de difusión, reflexión, refracción, dispersión y difracción de la luz, con descomposición ocasional del espectro luminoso en algunos o todos sus colores básicos. No sólo por los distintos gases que la componen sino, sobre todo, por las muchas sustancias que en ella pueden residir de forma casi permanente o transitoria: vapor de agua, agua líquida en suspensión, polvo, cristales de hielo y de diversas sales, polen, humo, incluso seres vivos...

El arcoíris es un bellísimo espectáculo de la naturaleza, al asociarse las nubes y la lluvia con un cielo soleado. La luz solar se descompone dentro de las gotas de lluvia —que actúan como prismas— para ofrecer desde lejos el espectro completo de colores. Unos colores que, sumados de nuevo, volverían a dar el color blanco-amarillo brillante del Sol.

Los arcoíris son, según la Real Academia, fenómenos ópticos que presentan los siete colores elementales en forma de arco de bandas concéntricas, y está causado por la refracción o reflexión de la luz solar en el agua pulverizada, generalmente perceptible en la lluvia. Nada que oponer a esta definición excepto que la causa de que se forme el arcoíris no es la «refracción o reflexión» de la luz sino la «refracción y reflexión» de la luz. Es un matiz, pero importante; porque la luz del Sol, detrás del observador, penetra en las gotas de lluvia que éste tiene enfrente. Sufre una primera refracción y se desvía, descomponiéndose en los colores del espectro. Luego ese conjunto de haces de luz de colores diferentes se refleja en la cara interior de la gota, para finalmente salir, sufriendo una nueva desviación por refracción.

En este juego de dos refracciones (al entrar y al salir) y una reflexión (dentro de la gota) que vemos de frente, con el Sol a nuestra espalda, el ángulo final de salida es de unos 42 grados para la luz roja (la más lenta moviéndose dentro de la gota) y 40 grados para la luz violeta (la más rápida); y entre ambos colores, los demás. Como el fenómeno ocurre con todas las gotas que caen, lo que se observa es la luz de los distintos colores formando todos ellos su propio ángulo de desviación; que son las bandas del arcoíris. En ocasiones, si la cortina de lluvia es bastante continua y la luz solar suficientemente potente, se observa un arcoíris secundario, por encima del anterior y con los colores invertidos. Es el producto de un juego óptico similar, pero con dos refracciones, de entrada y salida de la gota, y dos reflexiones sucesivas dentro de ella. Por eso su luminosidad es más débil —su trayectoria en la gota de agua es más larga— y además se ven los colores invertidos, y con un ángulo total superior, 50 grados para el rojo y 54 para el violeta.

Teóricamente, nada impide que haya tres reflexiones internas en la gota, o incluso más, lo que produciría un tercer arcoíris, un cuarto, un quinto... Pero su luminosidad decreciente las hace prácticamente inobservables. De hecho, ya es bastante raro que se vean los dos principales; y cuando se ven aceptablemente bien es fácil observar que entre ambos —arcos primario y secundario— existe una banda más sombría que todo el resto, que suele conocerse como «Banda oscura de Alejandro» (en honor al filósofo griego Alejandro de Afrodisias, quien lo observó hacia el año 200 a.C.).

En realidad, los famosos siete colores del arcoíris —rojo, naranja, amarillo, verde, azul, añil y violeta— no existen físicamente sino que son una interpretación de nuestro cerebro a partir de la información óptica que los ojos ponen en la retina, donde las células especializadas llamadas conos y bastones transforman esa información luminosa en electrónica hasta llegar al cerebro. Pero nada impide pensar que si nuestra retina fuese de otra manera el cerebro captara más colores de ese mismo arcoíris. La prueba es que cuando mezclamos colores —mejor dicho, objetos o líquidos que absorben todo el espectro luminoso excepto una determinada longitud de onda, correspondiente a ese color— en pigmentos disueltos en aceite, alcohol o agua, incluso en la misma naturaleza, podemos ver miles de colores intermedios diferentes.

O sea, que los siete colores del arcoíris no son reales; los vemos porque eso es lo que interpreta el cerebro, pero allí hay muchos más colores que no sabemos distinguir.

Este fenómeno óptico, propio de los chaparrones con claros en el cielo, resulta tan llamativo y colorido que sin duda debió despertar la curiosidad y la admiración de los primeros humanos inteligentes. Y no es de extrañar que se hayan ido construyendo toda clase de mitos y leyendas en torno a él. Fue considerado como portador de buenos augurios, y algunas leyendas situaban en su extremo un caldero lleno de monedas de oro, o bien hacían del arco el puente etéreo entre el reino de los dioses y el de los hombres.

En nuestra cultura cristiana, nada menos que el Antiguo Testamento ofrece su testimonio de compromiso de Dios con los hombres tras el diluvio universal. El Libro del Génesis (9:13-15) afirma que Dios le dijo a Noé al retirarse las aguas: «Mi arco he puesto en las nubes, señal del pacto mío con la tierra. Y sucederá que cuando haga venir nubes se dejará ver entonces mi arco en ellas. Y no habrá más diluvios para destruir...».

Pero, a todo esto, ¿quién era la tal Iris? En la mitología griega, Iris fue hija del titán Taumante y de su sobrina Electra, hija del titán Océano. Iris era hermana de las Arpías, que eran diosas maléficas, pero ella no compartió su destino sino que fue utilizada por Zeus y su mujer Hera como mensajera para transmitir divinos mandatos a la humanidad; viajaba a la velocidad del viento, podía ir de un extremo al otro del mundo, incluso a las profundidades del inframundo. Al contrario que sus hermanas, era una hermosa joven con alas y ropa tenues de colores brillantes; al atravesar el cielo dejaba una bella estela colorida en forma de arco curvado que sólo se dejaba ver cuando había lluvia en lontananza; los griegos lo llamaron, lógicamente, el arco de Iris.

3.2.2.2.2. Halos, coronas, glorias y espejismos

El juego de luces y sombras creado por el Sol —y eventualmente la Luna— al atravesar ciertas nubes altas translúcidas, formadas por cristalitos de hielo (sobre todo cirrostratos), ofrece en ocasiones la posibilidad de contemplar algunos fotometeoros bastante curiosos. A esa numerosa familia pertenecen los halos, las coronas y las glorias. En cuanto a los espejismos, también son fenómenos ópticos de reflexión total en capas de la baja atmósfera de muy diferente temperatura.

Los halos tienen muy diversas formas. En general, se asemejan a anillos de luz más o menos difuminados, que pueden ir acompañados de arcos, columnas, incluso puntos luminosos más reducidos y brillantes. El halo más común tiene 22 grados respecto al Sol (o la Luna) que está en el centro, y puede ser blanquecino o bien ofrecer una coloración similar a la del arcoíris aunque más tenue, con el rojo en el interior y el violeta en el exterior. Un segundo halo, mucho más exterior (46 grados) aparece a veces de forma menos clara y sin distinción de colores. El halo de 22 grados se origina por refracción y reflexión de la luz al atravesar los cristales hexagonales de hielo de la nube, y el de 46 se debe a un fenómeno similar pero con ángulos distintos en la reflexión-refracción dentro de los cristales de la nube.

Los halos pueden ir acompañados de parhelios, que en inglés se llaman sun dogs (en el caso de la Luna se llaman paraselenes, en inglés moon dogs), que son como manchas luminosas, a veces incluso de colores, a ambos lados del Sol o la Luna.

En cuanto a las coronas, se trata de un fenómeno muy diferente a los halos, aunque la apariencia visual puede ser a veces relativamente similar. La diferencia esencial es que se trata de difracción de la luz al atravesar gotitas de agua, nunca cristales de hielo. Son como anillos coloreados o blanquecinos en torno al Sol o la Luna, de radio pequeño, o sea, próximos al astro. Cuando muestran colores, en la zona interior están los de tonos azulados y en la exterior los rojizos. Aparecen cuando la luz del Sol o la Luna atraviesa una capa de nubes bajas con gotitas de agua. Una corona grande es señal de pocas gotitas, pero si en poco tiempo se observa que la corona se hace más pequeña, entonces eso significa que la nube se está haciendo más densa en gotitas, lo cual probablemente indique que puede llover pronto.

Finalmente la gloria —también llamada corona de Ulloa— se produce por difracción, reflexión y refracción de la luz alrededor de algún objeto opaco, por ejemplo una persona. Parece como si la luz se concentrara en torno a ese objeto, cuyos bordes aparecen mucho más iluminados, de tal modo que la sombra que se refleja en una nube baja o en una zona de niebla no muy espesa puede aparecer rodeada de una especie de aureola luminosa y coloreada, de tamaño angular pequeño, entre 5 y 20 grados. A poco que uno se fije, es bastante frecuente ver una gloria desde el asiento de un avión comercial cuando la sombra del avión se mueve sobre una capa de nubes translúcida. Se le llama entonces gloria del piloto... Y si el objeto es una cabeza, la sombra se refleja con una aureola como si fuera un santo. De ahí el nombre de gloria.

Lo de la corona de Ulloa es un poco más largo de explicar, pero muy curioso: en 1736 el capitán español Antonio de Ulloa, cuando escalaba al amanecer una montaña peruana junto a unos científicos franceses, vio de repente que sus sombras se proyectaban, gigantescas, sobre unas nubes bajas que tenían enfrente. Lo curioso es que cada uno de ellos veía una aureola en torno a la sombra gigante de su propia cabeza pero no en torno a la sombra de la cabeza de los otros dos. De regreso a España, Antonio de Ulloa publicó su hallazgo que luego fue corroborado por muchas personas y más adelante por los primeros pilotos de globos aerostáticos, y luego incluso por algunos pilotos y pasajeros de avión. Ese efecto de aureola como la de los santos —una gloria, pues— se conoce desde entonces también como corona de Ulloa.

En realidad lo que observaron Ulloa y sus compañeros en el siglo XVIII es lo que los alemanes conocen como «Espectro de Brocken», por haberse hecho muy popular en dicho monte alemán —tiene 1.142 metros y es la cumbre de la pequeña sierra de Harz, en Sajonia—, donde las nieblas y nubes bajas que rodea su cima propician la aparición del fenómeno de sombra gigante con gloria que observara Ulloa en el Perú. Por esa razón, el citado monte —que en el Fausto de Goethe lleva por nombre Blocksberg— es tenido por lugar de brujas y toda clase de espíritus malignos, sede del aquelarre de la Noche de Walpurgis...

Por cierto, en China la gloria se conoce como Luz de Buda, y existen registros de ese fenómeno desde el siglo I d.C.; también allí era interpretado como un símbolo espiritual y religioso, relacionado directamente con el líder histórico de aquella religión, Siddharta Gautama, o Buda.

Todo esto —aquelarres, coronas, glorias celestiales, montañas sagradas, luces divinas...—, por culpa de un simple efecto óptico tan corriente como espectacular. La imaginación humana no tiene límites. Y eso se pone de manifiesto de manera patente en el caso de los espejismos, que suelen ser tenidos por jugarretas del espíritu que se deja engañar por la imaginación, y sin embargo son igualmente fenómenos ópticos de explicación relativamente sencilla.

Aunque los espejismos son mucho más frecuentes en otros lugares del mundo, sobre todo desiertos cálidos, también se dan en nuestras latitudes. Es un fenómeno ligado a la reflexión total que se produce cuando la capa de aire pegado al suelo es mucho más cálida que el propio suelo; curiosamente, el aire de esas capas bajas es calentado por el suelo, pero puede alcanzar mayor temperatura que éste: la tierra se enfría (y se calienta) muy deprisa, desde luego más que el aire que está junto a ella. Por eso puede ocurrir que el aire acabe estando más caliente al haberle «robado» la mayor parte del calor que emite el propio suelo.

La consecuencia de este curioso fenómeno térmico es que el aire caliente menos denso, y los rayos de luz se curvan al atravesarlo haciendo que lleguemos a ver objetos lejanos como si estuvieran mucho más próximos, o incluso verlos hacia arriba, como si se reflejasen en un espejo situado por encima.

El llamado espejismo inferior —los objetos parecen reflejarse en un lago inexistente, situado entre ellos y el observador— se produce cuando la imagen del objeto lejano encuentra capas de aire muy caliente, por lo que al atravesarlas se va refractando, lo que le desvía poco a poco de su trayectoria inicialmente recta, produciendo finalmente una trayectoria levemente curvada. Cuando esa imagen llega al observador, parece como si se reflejase en un lago; en realidad es un proceso de reflexión total, debido a la curvatura de los rayos de luz. El objeto se ve a la distancia real a la que está pero como si procediera de un lugar bajo el suelo; se ve, pues, como una imagen invertida. En el desierto, los caminantes sedientos interpretan esa superficie reflectante como un lago próximo, que no existe, claro. Incluso en una carretera recalentada por el sol veraniego es posible observar el fenómeno: el asfalto parece estar mojado, como si hubiera llovido, e incluso a veces se reflejan en él otros coches lejanos, en posición invertida, como si vinieran desde debajo de la carretera.

En cambio en el espejismo superior el proceso es diferente: lo que se ve es un reflejo que parece proceder de arriba, como si hubiese un espejo en el cielo que nos dejase ver objetos muy alejados, de forma invertida y a veces de mayor tamaño. La explicación es similar al anterior espejismo, pero en cierto modo al revés: aquí la zona de aire más frío está junto al suelo y el aire más cálido está por encima. El caso se da con frecuencia cuando cerca de la costa el mar está más frío que el aire recalentado de tierra adentro, que penetra unos cientos de metros sobre el mar, deslizándose sobre el aire frío pegado a las olas. Objetos muy alejados, casi en el horizonte —un acantilado, un barco, un faro, una casa, un árbol aislado, incluso una persona sola—, parecen flotar en el aire a gran altura y en forma invertida, como los castillos de leyenda que flotan sobre las nubes.

Un caso muy especial, y poco frecuente, de espejismo superior es el conocido técnicamente como fatamorgana (literalmente, Hada Morgana, en latín). Según las diversas leyendas artúricas, Morgana le Fay era la hermana o hermanastra del rey Arturo, y era un hada —fata, en latín, aunque nosotros diríamos mejor una maga—, rival, compañera y discípula, todo a la vez, del famoso mago Merlín. El porqué de tan poético nombre a ese espejismo superior insólito procede de la apariencia de lo que se ve, que falsea la realidad tal y como solía hacer la famosa maga Morgana, que transformaba la apariencia de las cosas. Y es que, en este caso, la imagen que se ve, a través de un complejo proceso de espejismo superior distorsionador, es el objeto original deformado de tal modo que puede ser enorme, o bien de contornos diferentes al original... En fin, lo mismo que Morgana cambiaba a las personas y las convertía en ranas, la fatamorgana cambia los objetos y los transforma en otras cosas a veces irreconocibles y fantasmales. El fenómeno es más probable de observar en valles de alta montaña o sobre los mares muy fríos con el viento y la mar en calma. También se ha consignado en las grandes llanuras heladas de Siberia o la Antártida.

3.2.2.2.3. El rayo verde y otros fotometeoros

El rayo verde forma parte de las leyendas meteorológicas, frecuentemente ignoradas por los libros más serios, a pesar de que se ha podido determinar con cierta claridad el porqué de su existencia y, por tanto, su existencia misma. El autor lo ha observado en unas cuantas ocasiones, muy pocas porque suele ser muy difícil de ver y, por tanto, se trata de un meteoro óptico infrecuente aunque uno se pase muchos atardeceres intentando llegar a vislumbrarlo.

Quizá ni siquiera hubiese llegado al conocimiento público de no ser por el que quizá fuera el más prolífico autor de novelas divulgativas y de ficción, Julio Verne. En alguna de sus novelas decía que los rayos verdes sólo podían ser vistos por personas verdaderamente enamoradas; es probable que, siguiendo esa idea, muchas parejas hayan intentado observar semejante curiosidad, cogidos románticamente de la mano, al ponerse el Sol. Mucho nos tememos que la mayoría de las parejas hayan salido muy frustradas de la experiencia y, haciendo caso al escritor, se hayan separado convencidas de que lo suyo no tenía futuro...

Bromas aparte, ese rayo verde es un efecto óptico explicable y no sólo una simple ilusión óptica debida, por ejemplo, al deslumbramiento que supone contemplar el Sol poniéndose. Por cierto, el cineasta francés Eric Rohmer dedicó una película romántica de las suyas a este asunto; y, en efecto, al terminar el filme se contempla, al parecer sin trucaje alguno, el fenómeno óptico aludido. Por lo visto, el equipo de rodaje persiguió el meteoro por muchos sitios y al final consiguió rodarlo en Canarias...

En realidad, el rayo verde no es ni un rayo, ni necesariamente verde. Es más bien un destello luminoso que puede ser de cualquier otro color —aunque predomina el verdeazulado— y consta de una serie de fenómenos asociados que culminan en el efecto visual efímero que algunos privilegiados han podido observar. Por cierto, no sólo se ve al ocaso del Sol sino que también es posible verlo en su orto (lo cual demuestra, dicho sea de paso, que nada tiene que ver con el deslumbramiento, como algunos aducen, puesto que el astro rey aún no ha salido por detrás del horizonte). ¿Y en qué consiste? Simplemente en la aparición en torno al disco solar, medio tapado aún por el horizonte de unos reflejos coloreados en los que predominan los verdes y azules, pero no son raros los amarillos más o menos claros. También puede verse en torno al disco lunar, con Luna llena, tiempo estable y cielo despejado; aunque es todavía menos frecuente que en el crepúsculo solar.

Dicho todo lo cual conviene decir que existen testimonios fiables de rayos verdes que sí son como el nombre parece indicar que son: auténticos fogonazos muy breves y de color verdoso nada más ponerse el Sol. Es obvio que se requiere una atmósfera estable, sin turbulencias y con un índice de refracción que debe variar muy rápidamente en vertical (aire frío abajo y cálido justo por encima, o viceversa). Eso no es frecuente, por lo que estamos ante un meteoro óptico de indudable atractivo poético —ligado al atardecer, colores insólitos y cosas así— pero muy difícil de observar.

Existen muchos otros fotometeoros, algunos igualmente bellos y misteriosos cuando no marcados por leyendas y mitos de todo tipo. Nos limitaremos a analizar brevemente la luz crepuscular, las auroras polares, las nubes nacaradas y noctilucentes, las irisaciones, el anillo de Bishop, el centelleo y, para terminar, el mismísimo color del cielo, que suele dar origen sobre todo en los niños a la aparentemente ingenua pregunta de por qué el cielo es azul...

La luz crepuscular es la luminosidad remanente en el aire aun después de ponerse de Sol, o bien antes de que salga. El crepúsculo como fenómeno es bien conocido y posee una indudable aureola romántica ya que va ligado a momentos que anteceden a la salida del Sol —el alba, la aurora—, como símbolo del renacer de la esperanza, o bien a los instantes posteriores a la puesta de Sol, como preludio de la noche (¿el fin, la muerte?) que se nos echa encima. Pero no hay que engañarse, es uno más de los muchos meteoros luminosos provocados por la existencia misma de la atmósfera (no existe en planetas o satélites donde no hay aire, como la Luna).

La luz crepuscular se debe a la difusión de la luz que procede del astro cuando éste se encuentra por debajo del horizonte pero próximo a él, tanto antes de salir como después de ponerse. Esa luz residual va menguando a medida que el giro de la Tierra va alejando el horizonte del Sol, en el crepúsculo vespertino. En la aurora, es al revés: por el este despunta un tenue resplandor que luego poco a poco parece ir invadiendo el cielo hasta momentos antes del orto.

Por convención se establecen dos tipos de crepúsculos: el civil, que es el tiempo, bastante próximo al orto o al ocaso, durante el cual es posible leer al aire libre y con cielo despejado, y el astronómico, que es el tiempo que transcurre entre el orto o el ocaso y la noche cerrada. La duración de los crepúsculos es variable según la época del año y también en función de la latitud a la que nos encontremos. En promedio, el crepúsculo civil dura más o menos media hora, el náutico —cuando comienzan o dejan de verse estrellas importantes para la navegación— casi una hora, y el astronómico puede llegar a durar hasta hora y media.

Las auroras polares, al igual que las nubes nacaradas que luego veremos, se producen exclusivamente sobre las regiones próximas a los polos; es rarísimo que puedan ser contempladas en latitudes inferiores a ambos círculos polares. Son fenómenos ópticos que se producen en la alta atmósfera, en la ionosfera, como consecuencia del choque del viento solar —canalizado por el campo magnético terrestre hacia los polos del planeta— con las escasas moléculas de aire que por allí existen. Adoptan la forma de cortinajes ondulantes, en movimiento y con una coloración muy diversa, cuya luminosidad se debe a la ionización de esas moléculas de los gases atmosféricos, producida por el choque con las partículas cargadas y muy energéticas procedentes del Sol.

En cuanto a las nubes nacaradas y noctilucentes, aunque son también nubes —y, por tanto, hidrometeoros—, las hemos incluido entre los fotometeoros porque no tienen incidencia alguna, como tales nubes, en el tiempo atmosférico ya que aparecen a gran altitud, en plena estratosfera. Las nubes nacaradas, técnicamente nubes estratosféricas polares, tienen un aspecto lenticular y a veces han sido confundidas con ovnis lejanos. Sólo se forman en las zonas polares y en invierno, a temperatura inferior a –80 ºC, y con vientos fuertes propios de la zona inferior de la estratosfera.

Las nubes noctilucentes brillan, como su nombre indica, durante buena parte de la noche, pero se observan difícilmente porque están aún más arriba, sobre los 80 km de altitud y en latitudes polares. Se conocen técnicamente como nubes mesosféricas polares y también están formadas por un número escasísimo de cristales de hielo y quizá de otros compuestos químicos sencillos. Suelen ser muy tenues y la mejor forma de verlas es en la etapa más oscura del crepúsculo astronómico, y aun mejor cuando la noche cerrada lleva poco tiempo en el crepúsculo vespertino.

Por lo que respecta a las irisaciones, son fenómenos ópticos de la baja atmósfera: se manifiestan, siempre de manera ocasional y con suma brevedad, cuando las nubes muestran una coloración variada y de forma dispersa, sobre todo en los bordes. En esas irisaciones predominan los colores verdosos y rojizos, alternándose entre ellos; y siempre se ven en zonas próximas al Sol, cuando éste se adivina a través de la masa nubosa o en sus bordes. Se trata, pues, de nubes altas y medias que son poco espesas e incluso translúcidas, como los cirrocúmulos o los altocúmulos. Las irisaciones se producen por difracción de la luz, cuando están cerca del Sol, o por un sistema mixto de difracción e interferencias ópticas cuando se muestran en zonas de la nube alejadas del astro rey.

El anillo de Bishop (en inglés Bishop’s ring, por lo que deberíamos llamarlo sin más «anillo de obispo») aparece como una corona típica, pero en lugar de formarse en nubes de gotitas de agua es producido por la dispersión y difracción de la luz solar, o lunar, en las nubes tenues de finas cenizas y aerosoles sulfatados de procedencia volcánica, que se esparcen y desplazan por la atmósfera media y alta a merced de los vientos dominantes. Forma una aureola brillante de unos 22 grados, de color amarillo rojizo en torno a una zona central azulada.

El centelleo, por su parte, es un fenómeno bien conocido a poco que uno se haya molestado en mirar al cielo estrellado en una noche sin nubes. Se trata de una pequeña pero constante fluctuación del brillo de las estrellas, que se debe exclusivamente a la agitación térmica o mecánica de las distintas capas de aire que atraviesa su luz hasta llegar a nuestros ojos. Las estrellas situadas encima de nosotros centellean mucho menos que las que están más cerca del horizonte, porque la luz de éstas atraviesa una capa mucho más extensa de atmósfera. Se suele decir que los planetas no centellean mientras que las estrellas sí lo hacen; pero es obvio que, salvo quizá Venus y Júpiter cuando tienen su máxima magnitud, la luz de todos los objetos aparentemente puntuales que se ven en el cielo nocturno sufre el mismo fenómeno del centelleo porque todos esos puntos luminosos atraviesan la turbulenta atmósfera.

Otras luces bien curiosas —e identificadas sólo hace apenas dos o tres decenios— son los fenómenos conocidos en inglés como blue jets, blue starters, sprites y elves, que podríamos traducir por chorros azules, destellos azules, duendes y elfos... En los dos primeros casos se trata de distintas formas de transporte de energía eléctrica por encima de las nubes tormentosas y atravesando la estratopausa, que separa la troposfera de la estratosfera. Son pequeños destellos visibles y parecen tener relación con el nitrógeno existente a esos niveles, en muy débil concentración. Por su parte, los elfos y duendes se producen a mucha mayor altitud y parecen estar igualmente relacionados con descargas de emisión de los gases enrarecidos existentes a esas altitudes (entre 70 y 100 kilómetros).

Los científicos atribuyen el color azulado de algunos de estos fotometeoros a un fenómeno similar al que origina el color azul del cielo en ausencia de nubes. Esto del color azul del cielo despejado, o del color blanco de las nubes, forma parte de las típicas preguntas incómodas de los niños a padres y profesores. Pero no es algo fácil de explicar.

Fue un británico, John William Strutt (1842-1919) —lord Rayleigh—, quien recibió el Nobel de Física en 1904 por descubrir el argón y el radón, el primero que explicó hace más o menos un siglo el problema de la difusión de la luz solar en el aire. Lo vimos en el capítulo de la ciencia premeteorológica. En cuanto a las nubes blancas, la explicación es parecida, salvo que aquí el tamaño de las partículas (gotitas de agua) es mucho mayor que la longitud de onda de la luz. Todos los colores son dispersados a la vez y se suman para dar, como resultante, el color blanco; es la llamada solución de Mie, enunciada por primera vez por el físico alemán Gustav Mie (1869-1957).

Finalmente, el color rojizo o rosado del atardecer y del amanecer se debe a que el ángulo de entrada del Sol es tangente a la curvatura de la Tierra, y la dispersión de Rayleigh envía hacia el espacio la luz azul quedando como resultado la luz de longitud de onda más larga, que suma un color de tipo rojizo (el otro extremo del espectro luminoso).

O sea, que algunas preguntas aparentemente sencillas no tuvieron respuesta hasta hace bien poco: Mie como Rayleigh vivieron hace menos de un siglo... Así que, después de todo, no debían ser unas preguntas tan infantiles como parecen.

3.2.3. Electrometeoros

3.2.3.1. Tormentas

El electrometeoro por excelencia es la tormenta. En realidad, no es propiamente un único meteoro sino una suma de ellos: por una parte requiere la existencia de cumulonimbos, y por otra va siempre acompañada de rayos y truenos, granizo, chubascos intensos, vientos a veces violentos y súbitos... Toda una panoplia de tiempo inestable y revuelto, que puede alcanzar cotas de violencia realmente destructiva en borrascas muy energéticas —el caso más extremo es el de los ciclones tropicales—, o con inestabilidad térmica muy acusada, propia de las zonas ecuatoriales; incluso aparece a menudo esa violencia en fenómenos de «gota fría» en latitudes templadas próximas a mares muy calientes, algo que conocemos bien en el Mediterráneo.

Las tormentas siempre son producidas por masas de aire cargadas de humedad que ascienden con rapidez debido a que en esa subida encuentran siempre aire más frío que el suyo propio. Por supuesto, en la atmósfera el aire tiene temperaturas que son cada vez más bajas a medida que vamos ascendiendo de nivel. Una masa de aire caliente junto al suelo sólo puede subir en el aire circundante si éste está un poco más frío que ella; la masa caliente pesa menos y sube. Esa masa de aire ascendente se va enfriando según va subiendo —encuentra menos presión y se dilata, enfriándose—, pero si sigue encontrando un aire circundante algo más frío que ella, su ascenso no se detiene y puede proseguir hasta niveles muy superiores de la troposfera.

El primer estadio del fenómeno, cuando la masa de aire húmedo y cálido comienza su ascenso, es el llamado efecto de disparo. Es importante comprender que a medida que sube la masa de aire se va enfriando; pero lo que importa no es eso, sino qué temperatura tiene en cada nivel respecto a la temperatura del aire que la rodea según asciende.

En ese ascenso, la temperatura del aire que sube y se enfría puede bajar hasta el punto de rocío, lo cual puede ocurrir pronto si había mucha humedad en el inicio. En ese momento, y sin parar su ascenso, comienza a condensar el vapor de agua «sobrante» en gotitas líquidas que dejan de ser invisibles, como lo era el vapor de agua en forma de gas. Y así es como la nube empieza a hacerse visible; su base puede estar a bastante menos de un kilómetro de altura en lugares calurosos y húmedos.

Y así la nube crece en vertical, haciéndose cada vez más gruesa a partir de ese nivel en el que se inició la condensación. De hecho, hemos estado hablando de una masa de aire, como una especie de gran burbuja cálida y húmeda. En realidad, las cosas no son exactamente así, pero sí es cierto que la anchura de esa enorme burbuja ascendente es muy inferior a la altura que puede llegar a alcanzar la nube en vertical. De tal modo que las primeras nubes algodonosas que aparecen inicialmente en el cielo enseguida se convierten en grandes cúmulos verticales que no dejan de crecer y cuya base es mucho más reducida que su altura.

El cúmulo seguirá creciendo en vertical si el aire que sube sigue estado algo menos frío que el aire exterior, incluso en niveles altos. Y así puede alcanzar la categoría de Cumulus congestus y, más adelante, la de cumulonimbo. En las zonas altas de la nube la temperatura exterior puede ser de muchas decenas de grados bajo cero, a bastantes kilómetros de altitud, incluso en pleno verano. Pero eso en realidad no es lo importante: si el aire que sube, ya en el interior de la nube bien formada, sigue estando aún algo menos frío (a esas temperaturas resulta extraño hablar de aire cálido) que el aire exterior, el cumulonimbo sigue creciendo hasta el punto de llegar a chocar contra la tropopausa, frontera con la estratosfera. Una tormenta grande de verano, y no digamos en zonas ecuatoriales o tropicales, choca contra la tropopausa a una altitud de hasta 18 kilómetros. En ese choque, debido a que la tropopausa es una zona de inversión térmica que impide todo ascenso del aire inferior, la nube se expande horizontalmente formando lo que, visto desde abajo, llamamos el yunque.

En esos casos, y desde bastante antes, por debajo de la enorme nube en rápida formación el cielo ha adquirido una tonalidad gris plomiza, sombría y amenazante. Se ha ido estableciendo muy deprisa un cada vez más poderoso campo eléctrico entre la base de la nube y sus zonas altas, por rozamiento de las gotas de agua —y de los cristales de hielo, en la parte superior de la nube— en las corrientes ascendentes y descendentes dentro de la nube; también aparece un poderoso campo eléctrico, por equilibrio electrostático, entre la base de la nube y el suelo.

Dentro del enorme cumulonimbo vertical las cargas viajan y pueden compensarse, o no. Pero el campo eléctrico formado entre la base y el suelo se establece a través de una capa de aire de varios centenares de metros, que normalmente actúa como aislante (el aire, sobre todo cuando está seco, es un poderoso aislante eléctrico). Con todo, bajo una gran nube de tormenta, la magnitud del campo eléctrico nube-tierra puede alcanzar varios millones de voltios por metro. Y en esas condiciones, a pesar del poder aislante del aire, puede acabar por producirse una chispa gigante que sirve para transportar cargas de un lado a otro (entre el suelo y la nube, y viceversa), con el fin de reequilibrar el campo eléctrico, neutralizando unas cargas con otras. Esas descargas son los rayos.

Paralelamente a estos fenómenos eléctricos se forma el granizo, que ya vimos en los hidrometeoros de agua helada. Y, por supuesto, también precipitan las gotas de lluvia, normalmente muy gruesas y cayendo a ráfagas, en forma de chubascos a veces muy violentos. Todo ello adobado por vientos horizontales, de dirección variable pero ascendiendo en espiral, que pueden ser muy potentes y que, en algunos casos, pueden formar tornados y trombas cuando esa subida se hace muy violenta y en forma de poderoso remolino...

Cuando todo eso ocurre, la tormenta en su conjunto está ya en plena madurez, poniendo en juego toda su energía acumulada en un intento automático de retornar al equilibrio electrostático, tras la ruptura de la paz atmosférica que supuso aquel calentón inicial —nunca mejor dicho— de la masa de aire ascendente que provocó el efecto de disparo. La energía puesta en juego por todos esos procesos propios de una tormenta normal equivale a la de una bomba atómica muy potente...

Algunas zonas del planeta son auténticos nidos de tormentas, lugares en los que con tiempo inestable se forman más frecuentemente estos fenómenos que en otros próximos. Obviamente se trata de regiones en las que el relieve facilita la ascendencia del aire caliente —el efecto de disparo— en una atmósfera cuya inestabilidad, medida por el perfil térmico en vertical, facilita luego ese ascenso hasta cotas muy altas. En la península Ibérica, las zonas con mayor número de tormentas son el Pirineo, en particular los macizos centrales y orientales, y el Sistema Ibérico, especialmente las sierras de Teruel y Cuenca. Tampoco se quedan atrás algunas zonas del Sistema Central, especialmente en la unión de la sierras de Guadarrama y Gredos.

Como curiosidad diremos que en promedio se dan en España cada año unas 10.000 tormentas, de las que 5.000 ocurren durante el verano (junio, julio y agosto, sobre todo en junio), unas 2.500 en primavera, unas 2.000 en otoño y sólo 500 en invierno. En conjunto, se producen una o varias tormentas en algún lugar del país en más de dos tercios (en promedio, en torno a 255 días) de los 365 días del año. En cuanto a todo el planeta, suele afirmarse que de forma constante, en uno u otro lugar, a cada instante se producen unas 2.000 tormentas. Es decir, el planeta Tierra tiene tormentas de forma permanente; no estamos, pues, ante un fenómeno infrecuente sino, por el contrario, más bien familiar.

3.2.3.2. Rayos y relámpagos

El rayo es, sin duda, el meteoro eléctrico más impresionante, y también el más frecuente; en esencia, no es más que una chispa eléctrica enormemente energética. Así lo define la Academia: «chispas eléctricas de gran intensidad producidas por descarga entre dos nubes o entre una nube y la tierra». En realidad, las descargas entre dos nubes son los relámpagos; sólo las que se dan entre tierra y nube se llaman propiamente rayos.

Una chispa es una descarga de electricidad que pasa de un lugar a otro a través de un medio que, normalmente, es un buen aislante; o sea, un mal conductor de la electricidad. Si consigue hacerlo es gracias a la enorme diferencia de potencial que puede llegar a establecerse, en el caso del rayo, entre la base de la nube y el suelo. El mal conductor que hay entre ellos es el aire, que se opone como una barrera aislante a esa descarga. Para que los electrones puedan saltar esa barrera han de adquirir una enorme energía potencial (es decir, que se produzca una enorme diferencia entre esa energía potencial de la base de la nube y la del suelo, por tanto, una enorme diferencia de potencial). Ésta se mide en voltios; todo el mundo sabe, por ejemplo, que la corriente doméstica suele ser de 220 voltios. Pues bien, la diferencia de potencial que se establece entre la base de la nube de tormenta y el suelo puede llegar a ser de millones de voltios, a veces más de un centenar. El campo eléctrico que se establece en esos casos alcanza intensidades de millones de voltios por metro antes de saltar la chispa.

La temperatura que alcanzan las zonas atravesadas por la descarga eléctrica es elevadísima, en torno a 30.000 ºC. Las partículas del aire atravesado se ionizan, produciendo una luz muy intensa, y el tiempo que tardan los electrones en viajar de nube a tierra, o viceversa —en realidad, un rayo es una descarga oscilante, lo que significa que hace varios viajes de ida y vuelta—, es de unas pocas diezmilésimas de segundo. La retina de nuestros ojos retiene el destello bastante más, por el deslumbramiento del fogonazo.

Lo curioso es que, a pesar de la espectacularidad de los rayos, la cantidad total de electricidad que acarrea la chispa es muy poca, aunque su diferencia de potencial es inmensa. Por eso es tan dañino este meteoro. Por buscar un símil hidráulico, es como si una gota de agua cayera a una velocidad tan enorme que pudiera incluso agujerear los materiales más sólidos y espesos: lleva muy poca cantidad de agua —la cantidad de electricidad, en el caso del rayo—, pero cae desde tal altura —la diferencia de potencial, en el rayo— que sus efectos finales son devastadores.

El proceso de formación del enorme campo eléctrico previo a la descarga es muy complejo. Parece indudable la intervención de dos fenómenos mecánicos a la hora de crear la electrización de la nube: la gravitación y la convección. Ambos afectan al movimiento de las gotas de agua, en la parte baja de la nube, de los cristales de hielo de la parte más alta, e incluso de los granizos que se forman en ese continuo ascenso y descenso del agua y el hielo por dentro de la nube. Si las ascendencias se llevan hacia la parte superior de la nube a las gotitas inferiores —por convección—, luego el peso de las más gruesas de esas gotas y de los cristales de hielo que han crecido al sumarse a algunas de esas gotitas ascendentes, las hacen descender, por gravitación.

Por debajo de 15 ºC bajo cero las gotas o granizos que chocan con los diminutos cristales de hielo que hay en esas capas altas de la nube van acumulando cargas negativas. Por encima de esos 15 ºC bajo cero, las gotas y granizos están cargados positivamente; no se sabe realmente por qué... Como las partículas más gruesas caen más deprisa, se llevan su carga negativa, adquirida en la parte alta de la nube, hacia las capas más bajas. Pero al bajar, según aumenta la temperatura por encima de los 15 ºC bajo cero, esas cargas se vuelven positivas. Y el resultado final es que la nube se divide, en esquema muy aproximado, en tres zonas: una zona alta de cargas positivas, una zona media de cargas negativas, y una zona baja de nuevo con cargas positivas.

Otra causa de electrización, pero esta vez por debajo de la nube, estriba en la producción, en las cercanías de los objetos más puntiagudos del suelo, de una descarga de iones positivos por culpa del intenso campo eléctrico entre la nube y el suelo. Eso puede acabar originando una excitación de los electrones cercanos que pueden colisionar con los átomos neutros del aire, que a su vez comienzan a liberar por esa causa nuevos electrones, y así sucesivamente. Esta especie de avalancha electrónica —ionización por choques sucesivos de moléculas de aire— genera iones positivos que son luego arrastrados hacia arriba por la convección del aire caliente, contribuyendo así a la electrización de la nube, pero iniciándose por debajo de ella.

El resultado final es que casi siempre la base de la nube acaba cargada negativamente y el suelo positivamente. Entre ellas surge una enorme diferencia de potencial, lo que hace que se inicien movimientos por parte de las cargas positivas del suelo para intentar subir hacia la nube, y de las cargas negativas de la nube para iniciar su descenso hacia el suelo. Son las guías precursoras —también llamadas trazadoras, o líderes—, que abren el camino al posible contacto entre las dos, la del suelo y la de la nube. Se crea entonces un canal de descarga que iniciará el rayo, que por fin tiene un camino por el que transitar.

No es un proceso sencillo, como se ve. En general, el avance de las cargas —que, por así decirlo, tantean el terreno hasta tomar contacto con las contrarias— es bastante «lento», del orden de 200 kilómetros por segundo; una velocidad increíble, pero muy inferior a la velocidad de la luz, 300.000 km/s. Sin embargo, una vez creado el canal ionizado por él transitará el grueso de la descarga eléctrica, y esta vez a muchísima velocidad, del orden de 100.000 km/s.

El rayo es casi instantáneo y muy potente, pero es casi imposible que con una sola descarga ya se restablezca el equilibrio del campo eléctrico existente antes de la tormenta. Por eso se producen numerosos rayos a lo largo del episodio tormentoso.

Otro interesante —y peligroso— acompañante de los rayos es el llamado golpe de retroceso inductivo: el rayo cae cerca de la persona o el animal afectados, y les produce la muerte. La explicación reside en el desequilibrio nervioso que produce el intensísimo campo electromagnético del rayo en el organismo: aparece entonces fugazmente una diferencia de potencial enorme que polariza al cuerpo, desplazando las cargas eléctricas positivas hacia la cabeza y las negativas hacia los pies. Pero en menos de un segundo todo vuelve al equilibrio. Todo ello provoca una descarga eléctrica interna, no muy intensa pero de muy elevado voltaje, que puede producir una especie de electrocución interna. Es como si el rayo tuviese la facultad de matar a distancia.

Incluso para la aviación comercial, los rayos suponen un riesgo nada despreciable contra el cual ya se lucha mediante sistemas que pretenden evacuar la descarga de nuevo al aire. En promedio, los aviones reciben el impacto directo de un rayo cada 10.000 horas de vuelo; normalmente, la cosa no pasa de un susto pasajero porque la descarga se reparte por la zona exterior del aparato y vuelve al aire a través de los descargadores de electricidad estática situados en el extremo de las alas.

Las 2.000 tormentas que se producen de media cada hora en el conjunto del planeta producen unos 100 rayos por segundo. Aun contando con el descuido de los excursionistas y fumadores, y con la locura de los pirómanos, las tormentas siguen siendo la principal causa de incendios forestales. El mapa de la página 7 del pliego muestra la frecuencia media de los rayos en el mundo, medida en número de rayos por kilómetro cuadrado y año.

Puede observarse que las zonas ecuatoriales son las más afectadas; el máximo de rayos se da en la República Democrática del Congo. También es fácil darse cuenta de que los rayos son, en proporción, muchísimo más frecuentes en tierra que en mar abierto.

Un viejo sueño de la humanidad consiste en utilizar la energía de las descargas eléctricas de las tormentas para obtener electricidad utilizable. Numerosas novelas antiguas de ciencia ficción aluden al tema, e incluso el famoso escritor José Mallorquí (1913-1972) sitúa una de sus novelas de la serie «El Coyote» en una hondonada rocosa en medio de las montañas fronterizas entre California y Nevada (probablemente la zona del lago Tahoe), donde un inventor indio medio loco podría haber encontrado el sistema para aprovechar la enorme energía de los rayos de tormenta.

Lástima; porque eso es absolutamente imposible. A pesar de lo aparatoso del fenómeno y de la enorme potencia puesta en juego, cada rayo en sí mismo produce muy poca cantidad de electricidad, como ya vimos con la analogía de la gota de agua que cae a enorme velocidad pero es sólo eso, una gota de agua. La potencia del rayo es enorme, pero se desarrolla en un tiempo sumamente breve.

En cuanto a los relámpagos, son descargas similares al rayo pero que no se producen entre el suelo y la nube sino que tienen lugar en el aire, dentro de la misma nube tormentosa, o bien entre una nube y otra cercana a ella. Aquí intervienen acumulaciones de cargas en diferentes zonas de la nube, tanto en vertical como en horizontal, como si se formasen bolsas eléctricas de cargas similares, y opuestas a las de otras bolsas de la nube. Y así, la descarga puede aparecer dentro de la enorme nube de tormenta, entre esas diferentes bolsas, y a diferentes niveles. Suena muy teórico y, en efecto, es bastante difícil de comprender en detalle precisamente a causa de la violencia de los fenómenos mecánicos y eléctricos que ocurren dentro del cumulonimbo, en continuo movimiento y evolución.

En todo caso, los relámpagos obedecen en general al esquema que veíamos al hablar de los rayos: cargas diferentes en los niveles altos, medios y bajos de la nube. Esas diferencias inducen entre los distintos niveles un voltaje que puede llegar a ser lo bastante grande como para que salte la chispa dentro de la nube misma. Son, claro, descargas más probables que la chispa hacia el suelo, por simple proximidad. Por eso los relámpagos suelen ser la primera manifestación de una tormenta incipiente, o que se acerca al lugar donde estamos. De hecho, cuando hay muchos relámpagos y pocos rayos es señal de que el cumulonimbo no está muy desarrollado; en cambio, si ya hay más rayos que relámpagos, es indudable que estamos ante una tormenta muy activa.

3.2.3.3. Rayo en bola y fuego de San Telmo

El rayo en bola, que durante cierto tiempo fue tenido por una fantasía propia de personas asustadizas que lo asimilaban a manifestaciones demoníacas, es un fenómeno real, incluso bastante curioso aunque muy poco frecuente. Eso sí, se hizo famoso entre los aficionados a las aventuras de Tintín por la aventura de las siete bolas de cristal, cuando un rayo en bola protagoniza curiosas travesuras (aparece incluso en la portada haciendo levitar el sillón en el que está sentado el despistado profesor Tornasol).

Se llama igualmente rayo esferoide, rayo globular o incluso rayo en rosario, todo ello debido a la forma que adopta, como una esfera de tamaño smilar a un balón de fútbol, a veces unida a otras similares en una especie de cadena. Se piensa que es originado en el canal ionizado por el que se va a producir el rayo, cuando en alguna zona los gases componentes del aire se ionizan mucho más que en el resto, allí donde hay una mayor concentración de gases como el ozono o el hidrógeno. Esa zona se hace entonces mucho más brillante e incluso consigue independizarse del canal principal, desgajándose, por así decirlo, del rayo principal a punto de producirse.

La bola luminosa —de color siempre brillante, blanco o amarillo, incluso rojizo— queda así como suelta en el aire, flotando en él y meciéndose de manera errática a merced del viento dominante y de los mecanismos termodinámicos que se producen en su interior. Se mueve emitiendo un sonido agudo, como un silbido, y desprende un olor característico a ozono, por ionización del oxígeno del aire. Suelen ser muy sensibles a los campos electromagnéticos, por lo que se ven atraídos con facilidad por los enchufes o los cables eléctricos, incluso por las masas metálicas y, especialmente, por coches y aviones, además de los cables del tendido eléctrico. La temperatura interior puede superar los mil grados. Luego, al enfriarse suelen desaparecer, en una especie de estallido luminoso y muy ruidoso, o bien se difuminan poco a poco como si perdiesen la energía interna que les mantenía activos al ir poco a poco enfriándose.

Algunos grupos de investigadores han intentado reproducir el fenómeno, y han conseguido bolas de plasma, de unos pocos centímetros de diámetro; pero todas esas experiencias han sido frustrantes en cuanto a la duración de las bolas ardientes, apenas unas minúsculas fracciones de segundo. En todo caso, y a falta de nuevos datos que aporten más luz a este asunto, los científicos han inventado un término nuevo para esta forma de la materia que no es propiamente ni una chispa eléctrica ni un auténtico plasma: el plasmoide.

Otro meteoro eléctrico poco frecuente, aunque bien conocido por los marinos antiguos, es el llamado fuego de San Telmo. Se trata de una emisión luminosa de color azul-verdoso brillante provocado por la ionización del aire dentro del enorme campo eléctrico que se establece entre la nube de tormenta y algún elemento saliente del suelo. Es similar al efecto corona que se observa en los cables de alta tensión cuando hay encima una tormenta a punto de descargar.

Llamarlo fuego no es precisamente acertado porque en realidad se trata de un plasma de aire ionizado, pero de muy baja densidad y temperatura no muy alta —no quema—, que rodea como un halo de apariencia misteriosa, casi fantasmal, a los salientes del relieve. Esto es algo relativamente frecuente en los barcos, cuyos mástiles y obenques suelen rodearse de ese fenómeno cuando un rayo está a punto de descargar.

El nombre procede del patrón de los marineros, san Elmo o san Telmo (en realidad este santo se llamaba Erasmo de Fornia y falleció en el año 303), quien por lo visto observó el fenómeno y lo atribuyó a las fuerzas del maligno. Hoy sabemos que la causa es la ionización del aire, cuyas moléculas se cargan eléctricamente debido al enorme campo eléctrico que se forma bajo la nube tormentosa; como el aire adquiere se electriza, la brújula puede desviarse fuertemente, lo que en el pasado era visto como algo incomprensible: se comprende el desasosiego de los marinos ante un fenómeno así.

Ya vimos que Franklin estudió la electricidad en la naturaleza; en sus escritos consignó este meteoro, y sin duda debió ser de los primeros en atribuirle el mismo origen eléctrico que los demás meteoros de las tormentas. También se produce el fuego de San Telmo en los aviones, o incluso en los cuernos del ganado vacuno; de hecho, aunque se manifiesta de forma diferente, tiene un origen similar al rayo en bola. Al parecer, el famoso dirigible gigante LZ129 Hindenburg, que se incendió en Nueva Jersey en 1937, como ya vimos sufrió el problema precisamente a causa del fuego de San Telmo. Aunque es probable que luego le afectara un rayo puesto que lo uno suele anunciar lo otro...

A pesar de lo extraño que resulta este meteoro, los escritos antiguos ya lo señalan como algo llamativo; desde César en sus Crónicas de la guerra de África, o Plinio el Viejo en su Historia natural, hasta navegantes famosos más modernos como Fernando de Magallanes (1480-1521), el mismísimo Darwin (1809-1882) o el aventurero, y luego famoso novelista, Herman Melville (1819-1891). De hecho, la segunda de las seis versiones cinematográficas de la famosa obra de este escritor, Moby Dick, mostraba al capitán Ahab —un extraordinario Gregory Peck, en un filme dirigido por John Huston y guionizado por el escritor norteamericano de ciencia ficción Ray Bradbury— dominando y apagando con la mano un fuego de San Telmo que se producía en unos de los salientes del barco ballenero Pequod... También Julio Verne en varias de sus novelas señala la aparición del fenómeno en lo alto del mástil de los barcos; por ejemplo, en Viaje al centro de la Tierra o en Un capitán de quince años.

Es un fenómeno real, pero resulta indudablemente excitante para muchas personalidades, desde Hergé a Verne, pasando por Darwin, Melville e incluso el mismísimo Hollywood.

3.2.3.4. Medidas de precaución

Es obvio que, de todos los electrometeoros, las tormentas —y muy especialmente los rayos— son las que presentan mayores riesgos tanto para los seres vivos como para las cosas inanimadas. Por eso algunos consejos prácticos son fundamentales; los hemos dispuesto en forma de modesto decálogo:

1. No buscar nunca refugio debajo de un árbol o de un grupo aislado de árboles, ni tampoco dentro de una choza pequeña ni en una cueva; en todo caso, huir de la entrada y quedarse lo más dentro posible. Los árboles que forman bosques tupidos son menos peligrosos porque la probabilidad de que el rayo caiga encima de nosotros es menor, sobre todo si huimos de los árboles más altos, que son los más peligrosos. Las casas de tamaño medio o grande son igualmente menos peligrosas que las pequeñas construcciones.

2. En caso de encontrarnos en un descampado, no correr para alejarse de la tormenta que se nos echa encima: ya hemos visto que la pequeña depresión aérea que se forma detrás de nosotros al correr puede atraer al rayo por menor densidad de ese aire tras nosotros. Si la tormenta eléctrica es muy intensa y está muy cerca, una solución extrema es tumbarse cuerpo a tierra e intentar avanzar a gatas hasta algún refugio próximo: al reducir nuestra altura, disminuye el peligro.

3. Dentro de las casas, cerrar puertas y ventanas. No pisar suelos húmedos o con calzado mojado. No acercarse a las chimeneas, y si están encendidas apagarlas (el aire caliente tiene menos densidad y puede atraer al rayo). El lugar más seguro es encima de una cama, sobre todo si es de madera, siempre que en el dormitorio no haya chimenea. Conviene desenchufar todos los aparatos eléctricos o electrónicos, especialmente las conexiones de antenas. Un rayo cercano puede, por ejemplo, dañar gravemente a distancia el contenido de un disco duro de ordenador que, aun estando apagado, seguía enchufado (quien esto escribe puede dar fe de ello).

4. No asomarse a las puertas ni tener las ventanas abiertas para contemplar la tormenta. Hacerlo si acaso detrás de los cristales.

5. No manejar herramientas u objetos metálicos bajo la tormenta, o cuando está cerca.

6. Nunca acercarse al agua, ni aún menos bañarse, cuando se esté en la playa o en la orilla de un río o de un lago. La playa es especialmente peligrosa: muchos pescadores y nadadores han sido fulminados por los primeros rayos de una tormenta que se acercaba... No sólo por ser zonas salientes en vertical en un área llana sino porque, además, la salinidad del agua aumenta la intensidad de la descarga eléctrica si uno está mojado o bañándose.

7. Alejarse de alambradas y cualquier tipo de verja metálica porque son excelentes conductores. El rayo puede causar la muerte aun sin estar en contacto con ellas. Por la misma razón en el campo hay que alejarse de toda clase de tractores, máquinas, vehículos y herramientas; es mejor abandonarlas aun en plena faena agrícola que ser fulminado por un rayo dentro de ellas o estando en sus proximidades.

8. No permanecer junto a los postes o las torres de tendido eléctrico, o bien bajo las líneas de tranvía o ferrocarril eléctrico. Y eso vale incluso para las calles de la ciudad, a pesar de la protección que otorgan los edificios más altos.

9. Dentro de un tren, un automóvil o cualquier vehículo, hay que cerrar las ventanillas, apagar la radio y bajar la antena; incluso, si se viaja debajo mismo de la tormenta, cerrar los conductos de ventilación del aire hasta que se aleje el peligro. El coche es, en teoría, un buen refugio por su efecto de jaula de Faraday: si le alcanza un rayo, la corriente pasa al suelo a través de la carrocería metálica, sin penetrar en el interior. Siempre, claro está, que se adopten las precauciones que acabamos de citar.

10. Es conveniente no estar junto a los animales, especialmente si están mojados o sudados por el ejercicio. Si se está montando a caballo, hay que apearse y alejarse de él. Para protegerle habría que hacer que se tumbara en el suelo, permaneciendo lo más quietos que sea posible.

Los meteorólogos suelen citar tres tipos de trastornos provocados por un rayo, todos ellos muy graves si no mortales, y a menudo unidos unos a otros: los de tipo eléctrico, los traumáticos y los térmicos. Es decir, el rayo nos afecta por electricidad, por choque y por calor. Es muy frecuente que su efecto combinado provoque la muerte, o al menos una parada cardiorrespiratoria. El golpe mecánico envía a veces a la persona afectada a varios metros de distancia; en algunos casos basta el golpe que todo ello supone —contra paredes, piedras o árboles próximos— para producir contusiones mortales.

En España a mediados del siglo XX morían en promedio más de medio centenar de personas directamente a causa de los rayos. Luego, una eficaz difusión de los consejos preventivos, especialmente en las personas que se dedican a las labores agrícolas, ha hecho disminuir mucho las cifras. Con todo, no es raro que haya cada año, sobre todo en las costas mediterráneas, algunas víctimas mortales, por ejemplo entre pescadores de playa que no advirtieron la proximidad de una tormenta típica de verano.

Existe una regla empírica según la cual el radio de protección (supuesta) de un objeto alto equivale a la altura de dicho objeto. Por ejemplo, si una torre tiene una altura de 30 metros sobre el suelo, cualquiera que se encuentre en un círculo de 30 metros de radio en torno a la torre estará protegido. Aun así, conviene recordar que si el rayo cae en el objeto elevado, sus efectos indirectos —la onda de choque, incluso la descarga electromagnética— pueden ser considerables. Mejor no fiarse mucho; incluso se ha dado el caso de que, con pararrayos en el tejado, el rayo ha caído en la fachada de la casa...

Como ya vimos, Benjamin Franklin sintió una enorme curiosidad por los fenómenos eléctricos de la atmósfera, lo que le llevó a idear un sistema de protección, que hoy conocemos como pararrayos. Su obra Experimentos y observaciones sobre la electricidad le valió para que la Academia de Francia le otorgase el honroso título de «Mejor científico no francés» de su tiempo. Desde entonces, o sea desde la segunda mitad del siglo XVIII, contamos con la protección de los pararrayos. Un sistema que se basa en el efecto de las puntas metálicas como atractor de las descargas; en realidad, la punta fina de algún metal buen conductor de la electricidad se comporta como un excelente emisor de cargas positivas propiciadoras de guías precursoras, lo que facilita el paso del rayo por ellas hasta descargar en dicha punta. La descarga se canaliza luego a tierra, dejando libre de peligro a las viviendas o zonas protegidas; no obstante, el choque mecánico sigue siendo importante, y el potente campo electromagnético, ya lo hemos visto, puede dañar circuitos delicados. Todo ello siempre que el rayo caiga en el lugar debido, o sea, el pararrayos.

Pero ocurre que, en ocasiones, el rayo descarga de manera mucho más caprichosa. Y aunque no es frecuente, se han dado casos en los que, en lugar de pasar por la punta del aparato cae directamente en el mástil que lo sujeta e incluso en el cable que conduce a tierra la descarga. Quiere esto decir que, en caso de tormenta muy energética, no existe en realidad protección definitiva alguna que garantice al cien por cien que no existe riesgo alguno. Una vez más conviene recordar que el riesgo cero es una utopía. Precisamente por eso, lo mejor es aplicar sin excepciones todas las reglas de precaución conocidas que antes analizábamos, muchas de las cuales son de puro sentido común. Es obvio que los pararrayos refuerzan la seguridad de manera notable, pero jamás otorgan una protección absoluta.

3.2.4. Acusticometeoros

Ocurren en el seno de la atmósfera y son fenómenos ligados a otros meteoros, o bien a las condiciones físicas del aire. Pero no son propiamente meteoros, al menos si nos ceñimos a la definición de la OMM que, recordémoslo, hablaba de «fenómenos que tienen lugar en la atmósfera y que pueden consistir en una precipitación, suspensión o depósito de partículas líquidas o sólidas, acuosas o no, o bien pueden ser una manifestación de naturaleza óptica o eléctrica». Los ruidos de la atmósfera no son ni una precipitación —del tipo que sea—, ni tienen naturaleza óptica o eléctrica. Pero como resulta bastante complicado encuadrarlos en alguna de esas categorías, se les ha buscado un hueco más o menos informal en ese tipo especial llamado acusticometeoros. Uno de ellos, el eco, se produce por rebote de un sonido en algún accidente geográfico; el otro es el trueno, un caso muy particular de eco, ligado siempre a las descargas eléctricas de las tormentas.

El eco es una reflexión del sonido que es devuelto, al chocar contra un obstáculo, con cierto retardo. Todos hemos verificado alguna vez el eco de algún acantilado, o simplemente de una pared lejana contra la que los ruidos parecen rebotar, volviendo a nosotros un poco más tarde. Ello es debido a que la velocidad del sonido en el aire es tal que tarda tres segundos, más o menos, en recorrer un kilómetro. Esa velocidad no es constante sino que depende esencialmente de la densidad del aire y, por tanto, de su temperatura y su presión. Los ecos sonoros en el seno de la atmósfera —sea cual sea su origen, natural o artificial— no son, pues, iguales cuando el aire es muy frío y denso que cuando se trata de aire cálido y ligero.

En sí, el eco parece escasamente relevante, apenas una curiosidad de la naturaleza si no fuera porque en el caso de las tormentas y sus frecuentes descargas eléctricas aparece con enorme potencia. Lo llamamos trueno, y se ve amplificado de manera estruendosa por los múltiples ecos que produce su reflexión en diversos obstáculos, empezando por las propias nubes y siguiendo por el relieve de la zona afectada por la tormenta. La onda sonora aparece por la brutal dilatación del aire sobrecalentado por el paso de la chispa eléctrica, y la posterior contracción igualmente brusca. No suena como un eco sino que más parece un potente chasquido, a veces en forma de redoble, originado por las moléculas de aire que chocan violentamente entre ellas al rellenar el vacío que produjo el paso de la electricidad.

Esa descarga adquiere tal violencia que no sólo consigue ionizar los gases que atraviesa sino que crea, además, según va abriéndose camino, un vacío que luego es rellenado de golpe por el aire circundante. Todo ello es casi simultáneo y muy violento. De ahí el fuerte chasquido inicial, que luego produce ecos reiterados en la misma nube, en el suelo, en las montañas... Un eco múltiple que hace del ruido inicial del trueno un constante resonar que puede durar muchos segundos y que a tanta gente asusta.

No es raro que los romanos atribuyeran a «Júpiter tonante» el carácter de jefe de los dioses y dueño del más poderoso meteoro, el rayo y el trueno. Zeus, el antecesor griego de ese mismo dios supremo, creaba con su égida los rayos y los truenos, como hacía el dios Thor de los nórdicos con su martillo de herrero... Pero no; es un simple fenómeno de mecánica acústica, amplificado por el eco dentro y fuera de la nube. Y como no es más que ruido, después de todo, no resulta dañino excepto, eso sí, que asusta a muchas personas. Lo cual no deja de ser curioso: cuando escuchamos el trueno, el rayo ya ha descargado. O sea, que el posible peligro que nos causa temor ya no existe una vez que escuchamos el retumbar del trueno; pero es su ruido el que da miedo.

El retumbar del trueno se desplaza a la velocidad del sonido, como es obvio; algo más de 1.000 km/h. En cambio la luz del rayo viaja muchísimo más deprisa, a unos 300.000 km/s, o sea algo más de 1.000 millones de km/h; la luz viaja un millón de veces más deprisa que el sonido... En distancias de unos pocos kilómetros, cuando se ve a lo lejos un rayo próximo, se puede asumir que la luz llega prácticamente al instante, mientras que el sonido tomará unos tres segundos para recorrer cada kilómetro. Basta entonces con ir contando los segundos transcurridos desde que vemos el rayo para, dividiendo por tres, obtener en kilómetros la distancia a la que cayó. Es una regla muy aproximada, no muy buena para distancias próximas o cuando unos truenos se superponen a otros; claro que tampoco importa mucho en tal caso porque los truenos suenan muy poco después de verse el rayo, lo que significa que la tormenta está encima.

Y es que en las proximidades del canal por el que cae el rayo el sonido del trueno es más una onda de choque que un sonido puro, y se transmite a mucha mayor velocidad, porque casi no da tiempo a que se formen los ecos que amplifican el sonido de los truenos escuchados de lejos. Pero esa onda de choque se amortigua enseguida y tras uno o dos segundos ya viaja como el sonido normal; por eso cuando se escucha el trueno de un rayo que cae muy cerca del observador, su sonido es menos retumbante e intenso: predomina un chasquido muy fuerte y la onda misma de choque, que hace temblar paredes y cristales.

En todo caso, a pesar de su espectacularidad y del terror atávico que suscita en muchas personas, el trueno es completamente inofensivo. Otra cosa es que vaya ligado a un fenómeno, el rayo, que sí puede resultar muy peligroso; no el rayo que originó el trueno que nos asusta, pero sí los que pudieran venir después de él... Cuando escuchamos el trueno el peligro ya pasó; pero como la tormenta puede seguir generando descargas si sigue sobre nosotros, conviene estar alerta y adoptar las precauciones que sean necesarias.

3.3. El clima

3.3.1. El clima no es el tiempo

El tiempo que hace en un determinado momento y en un lugar muy concreto está ligado a numerosos factores; la mayor parte son de tipo atmosférico, pero también intervienen otros elementos, sobre todo geográficos. Algunos son muy directamente determinantes de lo que ocurre y va a ocurrir, mientras que otros ejercen una acción mucho más sutil, a menudo indirecta e incluso sólo ocasional. Pero, a la larga, en cada lugar las personas acaban sabiendo, de forma muy aproximada, qué tiempo es más probable —o sea, esperable— en cada momento del año. Eso es, intuitivamente, lo que llamamos clima.

Por ejemplo, en líneas generales el centro de España es muy caluroso en verano y muy frío en invierno, con lluvias anuales moderadas tirando a escasas, que se concentran sobre todo en otoño y en primavera. En cambio, en las costas gallegas llueve en general mucho más, y de forma bastante uniforme a lo largo del año, pero en cambio las temperaturas varían mucho menos, mostrando un contraste poco acusado entre el verano y el invierno, incluso entre el día y la noche. Por su parte, en las costas mediterráneas del sureste las oscilaciones térmicas son también menores que en el interior del país, pero en conjunto las temperaturas son más altas que en la costa gallega y, a cambio, llueve muchísimo menos... Y así sucesivamente.

Lo que acabamos de definir, de forma somera e intuitiva, son las características esenciales de tres tipos de climas españoles «normales»: de interior (clima continental con influencias mediterráneas), atlántico (clima marítimo, templado y húmedo) y mediterráneo seco (clima marítimo casi árido, muy templado, incluso caluroso en verano).

El objeto de estudio de la meteorología como ciencia es, en esencia, lo que acontece con el tiempo día a día y con las causas por las que se producen los diversos meteoros. En cambio, lo que se estima o se calcula que ocurre en promedio —a largo plazo— es la base de estudio de otra ciencia paralela pero diferente, la climatología. La radiografía más o menos fija, como promedio a largo plazo de la temperie que tanto cambia hora a hora, día a día, año a año, es lo que podemos llamar clima; y es lo que estudia la climatología.

Así definido, todo esto parece relativamente fácil de entender. No obstante, es muy común la confusión entre ambos términos. Quizá porque los elementos principales del clima son los mismos que los del tiempo, y además resultan ser muy significativos para la vida cotidiana: la temperatura, la lluvia, el asoleo, el viento, la humedad, la nubosidad...

Pero es que no hay que olvidar que ambas disciplinas, la climatología y la meteorología, tienen el mismo objeto de estudio: la atmósfera y los elementos geográficos que la modulan. Lo que ocurre es que el clima de una región depende de ciertos factores que, a la larga, pueden tener una influencia muy superior en ese clima que en el tiempo cambiante de todos los días, donde pueden quedar enmascarados por los bruscos cambios propios del devenir meteorológico. Por ejemplo, los factores de tipo geográfico como la latitud y la longitud, la altitud sobre el nivel del mar, la mayor o menor proximidad a la costa, la orografía... A lo mejor en un cambio de tiempo brusco por el paso de una borrasca esos factores no influyen en exceso en el tipo de fenómenos que ocurren durante uno o dos días; pero es seguro que su influencia será bastante determinante a la larga, es decir, en el plazo de muchos años seguidos; o sea, en el clima.

Por eso la climatología no sólo estudia los climas en función de sus características estrictamente atmosféricas sino que también considera y analiza con el máximo rigor posible esos otros factores geográficos, incluidos los astronómicos, que quizá influyan mucho a largo plazo en la distribución del tiempo más frecuente, o sea, de los climas, según las distintas regiones del globo terrestre. Y aún más pueden influir en los cambios de esos climas que pudieran producirse a lo largo de plazos de tiempo aún más largos: siglos, milenios, incluso millones de años.

Por cierto la Real Academia Española, que en alguna ocasión no se muestra afortunada a la hora de abordar cuestiones relacionadas con la atmósfera, dice de clima que es el conjunto de condiciones atmosféricas que caracterizan una región; y, en una segunda acepción, que se trata de la temperatura particular y demás condiciones atmosféricas y telúricas de cada país.

Resulta chocante en ambas definiciones la vaguedad del lenguaje utilizado, muy alejado del rigor científico. Y, lo que aún parece peor, utiliza el adjetivo telúrico en la segunda acepción, que nada pinta en este asunto. Y, por cierto, ¿por qué de cada país? Hay países enormes que tienen muchos climas muy diferentes entre sí. Incluso en España, que no es un país muy extenso, existe una enorme diversidad de climas. En algunas regiones de menor tamaño, por ejemplo las islas de Mallorca y Tenerife, coexisten climas tremendamente diferentes en lugares situados a corta distancia unos de otros.

El caso es que la temperie de todos los días y el clima que sintetiza el promedio a largo plazo de esa temperie en un lugar dado son, obviamente, conceptos diferentes, aunque tengan que ver con las mismas cosas.

En algunos casos no siempre es fácil delimitar cuándo un determinado tipo de tiempo adquiere características climatológicas —o sea, acaba teniendo una influencia potencialmente detectable en el futuro promedio a largo plazo— o, por el contrario, forma parte de la variabilidad «normal» del clima en esa zona. Y eso hace que se piense que el cambio climático es casi lo mismo, al menos en sus consecuencias, que los diferentes cambios que el tiempo presenta habitualmente a lo largo de un año.

Por ejemplo, se nos presenta una concreta temperatura récord, o un determinado acontecimiento atmosférico adverso como prueba de la existencia de ese cambio climático, aun cuando su período de ocurrencia no haya variado; es decir, si ese fenómeno se da en promedio una vez cada treinta años antes, es obvio que puede formar parte de la normalidad del clima, aun con esa escasa frecuencia de unas tres veces por siglo. Pero no, hoy se dice que, como hacía treinta años que no ocurría, es una prueba de que el clima está cambiando.

Y no es el clima, claro, es el tiempo y, en este caso, una de sus manifestaciones poco frecuentes... Pero dándole la vuelta al argumento, supongamos que a partir de ahora ese suceso infrecuente se produce en promedio cada veinte años, en lugar de hacerlo cada treinta años, habremos pasado de tres veces por siglo a cuatro veces por siglo. Eso sí que será una muestra de cambio de clima. El problema es que hoy no lo sabemos, porque habrá que esperar muchos decenios más para averiguarlo. Ése es el problema con las predicciones climáticas: para saber si aciertan hay que esperar muchísimos años...

Lo que debe quedar meridianamente claro es que la temperie es siempre variable, tanto espacial como temporalmente. A cada segundo que pasa, la temperatura, la presión, la humedad, el viento... todos esos parámetros de la temperie están constantemente cambiando. Y la temperie también cambia, por supuesto, según nos vamos desplazando a lo largo y ancho del planeta, a veces incluso en distancias muy cortas. Además, y esta característica es determinante, podemos medir la temperie con todo tipo de instrumentos; la suma de los datos obtenidos, en un determinado lugar y en un momento dado, nos informa con precisión acerca del tiempo que hace en ese lugar y en ese instante. O sea que la temperie es algo real, con existencia física, medible con aparatos. Y constantemente cambiante.

En cambio, el clima debe ser calculado, o estimado, en forma de promedio a largo plazo; a partir de los datos numéricos actuales, o bien acudiendo a indicadores de tipo biológico, geográfico e incluso histórico. No es que el clima no exista, pero desde luego no es una realidad tangible, que podamos medir directamente con algún tipo de aparato, sino una especie de realidad virtual...

Un famoso meteorólogo austríaco, Julius Ferdinand von Hahn (1839-1921), precursor de los trabajos que se iniciaban en Bergen, publicó en 1883 un Manual de climatología en el que definía el clima como el conjunto de fenómenos que caracterizan el estado medio de la atmósfera en un determinado punto de la superficie terrestre. Una definición que suele ser usada todavía hoy día en muchos manuales.

El famoso Manual de climatología de Köppen define por su parte los climas de manera tipológica, describiendo en detalle las características atmosféricas dominantes en las diversas regiones del mundo. Así nacieron los conceptos de clima continental, oceánico, mediterráneo, árido, polar...

En la segunda mitad del siglo XX aparecen otras definiciones de climatología, que intentan precisar más determinados aspectos. Quizá la más llamativa sea la que aportaron Maximilien Sorre (1880-1962), especialista francés en climatología humana, y sobre todo el famoso geógrafo y climatólogo, también francés, Pierre Pédelaborde (1910-1992). Ellos caracterizaron el clima como la sucesión habitual de situaciones atmosféricas en un determinado punto, y no tanto como un estado medio de las variables que determinan el tiempo a cada instante.

Esta noción dinámica del clima, bastante menos estadística o descriptiva que las anteriores, fue una novedad llamativa a mediados del siglo XX (la obra cumbre de Pédelaborde, Estudio científico del clima, se editó en 1952, y hubo reediciones hasta la última de 1995).

Luego vendría la definición del oceanógrafo y meteorólogo ruso Andrei Sergeevich Monin (1921-2007), quizá el primero en hacer alusión a un Sistema Climático Global que se supone que debiera incluir, casi en igualdad de condiciones con la atmósfera, a los océanos, el suelo continental, los hielos, e incluso la propia biosfera. Él definió el clima como un conjunto estadístico de los estados del sistema conjunto Atmósfera-Hidrosfera-continentes-Biosfera-Criosfera, durante un período de tiempo suficientemente largo.

Los parámetros del clima también se pueden llegar a calcular, claro, si se dispone de suficientes datos numéricos medidos por aparatos meteorológicos con suficiente calidad y continuidad. Entonces se acude a la herramienta estadística con el fin de obtener conclusiones en forma de promedios a largo plazo. Pero aquí la cosa se complica, porque sólo disponemos de datos numéricos en algunos lugares, y para períodos de tiempo no siempre suficientes ni comparables. No existen observatorios en todas partes, y los que ahora están no siempre estuvieron ahí... Son muy pocos los que tienen buenos registros que abarquen, por ejemplo, más de un siglo; apenas un puñado en Europa y en América, y casi ninguno en el resto del mundo.

En España, por ejemplo, y con una fiabilidad relativa, apenas una docena de observatorios tienen series de datos regulares desde finales del siglo XIX. Y para los mejores estudios climatológicos se toman medio centenar de observatorios del siglo XX. Pueden ser muchos... o muy pocos; desde luego, si se toman como representación del conjunto de los climas del país, son realmente pocos. Y nuestro país es uno de los que mejores y más datos tienen en el mundo. Hay extensísimas zonas en el planeta, incluidos los océanos, que no disponen de ninguna serie de datos numéricos válidos.

O sea, que cuando queremos comparar los datos globales recientes (desde la segunda mitad del siglo XX más o menos) con los promedios anteriores que sólo podemos estimar con métodos de tipo histórico y geográfico, las conclusiones que obtenemos son, inevitablemente, abusivas: no se pueden considerar del mismo modo unos y otros datos, porque su procedencia, e incluso su cuantificación, son muy diferentes.

En todo caso, si el clima es, en esquema, el promedio del tiempo a largo plazo, ¿qué entendemos exactamente por «largo plazo»? Es decir, ¿cómo ha de ser ese plazo para que sea lo bastante largo?

La atmósfera de nuestro planeta tuvo unos climas remotos que cambiaron mucho en plazos de millones de años, porque no es posible precisar más cuando se analizan los escasos restos geológicos y fósiles que nos quedan de aquellos lejanísimos tiempos. Incluso en el Cuaternario, los dos millones de años más recientes, la unidad climática es el milenio, o la decena de milenios: en promedio, cada glaciación reciente duraba unos cien milenios, o algo más. Pero si nos vamos más cerca del presente, por ejemplo, a la Pequeña Edad del Hielo del siglo XVII o al clima caluroso de le época de los vikingos, utilizamos como unidad el siglo. Pero... ¿y ahora?

El siglo no parece una mala unidad, incluso desde el punto de vista humano. Pero la meteorología científica nos proporciona en estos últimos tiempos tal profusión de datos fiables en un buen puñado de observatorios —pocos a escala mundial, pero muchos si se compara con los que había antes— que realizar promedios cada cien años se antoja excesivamente amplio. Además, ningún científico actual va a vivir un siglo o dos...

Por eso, los meteorólogos —que están acostumbrados a lidiar con los súbitos cambios de tiempo a veces en plazos de horas— prefieren períodos más breves que el siglo para establecer esos promedios. Por su parte, los geógrafos, más atentos a los paisajes y sus lentas evoluciones, prefieren plazos más largos. Y el no siempre posible consenso se ha quedado en dos cifras bastante interesantes: la meteorología considera períodos de treinta años —a los que se refería la definición de clima de nuestra Academia de Ciencias— mientras que la geografía prefiere plazos de al menos medio siglo, incluso de un siglo. Como los meteorólogos tienen hoy más influencia a la hora de estudiar el problema del cambio climático, la norma imperante actualmente es la del treintenio. Y a esos períodos se refieren los estudios del IPCC cuando se refieren a las «anomalías respecto a la normal». La OMM utiliza treintenios: 1901-1930, 1931-1960...

El problema, aún no resuelto, consiste en elegir cualquiera de esos períodos como período «normal» de referencia para cambios de clima pasados o futuros. Si hoy las temperaturas están más altas de lo normal, ¿a qué período de comparación nos estamos refiriendo con ese «normal»? Se supone que al más reciente de los de la OMM, o sea, 1961-1990. Pero muchos estudios del IPCC toman el período 1971-2000; y algunos incluso comienzan a utilizar 1981-2010. Pero ¿por qué es más «normal» el promedio 1961-1990 que, por ejemplo, el treintenio anterior, 1931-1960? También podríamos preguntarnos cuál de ellos fue «mejor», sea lo que sea lo que queramos significar con eso; porque es obvio que, para cada treintenio elegido, los datos climáticos serán algo diferentes... Esto de la bondad o maldad de los climas merecerá comentario aparte enseguida.

En fin, lo que debe quedar claro es que solemos usar una definición simplificada de clima, que parece más bien sencilla de comprensión y asequible para todo el mundo: el clima es el promedio del tiempo a largo plazo, aceptando que ese largo plazo consta de como mínimo treinta años.

¿Hemos dicho definición simplificada? En realidad, no tanto... Porque así formulada, la definición de clima esconde una complejidad más que considerable. Lo que se considera tradicionalmente es el promedio estadístico —o sea, la media aritmética— de cada una de las variables principales que definen el estado de la atmósfera: temperatura, precipitación y todas las demás. Pero el promedio de cada una de ellas se enfrenta a diversas dificultades. Veámoslo con la temperatura: ¿cuál es su promedio real en treinta años?

Si lo miramos de cerca la cosa puede llevarnos muy lejos. Porque en rigor habría que tomar la gráfica que representa la curva de la variación instantánea de la temperatura en un lugar determinado, y eso, durante treinta años. Luego habría que integrar ese trazado tan irregular para conseguir que la superficie que quedara por encima fuera idéntica a la que quedara por debajo de un valor medio. Hacer eso para una región del planeta como, por ejemplo, toda España, significaría repetir la operación en todos y cada uno de los puntos del país. Algo, obviamente, imposible.

Por tanto, se toman sólo unos cuantos puntos de esa larga curva, y esto sólo en unos pocos observatorios, aquellos que tienen mayor antigüedad en sus datos. O sea, que en lugar de calcularlo mediante la curva de variación continua de la temperatura, se simplifica el asunto tomando la máxima y la mínima de cada día, dividida por dos. Eso proporciona la media del día. Luego se repite la operación todos los días de un mes, cuyo promedio será la temperatura media del mes. Y se repite luego en los doce meses del año y se obtiene la media del año. Luego se hace lo mismo durante treinta años, y finalmente se obtiene la media del treintenio. Se suma el valor en cada observatorio y se divide por el número de observatorios. ¡Hecho!

Así se hace en todo el mundo, que conste. Aunque observatorios con más de un siglo de datos regulares apenas hay dos docenas en Europa, unos pocos cientos que tengan más de medio siglo, y unos dos mil y pico con más de treinta años de datos fiables en la actualidad. Muchos de ellos están situados en ciudades que, en ese tiempo, han crecido desmesuradamente... Por supuesto, en el resto del mundo las cosas están muchísimo peor.

O sea, que lo de obtener promedios climatológicos no es tan sencillo como parece a primera vista. El sistema que acabamos de describir puede inducir a errores, y no precisamente pequeños. Veamos dos de ellos, como muestra: el primero deriva del hecho obvio que un dato estadístico (o sea, el clima) casi nunca refleja bien la realidad. Y el segundo obedece a que los datos de un observatorio (o sea, la temperie de todos los días en ese observatorio) no tienen por qué ser representativos de lo que ocurre en las zonas circundantes.

En cuanto a la inadecuación de la estadística a la realidad, cabe señalar sencillamente que la suma de la temperatura máxima y de la mínima dividida por dos no tiene por qué ser exactamente la temperatura media real. En primera aproximación, quizá no sea una mala idea; pero hay muchos días en el año en que la variación de temperatura no es continua porque no siempre hay un calentamiento progresivo durante el día y enfriamiento igualmente progresivo durante la noche; por ejemplo, en días con tiempo muy inestable, nublado y lluvioso, pueden darse la mínima y la máxima a horas insólitas, con una curva de temperatura diurna de lo más irregular. En esos casos sumar la máxima y mínima, y dividir por dos representa muy mal la temperatura media del día.

En cuanto a la mala representatividad de un solo observatorio respecto a un territorio extenso circundante, en principio podría parecer lógico que dos observatorios cercanos obtengan datos muy similares, y que por tanto no se comete mucho error al aceptar que el dato de un lugar representa bien el que habría en muchos kilómetros cuadrados a la redonda. Pero el problema es que a menudo eso no es cierto, ni siquiera con dos observatorios próximos.

Un ejemplo sencillo es de los datos medios de temperatura en el período 1971-2000 en dos observatorios que distan sólo cinco kilómetros y en la misma ciudad: Valencia aeropuerto (en Manises, a las afueras de la ciudad y a 70 metros de altitud), y Valencia centro, en un parque urbano, a 11 metros de altitud). La temperatura media en el aeropuerto es de 17,2 ºC y en la ciudad 17,8; para ser una temperatura media de treinta años, la diferencia es considerable: 0,6 grados. Esa cifra, recordémoslo, coincide con el calentamiento medio del clima mundial registrado durante todo el siglo XX, que tanta alarma ha suscitado...

Pero aún más llamativo resulta el promedio estacional: la media de agosto en el aeropuerto valenciano es de 25,4 ºC y en la ciudad 25,5 ºC; o sea, que en verano no hay diferencias. Pero la media de enero en el aeropuerto es de 10,2 ºC y en la ciudad de 11,5 ºC; aquí sí que hay una enorme diferencia climatológica. El centro de la ciudad es 1,3 ºC más cálido que la periferia. Pero eso no ocurre en verano, como pudiera parecer lógico, sino en invierno. Es cierto que la diferencia de altitud, 59 metros, pudiera influir; pero curiosamente lo hace en invierno, no en verano. También podría influir la proximidad al mar; el aeropuerto está algo más lejos en línea recta; pero tampoco hay diferencia en verano, que es cuando más debiera notarse el efecto refrescante de la brisa costera.

En todo caso, Valencia y todo su entorno se encuentran en una llanura, y la ciudad está rodeada de arrozales y huerta, con extensas áreas cubiertas por naranjos. O sea estamos, al menos aparentemente, ante una zona muy homogénea desde el punto de vista climático. Pero los datos indican que no es así: los dos principales observatorios, a sólo 5 kilómetros de distancia uno del otro, arrojan promedios bien diferentes.

¿Quiere esto decir que los observatorios de todo el mundo deberían estar situados a distancias aún menores que esos 5 kilómetros? Suponiendo que cubriéramos la Tierra con observatorios distantes entre sí 5 kilómetros, basta con dividir la superficie del planeta por 20 km2 (que sería más o menos el área de la circunferencia de influencia de cada observatorio, de 2,5 km de radio). La Tierra tiene 510 millones de km2, que divididos por 20, nos da... la friolera de 25 millones y medio de observatorios. Absolutamente inviable, claro... Y eso, aceptando que cada observatorio representa bien a todo el territorio circundante del orden de 20 kilómetros cuadrados, que puede que sí o puede que no, como hemos visto en el caso de Valencia.

Por supuesto, hoy apenas utilizamos unos miles de observatorios en todo el mundo, la mayoría en el mundo desarrollado. Los errores son, sin duda, muy superiores...

El fenómeno que hemos descrito esquemáticamente para Valencia se debe a la famosa «isla de calor», un proceso que resulta ser tanto más llamativo cuanto más grande es la ciudad. Valencia y su entorno suman un millón de habitantes, pero muchas grandes ciudades europeas que tienen series de datos bastante antiguas tienen el mismo problema, pero corregido y aumentado. Es cierto que con el tiempo, y gracias a la construcción de aeropuertos y bases aéreas, ya bien entrado el siglo XX, hubo nuevos observatorios en las afueras de las grandes urbes. Los expertos pueden establecer correlaciones estadísticas entre las series del centro de la ciudad y las de esos observatorios periféricos, con las que calcular y extrapolar datos que faltan, pueden estimar y corregir las distorsiones que aparecen, pueden, en suma, «inventar» datos que no son reales. Todo con el fin de corregir, mejor dicho compensar, aunque sólo sea en parte, el efecto de isla de calor.

Los expertos aducen que así es como tienen en cuenta este efecto distorsionante en las largas series de datos urbanos; pero es a costa de eliminar datos reales y sustituirlos por correcciones que los convierte en «índices», o sea, en datos «estimados». Desde luego, no son correcciones caprichosas sino que se basan en la comparación de tendencias a largo plazo de las temperaturas urbanas con las de observatorios situados en pleno campo en torno a esas ciudades. Pero es un procedimiento sujeto a errores de interpretación, incluso de mala adecuación de unas series y otras. En suma, es lo mejor que tenemos, pero no es muy bueno que digamos.

Un estudio reciente, aparecido en enero de 2013 en la revista especializada Nature Climate Change, demuestra que el efecto de isla de calor no sólo afecta a la ciudad y sus zonas próximas, sino que puede llegar a alterar la temperatura de regiones situadas muy lejos, incluso a muchos cientos de kilómetros. Según este estudio, ese calor emitido de forma directa por la actividad de las grandes ciudades explicaría un aumento de hasta 1 ºC en la temperatura media de los inviernos rusos y de 0,8 ºC en los inviernos canadienses. En general, estos cambios derivados de las diversas islas de calor urbanas son más llamativos en el hemisferio norte, mucho más poblado que el hemisferio sur.

Los autores del trabajo son investigadores del Instituto Scripps de Oceanografía, la Universidad Estatal de Florida y el famoso NCAR (National Center for Atmospheric Research, Centro Nacional para Investigaciones Atmosféricas) de Boulder, en Colorado. Lo curioso es que este trabajo desmonta, al menos en parte, la idea de que el único mecanismo de calentamiento es el de los gases invernadero al poner de manifiesto la intervención de la emisión directa de calor por las casas, los coches, las calefacciones y el conjunto de las actividades humana urbanas. Un efecto que no se limita ya sólo a las ciudades y su entorno, por lo de la isla de calor, sino que irradia a mucha distancia.

Curiosamente, los científicos de este estudio, firmes defensores de las tesis catastrofistas del IPCC, añaden en su trabajo —sin aportar prueba alguna de ello— que a pesar de lo que su estudio indica el impacto sobre el calentamiento global es muy reducido. Se comprende mal semejante conclusión cuando su estudio afirma lo que afirma. ¿Miedo a ser considerados herejes del cambio climático?

En todo caso, queda claro que los valores medios obtenidos empleando sólo la media aritmética del valor máximo y el mínimo, tienen escasa representatividad. Un simple ejemplo bastará para comprender a qué nos referimos: dos ciudades como Bilbao y Madrid tienen una temperatura media anual idéntica: 14,4 ºC (período 1971-2000). Pero en Madrid las máximas de verano son mucho más altas, y las mínimas de invierno mucho más bajas, que en Bilbao. Al margen de lo mucho que llueve en Bilbao comparado con Madrid.

Y es que la cosa aún es más evidente si hacemos intervenir los datos medios de precipitación. Por ejemplo, en promedio cae al año la misma cantidad en Huesca, al norte de Aragón, que en Málaga, en plena Costa del Sol: 524 mm en Málaga y 535 mm en Huesca (período 1971-2000). Pero si hay dos climas bien diferentes en España son estos dos: aunque llueva lo mismo en total, nada se parecen entre sí ni por la forma en que caen esas lluvias, ni por su distribución a lo largo del año, ni por la sensación que produce en los seres vivos esa forma de llover, y no digamos las temperaturas asociadas: el frío que hace en Huesca en invierno no tiene nada que ver con el ambiente templado de Málaga.

Dentro de esa variabilidad de los datos reales en torno a los promedios, resulta crucial conocer la probabilidad de ocurrencia de valores muy extremados (récords), o bien de valores no tan extremados pero más duraderos, o ambas cosas a la vez. Porque todo ello, referido a la temperatura o la lluvia —por seguir con esos dos ejemplos—, tiene que ver con la presencia, más o menos frecuente, más o menos regular y más o menos intensa, de olas de frío o de calor, de lluvias catastróficas o de sequías agobiantes...

Los promedios, y más los que se calculan a largo plazo, no proporcionan ninguna información acerca de todos esos detalles; y, sin embargo, esos detalles son los que en realidad tienen la máxima importancia para la vida de las gentes y también, cada vez más, para la economía de una región o incluso de todo un país.

Y aún falta algo más, como si lo ya dicho no fuera bastante complicado: la presencia de valores extremos puntuales, los famosos «récords» (de calor, de frío, de abundancia de lluvia...) que sólo se dan en momentos breves pero que sobresalen en exceso sobre el promedio; esos que salen en los periódicos y que son valores máximos o mínimos dentro de un determinado período de tiempo. Porque no vale decir que se ha batido el récord de calor en tal mes y en tal localidad si inmediatamente después no se dice cuál es el período de tiempo en el que se inscribe dicho récord. No es lo mismo un récord en un período de 35 años que en un período de siglo y medio, claro.

En climatología, la temperatura máxima absoluta en un mes concreto, por ejemplo abril, en un período de referencia de treinta años, es la más alta que se dio en los 900 días de esos treinta abriles sucesivos. Lo mismo para las mínimas, la lluvia en 24 horas y todas las demás variables.

Podría discutirse si los récords deben ser considerados como datos climatológicos, al ser sucesos puntuales; en realidad, sólo tienen trascendencia meteorológica puesto que ocurren sólo una vez dentro de un larguísimo período de tiempo. Pero los extremos también forman parte de paisaje climatológico... La discusión está abierta.

Por otra parte, en cuestiones de clima se pueden considerar factores locales que pueden alterar mucho lo que se suele dar por supuesto, en el caso de que no haya datos registrados. Un ejemplo muy concreto es el de los microclimas, que corresponden a zonas geográficas poco extensas pero en las que reinan unas condiciones ambientales —por razones geográficas casi siempre— que configuran un clima bastante diferente al de su entorno, a veces de manera insólita. Si de esa zona no hay datos, deducirlos a partir de otro observatorio cercano inducirá a errores considerables; y no lo sabremos.

Casi siente uno la tentación de alinearse con la fina ironía que expresaba, en tono amistosamente jocoso, uno de los más importantes climatólogos portugueses, José Pinto Peixoto (1922-1996), cuando escribió como dedicatoria de uno de sus libros científicos la siguiente frase en latín: Quid est Clima? Si nemo a me quaerat, scio! Si quaerenti explicare velim, nescio!

Viene a significar más o menos lo siguiente: «¿Qué es el clima? Si nadie me lo pregunta, ¡lo sé! Pero si me piden que lo explique, ¡no lo sé!».

3.3.2. Climas buenos y malos

3.3.2.1. Si la Tierra tiene fiebre..., ¿cuál es su temperatura ideal?

El ex vicepresidente norteamericano Al Gore ha venido declarando durante el otoño de 2012 que «la Tierra tiene fiebre». Excelente eslogan para la mercadotecnia, pero absolutamente desprovisto de sentido científico. ¿Qué es eso de la fiebre del planeta? Es obvio que se refiere al calentamiento, y no hay que ser muy sutil para darse cuenta de que ese calentamiento, puesto que se asimila a la fiebre, no puede ser considerado más que como el síntoma de una enfermedad: el cambio climático. Lo que conduce inexorablemente a la aplicación urgente y prioritaria de los remedios oportunos, que se supone ya han sido perfectamente identificados por los sabios. Punto final.

Pero esa idea es de una simplicidad desarmante, por no decir absolutamente infantil. La pregunta obvia es la siguiente: si la Tierra tiene fiebre, ¿cuál es su temperatura normal? Es decir, si la Tierra está enferma porque así lo indica su elevada temperatura, ¿cuál era su temperatura cuando no estaba enferma? ¿Cuál es la temperatura de un planeta «sano»?

Se supone que como el calentamiento actual es reciente, la Tierra hubo de estar «sana» —o sea, sin fiebre— en algún tiempo anterior a hoy, probablemente en el siglo XX que es cuando se da por hecho que se inició el calentamiento por la intensiva industrialización del mundo rico. Pero en realidad nadie nos dice, ni Al Gore ni los muchos expertos que le jalean, cuál es esa fecha en la que la Tierra comenzó a enfermar, cambiando su clima ideal hacia un clima peor.

Nadie identifica esa fecha maravillosa a partir de la cual todo comenzó a ir peor, pero es una idea que todo el mundo acepta implícitamente. Pero ¿cómo comparar, en cuanto a su bondad o maldad, los diferentes climas que hay actualmente con los que ha habido en el pasado, en unos u otros lugares del mundo?

Quizá pudiéramos intentarlo a base de comparar los peores comportamientos de la atmósfera para con la especie humana. No es mal baremo porque, después de todo, todo esto del cambio climático tiene un componente esencialmente antropocéntrica, que algunos disfrazan de naturalista.

Para conseguirlo bastaría con analizar los climas pasados y actuales desde su perspectiva más «malvada», asumiendo a cambio que cuando no hay grandes problemas de sequías, inundaciones, fríos dañinos, calores extemporáneos, tormentas devastadoras o lo que sea, es porque el clima es más bonancible y, en conjunto, más favorable para nuestros intereses. O sea, en terminología de Al Gore, más sano.

Puede que nos llevemos muchas sorpresas, incluso puede que lleguemos a la conclusión de que los climas son tanto más favorables cuanto más cálidos... De hecho, sin muchas averiguaciones eso es algo que salta a la vista analizando lo ocurrido históricamente en la biosfera primero, y luego durante la evolución de la especie humana.

En todo caso, a nadie se le oculta que los climas actuales existentes en las diversas regiones del mundo tienen sus cosas buenas y sus cosas malas. Cualquiera diría, al escuchar a los catastrofistas del clima, que el presente —y aún más el futuro— va a ser una sucesión de calamidades que contrastarán con un pasado reciente de climas bondadosos, mucho menos calamitoso. Quizá por eso pudimos en ese pasado reciente alcanzar la excelente calidad de vida de la que gozamos, con abundante disponibilidad de agua potable y de otros recursos igualmente vitales para casi todo el mundo. Todo un idílico panorama hoy severamente amenazado por el nefasto cambio climático derivado de la aún más negativa industrialización...

Pero, claro, el relato del párrafo anterior es una absoluta fantasía en la que no creen ni los más fervientes defensores de las líneas argumentales de Al Gore, que a lo sumo echará de menos haber dejado de ser vicepresidente norteamericano hace doce años. ¿Sería el decenio de los noventa, cuando la administración Clinton, la época dorada de una Tierra sin fiebre? Quizá no, si tenemos en cuenta que en 1998 se dio el que probablemente ha sido el año más cálido de todo el siglo; y eso se supone que es muy malo porque el enemigo es el calentamiento, simbolizado por el dióxido de carbono...

En realidad, digámoslo de una vez por todas, los climas que hoy se dan en el planeta, los climas que hubo hace medio siglo e incluso, ya puestos, los de los siglos precedentes, tienen y tuvieron muy poco de maravillosos. ¿Cuándo no ha habido por doquier, en unos sitios más que en otros, inundaciones, sequías, ciclones, tornados, heladas, tormentas, vendavales...? ¿O es que todo eso es exclusivo de los tiempos modernos y antes eran sólo sucesos esporádicos? Porque si alguien defiende eso es que es sencillamente un ignorante y no sabe nada de historia ni de geografía.

El mundo de hoy no es el mejor mundo posible, y por muchas razones; pero entre esas razones que hacen que nuestro mundo sea más bien hostil para la humanidad, no destacan precisamente los rigores extremos de los diferentes climas que se dan en prácticamente todas las regiones. Por supuesto, la prensa enseguida recuerda el Katrina de 2005, el ciclón Sandy de 2012, las nevadas copiosas del invierno 2012-2013... Pero para ser rigurosos habría que comparar todo eso que pasa ahora con lo que pasaba hace unos años, no vaya a ser que ahora sean menos las catástrofes que antes. Aceptando, claro, que siempre las ha habido y las habrá.

La pregunta crucial es: ¿pueden los expertos asegurarnos con pruebas verificables que cualquier cambio en todos y cada uno de esos múltiples climas que existen en el planeta será forzosamente a peor?

Desde luego, las cosas son siempre susceptibles de empeorar; pero la historia reciente en Europa nos enseña que para los seres humanos las peores condiciones se han dado —lo veremos enseguida— cuando las temperaturas medias han bajado o han sido más bajas que en otras épocas próximas. Y han mejorado con temperaturas altas o subiendo. También la historia remota del planeta nos enseña que en períodos de glaciaciones la biosfera del planeta ha sufrido mucho más que en épocas cálidas, cuando la biodiversidad se enriqueció notablemente tanto en número de especies como de individuos por especie.

Ésa es una realidad, basada en datos bien conocidos. Es incontrovertible que a la vida sobre la Tierra —animal, vegetal, incluso humana— le va mucho mejor el calor que el frío. Desde un punto de vista estrictamente naturalístico, pues, no tiene sentido alguno que los ecologistas se quejen porque el clima se vaya a calentar. Nunca le ha ido mejor a la biosfera como en el Carbonífero, por ejemplo, cuando no había hielos ni siquiera en invierno en las zonas polares. Otra cosa es cuando se habla de los humanos modernos, y ricos; poque los pobres nunca han vivido bien, tuviera la Tierra fiebre o no...

Y volvemos a la pregunta inicial: si hablamos de calentamiento o enfriamiento, de mejoría o de empeoramiento, se sobreentiende que nos estamos refiriendo a un tiempo anterior: «ahora nieva menos que antes», «nunca antes hizo tanto calor», «nunca se vio por esta tierras una lluvia semejante», etc. Pero ¿cuándo es ese «antes de»? ¿El «nunca se vio» se refiere a los últimos años, la vida de la persona que habla, las estadísticas históricas?

Todo eso vale para el lenguaje de la calle, incluso para el periodístico. Pero es técnicamente impreciso. Vale como ejemplo de ese lenguaje borroso, esa lógica difusa tan difícil de traducir al lenguaje informático por los especialistas en sistemas expertos, en eso que llamamos inteligencia artificial. Antes, bastante, suficiente, mucho... En todo caso, si hay cambio climático, ese cambio —cualquier cambio, en realidad— tiene que tener un origen. Habría que explicar muy bien respecto a qué y desde cuándo se produce cualquier cambio. ¿Años, decenios, siglos...?

Todos los climas, con leves matices, tienen, tuvieron y tendrán determinados aspectos muy negativos. Pensemos, sin ir más lejos, en las catástrofes naturales que tienen que ver directa o indirectamente con el comportamiento de la atmósfera. Casi en cualquier tipo de clima se da por norma un comportamiento en el que aparecen con mayor o menor frecuencia diversos elementos dañinos: los ciclones tropicales surgen en los mares cálidos todos los años, pero eso no impide a las gentes residir en el Caribe, región turística por excelencia. A veces, los fenómenos adversos se presentan, en cambio, sólo esporádicamente: por ejemplo, un verano extremadamente caluroso o una ola de frío extemporánea en áreas de clima templado, o bien una llamativa sequía en alguna zona lluviosa tropical... El análisis histórico de esos sucesos nos permite definir lo que se denomina «riesgo climático», que es propio de cada región considerada.

Pero vista la diversidad de climas en la Tierra, ¿cómo podríamos definir su bondad o maldad en función de una suma, imposible, de todos esos riesgos climáticos propios de unas u otras regiones?

Y antes de nada habría que ponerse de acuerdo en lo que debemos estimar como bueno o malo: ¿qué es mejor, un clima de montaña o de playa? ¿Los climas de paisajes verdes y lluviosos, los climas cálidos y secos, los climas muy fríos, los tropicales, el clima sin cambios a lo largo del año o el que presenta una estacionalidad muy marcada...? Porque, recordémoslo una vez más, hablamos de climas, no de las veleidades atmosféricas del día a día. Intentamos analizar el promedio a largo plazo de todas esas veleidades, positivas o no.

Recordando, y no es broma, aquel viejo refrán del «nunca llueve a gusto de todos», que tiene un corolario bastante más ácidamente político —y mucho menos científico— en el italiano «piove, porco governo!», quizá deberíamos abordar ante todo el asunto de lo que es deseable, lo que resulta favorable en un clima. ¿Deseable y favorable... para quién? Para la biosfera, en abstracto, la cuestión no tiene vuelta de hoja, ya lo hemos dicho: los mejores son los climas cálidos, que propician crecimientos de biodiversidad más que notables. Pero si nos referimos a los humanos, la cosa quizá varíe.

Y es que no todos los seres humanos deseamos lo mismo en cuanto al promedio de los fenómenos atmosféricos que deban afectarnos a lo largo de muchos años. Lo que es bueno para unos puede no serlo tanto para otros... Un ejemplo obvio es que incluso en épocas de sequía intensa seguimos llamando «buen tiempo» al tiempo soleado y seco; es bueno, sin duda, para hacer turismo o para pasear, pero malo para las labores agrícolas y el aprovisionamiento en recursos hidráulicos. En cambio llamamos mal tiempo a la lluvia y las temperaturas frescas o frías; algo que, sin embargo, es favorable para el campo y los embalses.

Lo curioso es que la ausencia de lluvia se convierte, en casos extremos, en una obsesión que adquiere enseguida caracteres catastróficos, convenientemente jaleados por ciertos medios de comunicación. Sin duda, las sequías fueron un drama en la Edad Media, porque la economía de subsistencia primaba en casi toda la humanidad, y sin lluvia no hay cosechas ni, por tanto, comida que echarse a la boca. Las hambrunas por malas cosechas son históricas...

Pero hoy, aunque subsiste ese problema de tipo agrícola —esencial en el Tercer Mundo, muy secundariamente en el mundo rico—, lo que nos preocupa de verdad a los habitantes del Primer Mundo es el fantasma de la escasez del agua en los grifos domésticos; las restricciones de agua.

En los primeros años noventa fue notable el escándalo: no había agua en los grifos de las casas de Cádiz por culpa de la sequía. Hubo que llevar el agua en camiones, incluso en barcos cisterna desde... Uno podría suponer que desde algún puerto del norte, quizá Vigo o incluso Santander. ¡Pero no! Partieron de Huelva, al otro lado de la bahía de Cádiz. ¿Acaso no había sequía en Huelva? Desde luego que sí, igual que en Cádiz, como en toda Andalucía y el resto de España. Pero las infraestructuras hidráulicas de Cádiz no estaban a la altura de las de Huelva, lo que permitió que a unos les sobrase algo de agua para usos domésticos y a otros les faltase... Por malo que fuera el tiempo en aquellos años, las consecuencias no eran las mismas incluso en poblaciones vecinas.

Entonces, ¿el clima en esas regiones de España es bueno o es malo? En el caso de las restricciones de agua, derivadas de aquel período de sequía de los primeros años noventa, y como luego llovió más de la cuenta, en promedio —que eso es el clima— no había problema alguno. De hecho, la cosa iba más por el tema de la deficiencia de las infraestructuras que por el de la ausencia de lluvia.

Sin entrar en más detalles, lo que parece obvio es que por lo que a la temperie se refiere, sí podemos decir que se porta bien o mal cuando nos ofrece ventajas o inconvenientes en unas u otras fechas del año. Eso, en cuanto a la temperie. Pero el clima es un promedio a muy largo plazo; y no parece nada fácil catalogar en promedio si el clima de Cádiz es mejor o peor que el de Huelva, por seguir con el ejemplo anterior. Y si tuviéramos que hacerlo, es casi seguro que Huelva y Cádiz estarían en el mismo grupo de buen o mal clima porque, sin tener que profundizar demasiado, es obvio que son climas muy similares.

El ejemplo anterior es bastante anecdótico, por supuesto. Pero sirve de muestra para comprender la enorme complejidad que supone catalogar —en bueno o malo, peor o mejor— el clima de una zona determinada cuando no tenemos más remedio que definirlo como un promedio a largo plazo de muchas situaciones meteorológicas buenas y malas.

Claro que siempre podemos acudir a las estadísticas para ayudarnos en el empeño. Pero, el cálculo de los promedios a largo plazo no responde casi nunca a la realidad del día a día con suficiente precisión. Lo que en realidad quisiéramos es que lloviese en regiones habitualmente secas —lo que, en realidad, significa que deseamos un cambio de clima, para que la región seca deje de serlo—, pero no que llueva muy fuerte ni que nos moleste cuando nos vayamos de vacaciones o de viaje, ni aún menos que dañe el valioso recurso turístico del sol abundante y las temperaturas agradables. Todo eso es sin duda un cambio de clima y, además, muy selectivo. Por pedir... Pero es como la carta a los Reyes Magos. En realidad, en todos los climas que se dan en la faz de la Tierra, los habitantes de cada región seguro que desearían algún cambio; porque ninguno de esos climas es del todo satisfactorio. La madre Naturaleza es más bien madrastra... Otra cosa es que el cambio vaya a ser lo que quisiéramos, que quizá sí pero no tiene por qué.

El ejemplo de las regiones mediterráneas españolas es paradigmático: todo el mundo estaría de acuerdo en afirmar que su clima es muy bueno, pero que debería llover más. De hecho, los habitantes de esas regiones, sobre todo en el sureste peninsular, suelen quejarse con cierta acritud, «¡si nos dieran un poco de la lluvia que les sobra en el norte!»... Pero si se les replica que en tal caso ellos tendrían, en justa correspondencia, que darles un poco del ambiente excesivamente soleado que caracteriza a esas regiones secas, de repente el interlocutor tuerce el gesto: «Es que eso no es posible»...

Pero en lo que nadie piensa es que, para que llueva más, tiene que haber menos sol. A no ser que, como aquel gracioso, exijamos al clima que siga siendo igual de soleado de día, y que sólo llueva de noche. O sea, un cambio climático teledirigido.

Pero hay cuestiones bastante más graves. Por ejemplo, en el Caribe se producen todos los años, y de forma bastante regular desde hace siglos, un número determinado de ciclones tropicales que, si en su trayectoria errática llegan a tocar tierra, acaban por arrasarlo todo. Éste es un obvio riesgo climático puesto que se produce anualmente y, además, siempre en las mismas fechas otoñales. Y no existe fenómeno atmosférico alguno más indeseable y adverso. Sin embargo, la mayor parte de las regiones caribeñas son envidiadas por sus suaves temperaturas, sus mares fascinantes, sus gentes, su alimentación... El Caribe es una de las regiones turísticas más envidiadas, como decíamos. Entonces, ¿en qué quedamos? ¿El clima de aquella zona es bueno o malo?

Si los geógrafos estiman que el peor de los riesgos climáticos es el riesgo de ciclones tropicales, parece normal que las regiones azotadas regularmente año tras año por esas violentas manifestaciones de inestabilidad atmosférica sean clasificadas entre las que gozan de un clima malo, quizá de los peores. Pero no; el Caribe e incluso algunas regiones del Asia tropical, lugares del globo donde a ese riesgo se suma el riesgo volcánico y sísmico —que nada tiene que ver con la atmósfera, por supuesto, pero añade una cuota suplementaria de negatividad a los asentamientos humanos—, es donde mucha gente estima que el clima es poco menos que perfecto, casi idílico, lo más parecido al paraíso... Y, en todo caso, muy adecuado para el turismo de masas. De hecho, son las regiones más pobladas del mundo, y con mucho.

El asunto no puede ser, pues, más contradictorio. Y muestra lo difícil que resulta ponerse de acuerdo sobre la bondad o no de un determinado clima; depende de para qué queremos que sea bueno. Y aun así...

O sea, que ni siquiera estamos de acuerdo en cómo son los climas de buenos o de malos; ¿cómo podremos, entonces, estimar si cambian a peor o a mejor?

Si le preguntáramos a los habitantes de los países cuyos inviernos son largos, fríos y con abundancia de precipitaciones de nieve o lluvia —es decir, buena parte de las regiones más desarrolladas de Estados Unidos o de Europa—, casi todos dirían que su clima es muy malo. Y, además, a ese ambiente desapacible se une otro factor que no es climatológico pero que sí añade negatividad a ese juicio: la brevedad de la luz diurna en fechas invernales. Por eso no es de extrañar que, al jubilarse, sus ricos habitantes emigren en masa hacia el sur; algo que también hacen cada año cuando llegan las vacaciones de verano.

Una de las ciudades más secas y calurosas de Estados Unidos, Phoenix, en Arizona, es la que mayor crecimiento de su renta per cápita ha experimentado en los últimos tiempos. Claro que allí son ricos, y pueden llevar agua desde lejos, además de gastar mucha energía en aire acondicionado. Pero los estados del norte como, por ejemplo, Montana o Maine (los más fríos), gastan mucho más en calentarse en invierno y, en conjunto, es obvio que viven bastante más inconfortablemente. ¿Cuál clima resulta, pues, mejor a ojos de una inmensa mayoría de estadounidenses? Obviamente, el seco y cálido, el del desértico valle de Arizona donde está Phoenix. Un clima inhóspito y horrible para quien no tiene los recursos necesarios —en forma de energía y agua, incluido el consabido desperdicio propio de la forma de vivir del Primer Mundo— con los que convertir un desierto en algo paradisíaco.

Es obvio que para calificar un clima de bueno o de malo tendremos que mirar más el nivel de desarrollo de los que allí viven que las características atmosféricas de esas regiones. Y aun así, seguro que existiría una enorme disparidad de opiniones a la hora de establecer una hipotética clasificación de los climas, de mejor a peor.

A esta incertidumbre de tipo sociológico —no conocemos ninguna encuesta que haya conseguido una opinión global acerca de cómo consideran los habitantes de cada región del mundo el clima en el que viven— se suma el temor actual a que esos climas buenos, malos o regulares vayan a cambiar de forma catastrófica, como se nos anuncia casi sin parar. El cambio climático, se nos dice apelando a la coartada científica, empeorará los climas que ya son malos ahora, y estropeará las cosas buenas que aún tienen los climas considerados hoy como menos desfavorables. O sea, el cambio climático es la maldad en estado puro, sin matices, sin ninguna concesión mínimamente positiva...

Convendría recordar que la expresión genérica «cambio climático» no representa gran cosa, excepto ese fantasma maligno con el que nos amenazan. ¡Qué poderosos son los emblemas en el mundo mediático de hoy!...

Pero lo que hay en el mundo son muchos climas, no un solo clima; y además, todos esos climas son muy distintos entre sí. Nada más erróneo, pues —digámoslo claro, es una idea errónea—, que la noción de un único cambio climático global que a todos afectará por igual.

Por otra parte, esos cambios de los climas que existen en la Tierra ya cambiaron antes, siguen cambiando ahora y seguirán haciéndolo en el futuro, según modos diferentes, incluso en regiones próximas unas de otras. Al margen de cuáles sean las causas de esos cambios e incluso la rapidez con que ocurran.

Podemos, sí, realizar un promedio global de esos posibles cambios. Pero entonces nos encontraremos, como suele ocurrir con las magnitudes estadísticas de largo alcance espacial y temporal, ante conclusiones completamente irreales. Que, por serlo, no informan nada acerca de la vida cotidiana de las gentes, el impacto sobre las poblaciones, su economía, sus vidas... Lo más que se consigue es crear confusión y alarma, tan inútiles como contraproducentes.

Vistas así las cosas, y ante un estado de opinión que para nada asume este sencillo planteamiento, habría que intentar analizar la supuesta bondad de los distintos —y muy numerosos— climas actuales, y la supuesta maldad de los climas futuros, suponiendo que se cumplan las previsiones de cambios que se deducen de los informes del IPCC. Porque esos cambios se nos dice que van a originar un clima global futuro —compendio de todos los climas del mundo— modificado a peor de forma inevitablemente aterradora.

La sabiduría popular avala la idea de que los cambios, así, en genérico, son más de temer que otra cosa. Lo expresa bien aquello tan manido de «más vale malo conocido que bueno por conocer». Lo que no puede ser más absurdo: ¿cómo va a ser mejor lo malo —que, aunque sea conocido, no deja de ser malo— que lo bueno —aunque no lo conozcamos aún—? Conocido o no, lo malo es malo; y lo bueno sigue siendo bueno, aunque esté por venir...

Lo curioso es que hay más formas populares de ese refrán, y en el mismo sentido: «malo vendrá que bueno te hará», o bien, «otros vendrán que bueno te harán». Uno especialmente pesimista porque deja entender que todo es malo, con o sin cambios, dice que «más vale diablo conocido que diablo por conocer»...

Aplicados al cambio climático, estos y otros refranes lucen con máximo esplendor. Vendría a ser algo parecido a lo siguiente: se supone que el clima que tenemos lo tenemos más o menos desde siempre (o sea, desde hace muchísimo tiempo). Y aunque a menudo se porte mal con nosotros (recuérdese, «más vale malo conocido...»), no por ello deja de ser «el nuestro», el de siempre. Ergo si ahora «nos lo cambian» —los malvados industriales, los gobiernos corruptos, quién sea... pero no nosotros, que somos del todo inocentes, faltaría más—, ese cambio no puede traer nada bueno. Ya se sabe, mejor un diablo conocido que un diablo por conocer...

Bien, sabiduría popular al margen —una sabiduría, en general, más bien ignorante—, lo que aquí se da por hecho como algo confirmado, aunque está por venir, es que el clima del futuro será catastrófico. De hecho, el cambio ya se manifiesta de forma catastrófica.

Y ese cambio nos llevará a situaciones poco menos que apocalípticas: dejará de llover, se derretirán los hielos, el mar invadirá los continentes, el calor calcinará la Tierra entera (ya lo anticipaba la película Mad Max, tan científica ella), se generalizarán casi a diario monstruosas tempestades y tormentas «perfectas» (como la de la película de George Clooney, también rebosante de... ¿ciencia?), nos invadirán paradójicos enfriamientos glaciales como el de la película —Hollywood siempre al quite— El día después, un filme estrenado en 2004 pero que hoy sería aún más catastrófico si hubiera un remake...

Y, por si esto fuera poco, habremos de afrontar toda clase de desgracias nunca vistas, provocadas por tornados y ciclones de todo tipo, cada vez más potentes y dañinos, amén de sequías abrasadoras, incluso epidemias tropicales invasoras. Al estilo de las plagas bíblicas de Egipto, vamos.

Pero en realidad sucede que la mayor parte de los habitantes de los países desarrollados están conformes con el tipo de vida que tienen. Y eso es lógico: los países ricos, a pesar de la crisis económica actual, con tasas de paro sin precedentes, siguen funcionando razonablemente bien. Tenemos medicina, justicia y enseñanza de buena calidad y, además, públicas y gratuitas; disponemos de excelentes comunicaciones, de una protección social generalizada, podemos alimentarnos variada y abundantemente, hay agua y electricidad en todos los hogares, etc. Nada que ver, por supuesto, con las condiciones imperantes en el Tercer Mundo. ¿Cómo quejarnos de lo que tenemos? ¿Cómo no desear que las cosas sigan más o menos igual? Los habitantes de los países ricos somos, por definición, extremadamente conservadores porque tenemos mucho... que perder. Y no queremos perder ni siquiera una migaja de eso que a veces incluso nos sobra.

¿Y qué papel desempeña el clima en ese panorama de aparente bondad general en el Primer Mundo? Pues, la verdad, un papel más bien secundario, como de telón de fondo. Sí, claro que afecta a actividades económicas elitistas —el turismo de fin de semana o de verano, el deporte del esquí, el confort ciudadano...—, e incluso influye, por supuesto, en la agricultura. Pero la agricultura del Primer Mundo no tiene que ver con la actividad de subsistencia que se da en el mundo pobre, sino que es un sector económico más, y bastante marginal porque tiene muy escaso peso específico en la riqueza global del mundo rico. Vamos, que no dependemos de nuestra propia agricultura para sobrevivir ni para alimentarnos; es una actividad que afecta positiva o negativamente al sector de la población en ella implicado; un sector que, por cierto, es cada vez más reducido en número de personas y en cuantía económica.

Esto último quizá suene un poco exagerado: ¿que no dependemos de la agricultura para comer? ¿Que la agricultura no tiene mucho peso en el PIB?... Bueno, en España, que está sin la menor duda entre los diez o doce países más ricos del mundo, y tomando datos de 2010, el sector primario completo (agricultura, ganadería, pesca y minería) aportaba al PIB nacional apenas un 2,7 por 100 del total, cuando hace medio siglo suponía casi el 50 por 100. En cambio, en 2010 el sector de la construcción, en claro declive por lo de la burbuja inmobiliaria, todavía superaba por poco el 10 por 100, y el sector industrial y energético el 15,6 por 100. El resto, un poco más del 70 por 100, está constituido por el sector servicios, que incluye al turismo. En cuanto al empleo, el sector primario cubre un 4,4 por 100, la industria y energía un 14,2 por 100, la construcción un 8,5 por 100... y los servicios casi un 73 por 100.

Un cambio de clima brusco e intenso afectaría a todos esos sectores, desde luego. Si la España mediterránea, por ejemplo, dejara de ser una región tan soleada como ahora, el turismo de sol y playa —mayoritario en esas regiones— se iría a otro sitio. En cambio, si hace más calor, como se predice, no está tan claro que eso vaya a ahuyentar a los turistas. La experiencia actual demuestra que en estos momentos el turismo de masas se dirige a los sitios más calurosos del mundo, desde las Antillas o el sur de California y Florida, hasta las costas mexicanas del Pacífico y el Atlántico (Baja California, Acapulco, Cancún), las islas ecuatoriales del Índico (Seychelles, Reunión, Madagascar), o incluso las costas mediterráneas de África, sobre todo Túnez y Egipto, destinos turísticos que comienzan a destacar mucho en el panorama mundial.

Para este tipo de turismo masivo de sol y playa, incluso en invierno, un clima soleado y caluroso —cuanto más seco y caluroso, mejor— siempre es preferible a un clima fresco y lluvioso. Lo sabemos bien en España donde, si en el futuro hiciera más calor, no por eso dejaríamos de tener turismo: malo sería que no supiéramos ponernos al nivel actual de países mucho más cálidos, y bastante más pobres, como Túnez o Egipto.

Si ese cambio de clima brusco e intensamente desertizador —algo que, como veremos luego, no parece estar produciéndose— nos trajese, además, menos lluvia aún a la España Seca (donde, desde siempre, llueve poco y mal), eso sólo encarecería el precio del agua para los hoteles y demás servicios turísticos. Pero partiendo de la base que el precio del agua doméstica es ridículamente bajo, en torno a un euro el metro cúbico (o sea, mil litros), eso no iba a impedir que los turistas nórdicos siguieran viniendo en busca de sol, calor y buena comida. De hecho, ya están yendo, y cada vez en mayor medida, a países africanos donde hay muchísima menos agua disponible que en España, además de hacer bastante más calor.

Quizá merezca la pena profundizar un poco en esa idea de la escasez —supuesta— del agua en España, y el precio —o sea, el valor de mercado— del agua que consumimos. Lo del precio no es secundario en absoluto, sino que resulta absolutamente esencial cuando se aborda un análisis de tipo económico; porque el turismo, no lo olvidemos, es un recurso económico esencial.

Por lo que respecta al agua potable doméstica —la de los grifos en casa, pero también la de las cisternas de los váteres—, en España ese precio es de una milésima de euro el litro. El precio del agua embotellada —cuyo único valor añadido es ése, que viene embotellada y generalmente desde muy lejos, a lomos de camiones contaminantes— es entre 1.000 y 4.000 veces mayor, según donde se compre; en las gasolineras de autopista es hasta 5.000 veces más cara.

El margen es inmenso; y permite, como es lógico, que podamos pensar que nunca llegaremos a pasar sed de verdad en España. Mientras el agua para la ducha o la cocina —o para el váter, conviene insistir— cueste la ridícula cantidad que cuesta (una milésima de euro por litro no puede más que propiciar el desperdicio), no sólo no dejarán de venir los turistas si en el futuro hace más calor sino que, al contrario, quizá vengan cada vez en mayor número. Y si hay menos agua disponible, basta con pagarla más cara. Un aumento del 100 por 100, que dicho así suena inaceptable, supondría pagar el agua potable en el grifo a 2 milésimas de euro el litro. ¿Iba ese aumento de precio, aparentemente intolerable (¡el doble!), a impedir que sigamos tirando agua potable por los váteres de las casas? Cada descarga de una cisterna de diez litros nos costaría dos céntimos de euro en lugar de un céntimo como ahora. No es muy disuasorio, no.

Sobre este tema del agua se suelen decir muchas cosas sin sentido; pero es obvio que ni España se muere de sed, ni nunca lo hará en el futuro, por mucho que cambie su clima. Y, en general, se puede afirmar contundentemente que el agua potable no será nunca un problema en los países ricos. Todo ello sin considerar el hecho de que en nuestro país, y también en promedio en el resto del mundo, la precipitación total no sólo no ha disminuido sino que incluso ha aumentado levemente en los últimos cien años.

Otra cosa es lo que ocurre en el mundo pobre, donde el agua potable sí es un problema de vida o muerte, y para miles de millones de personas. Como la actividad agrícola, que allí es de mera supervivencia.

Sí puede uno aludir al Informe Stern, tan capitalista él, que en el año 2006, por encargo del gobierno laborista de Gordon Brown, redactó sir Nicholas Stern, conocido economista británico. En sus 700 páginas llega a conclusiones alarmistas: habría que invertir un 1 por 100 del PIB mundial para mitigar suficientemente los efectos del cambio climático; si no se hiciera, el mundo —se supone que el mundo rico, claro— se enfrentaría a una recesión que podría llegar a ser del 20 por 100 del PIB global dentro de medio siglo. En la conclusión, el informe afirma que de no hacer esas reformas e inversiones podría sobrevenir una crisis en la actividad económica y social del mundo (del mundo rico, se entiende, una vez más) durante lo que queda de siglo XXI y a lo largo del siglo XXII, en una escala similar a las crisis de las grandes guerras o la Gran Depresión de principios del siglo XX.

El Informe Stern es interesante por muchas razones, pero casi todas son criticables. Por ejemplo, realizar previsiones económicas a escala mundial para dentro de un siglo o más, dando por seguro que va a ocurrir con los climas lo que afirman los informes del IPCC, es cuanto menos arriesgado; porque en esos plazos de tiempo, y no digamos con las incertidumbres de los modelos en los que se basa el IPCC, la cosa es de lo más dudoso. Al margen de que los estudios económicos de corte capitalista están hechos, obviamente, a la medida de las economías del Primer Mundo, o del Segundo Mundo emergente (China, en particular). Pero los países pobres...; no es que no existan, claro, pero en realidad cuentan muy poco en esto del PIB mundial y el desarrollo industrial. ¿Cuánto influye en el PIB de Estados Unidos o de Europa el hambre de Etiopía?

En todo caso, conviene decir que la actual crisis económica, que hace ya unos años desencadenó aquel turbio asunto de las hipotecas subprime en Estados Unidos, está haciendo más daño a la economía de los países ricos que lo que preveía Stern a causa del cambio climático para dentro de muchos decenios. Y es que, curiosamente, con la crisis económica casi nadie parece acordarse ya del cambio climático: el mundo rico es menos rico, el mundo pobre sigue siendo igual de pobre si no más, y los enormes países intermedios como China crecen deprisa pero comienzan a sufrir desigualdades sociales tan notorias que no es difícil augurarles males económicos en un futuro no lejano; entre otros, un estallido del boom inmobiliario que dejará chico al español. Como síntoma claro de esta dejación baste decir que el Protocolo de Kioto ha sido prorrogado desde 2012, que debía ser su meta, hasta 2020; y ya veremos si se cumple, que por ahora no parece.

Volviendo a los climas buenos o malos, y tomando de nuevo el ejemplo del turismo, cuya trascendencia económica en España nadie puede ignorar, digamos que aquí la región más árida se encuentra en el sur de la provincia de Murcia y en la mayor parte de la de Almería. Suponiendo un cambio climático tan potente como para convertir, por ejemplo, el clima de la costa catalana en un clima similar al que hoy tiene la costa de Almería, ¿qué ocurriría con el actual nivel turístico de la Costa Brava o la Costa Dorada? ¿Y qué ocurriría con el turismo que ahora acude al sureste de España? ¿Acaso dejarían de ir a esas regiones?

Interesante cuestión: si la respuesta es que ese cambio de clima —por el que la Costa Brava tendría un clima similar al que ahora hay en el cabo de Gata— no afectaría al turismo, ¿cuál sería entonces el problema?... Pero si, como casi todo el mundo diría sin dudarlo un instante, se piensa que eso sería una ruina turística para Cataluña, lo que en realidad se está afirmando es que el clima de la Costa Brava es hoy mucho «mejor» que el de Almería. Bien, pues aceptemos la premisa de que, en efecto, el clima de la costa catalana es «mejor» que el de la costa almeriense en estos términos. Veamos ahora el porqué: basta comparar los datos climáticos de los aeropuertos de Almería y Barcelona, obtenidos en el treintenio 1971-2000.

Las cifras hablan por sí solas... Por cierto, son promedios de treinta años, bastante representativos de los respectivos climas de sus zonas de influencia.

La temperatura media de Barcelona es 3 grados más baja que la de Almería. Y lo es tanto en las máximas como en las mínimas. Esto quiere decir que, aunque ambos observatorios se encuentran bajo los efectos del mismo tipo de clima (genéricamente, clima mediterráneo), entre el norte y el sur de la costa ibérica del Mare Nostrum existen esos 3 grados de diferencia. Que es, desde luego, una diferencia considerable. Recuérdese que los climas mundiales parecen haberse calentado en promedio durante todo el siglo XX en torno a 0,7 grados, o sea, cinco veces menos; y semejante calentamiento ha levantado la polvareda que ha levantado.

¿Servirían esos 3 grados de más para calificar el clima de la costa almeriense como un clima «peor» que el de la costa catalana? Quizá, pero no está nada claro. No hay más que recordar que la humanidad rica, que es la única que tiene la posibilidad de elegir, tiene tendencia a irse hacia climas cálidos a la hora de veranear o, con mayor razón, para jubilarse. En ese sentido, es obvio que podríamos afirmar que el clima de Almería es «mejor» (signifique eso lo que signifique) que el de Barcelona por ser sencillamente más cálido. Y, además, tiene más horas de insolación anual, lo que para el turismo de sol y playa, y para los jubilados ricos, reviste singular importancia. Si se utiliza ese asoleo para cultivar uvas en Navidad y flores exóticas en pleno invierno, forzando esos cultivos de alto valor añadido con cubiertas plásticas (se requiere agua, desde luego; pero el agua es barata, incluso para la agricultura... siempre que los rendimientos posteriores compensen), entonces la cosa aún pinta mejor porque ya no hay sólo un beneficio turístico sino también agrícola.

¿Y la lluvia? Es obvio que ahí Almería tiene las de perder, suponiendo que lo bueno sea que llueva mucho, y lo malo que llueva poco. Pero, en realidad, eso tampoco es cierto; al menos, no siempre. En el mundo hay lugares extremadamente lluviosos sumidos en la pobreza más absoluta —Bangladesh, la Amazonia, las selvas ecuatoriales de África—, como también los hay muy secos, desde luego; aunque éstos están normalmente despoblados. Pero es obvio que en esto de la lluvia lo ideal sería que el promedio de precipitación fuese moderado, y con un reparto anual aceptablemente equilibrado. Lo cual se da en muy pocos sitios, claro.

O sea, que aunque en Barcelona llueve mucho más que en Almería, el tipo de precipitación es similar, o sea, torrencial (sobre todo en otoño) y con prolongados períodos de sequía. Algo que comparten todos los subtipos de clima mediterráneo.

¿Cuánta lluvia es deseable, cuánta es suficiente? Una vez más, depende del significado que queramos dar a esos adjetivos. ¿Suficiente... para qué? Si es para regar los campos, en realidad esa actividad agrícola (recordemos que en los países ricos la agricultura supone el 1 por 100 del PIB, aunque precisamente en Almería es bastante más) puede depender mucho más de los aportes externos que de lo que llueve in situ; incluso —en gran parte, es el caso de Almería— de la extracción mediante pozos cuyos acuíferos se recargan a distancia en las cercanas montañas alpujarreñas...

No es fácil generalizar, claro, pero si el agua ha de aportarse por ejemplo mediante costosos trasvases y, además, ha de ser subvencionada, entonces no se trata de un parámetro sostenible. Pero si la subvención se detiene, la actividad se detiene... ¿Es eso aceptable? Y, visto desde otra perspectiva, ¿es justo para otros sectores de actividad económica no protegidos ni subvencionados?

En cambio, si se trata de agua para beber, ya hemos dicho que en los países ricos el coste del agua doméstica es tan ridículamente pequeño, incluso en la árida Almería, que no sería difícil proveer de ese recurso a la población, incluso en tiempos de escasez hidrológica o climatológica, a poca infraestructura hidráulica que se ponga a disposición de los ciudadanos y los turistas (canalizaciones, desalación, transporte, agua embotellada...). De hecho, en la España más árida del sureste no hay más restricciones de agua doméstica que en otras regiones donde llueve bastante más.

Entonces, ¿qué concluir de todo esto respecto a la bondad o maldad de los climas de Barcelona y Almería? La lluvia, sin duda, parece que afecta sobre todo al sector agrario, tanto cuando escasea como cuando cae en exceso. Pero, en cambio, desde el punto de vista turístico las cosas son bastante diferentes: la lluvia importa, sí, pero en proporción inversa a lo que le interesa a la agricultura. No está claro, pues, que sea mejor el clima de Barcelona por el hecho de que llueva más que en Almería.

Conviene no olvidar que, con o sin cambio climático, algunas regiones próximas de clima similar al nuestro, o incluso más cálido y más seco, como el norte de África o el Oriente Medio —Israel es un buen ejemplo—, vienen pisando fuerte en terrenos en los que la agricultura española había sido hegemónica hasta hace poco tiempo: el olivar, los cítricos... ¿Cómo lo hacen? Pues reinventando la productividad; los israelíes, por ejemplo, tienen una universidad agrícola en pleno desierto del Néguev, en Beer-Sheva, donde hacen una excelente investigación aplicada en frutas y verduras, que incluye el riego con aguas salobres subterráneas y muchos otros desarrollos tecnológicos ciertamente llamativos.

Todo lo cual, dicho sea de paso, tiene muy poco o nada que ver con la bondad de los climas y el posible cambio climático, y sí mucho con la coyuntura económica, donde el recurso agrícola ya no es un elemento vital para la alimentación básica de la población, como sí ocurría en la Edad Media y como todavía ocurre en el Tercer Mundo.

Así pues, conviene tener cuidado a la hora de asimilar la precipitación media, así sin más, a la bondad o maldad de un clima. Poca lluvia significa clima árido, sin duda. Almería, y algunas zonas de Canarias —en las islas más próximas al continente africano— son regiones de clima árido. Pero es difícil asimilar esas regiones sin más a los países pobres: Almería, Murcia y Canarias pertenecen al Primer Mundo, y son regiones muy visitadas por un turismo que aporta al PIB nacional muchísimo más que la agricultura.

Suena un poco extraño afirmar que, en los países ricos, la aridez no tiene por qué ser sinónimo de un clima malo. Pero si bien se piensa, a poco que las infraestructuras ad hoc garanticen un suministro doméstico correcto, y eso tiene un precio más que abordable para un país desarrollado, el problema tiene fácil solución. Por ejemplo, una de las ciudades cuya economía y cuya población más han crecido en los últimos decenios ha sido Tucson, en Arizona (Estados Unidos). Así lo recordaba Antón Uriarte cuando en 2010 escribía en su blog «co2» que el presidente de AEMET nos asustaba con el cambio climático pronosticando que dentro de un siglo Madrid tendría el clima de Sevilla, como si eso fuera algo espantoso. Y peor aún, que Sevilla tendría un clima como el de Tucson. Uriarte mostraba las estadísticas climatológicas de Tucson (¡3.800 horas de sol y sólo 56 días de lluvia al año!) y comentaba que esa ciudad tenía menos de 40.000 habitantes en 1940 y ahora tiene más de medio millón, además de ser una de las ciudades norteamericanas que más han multiplicado su riqueza en el último medio siglo.

No le faltaba razón al bloguero: fue realmente curioso que el máximo representante de la meteorología oficial en el año 2010 comparase los climas de Madrid y Sevilla, dejando entrever que el de Sevilla es mucho peor que el de Madrid (si no, ¿a qué venía semejante comparación?). Y aún sorprende más que la máxima autoridad meteorológica de nuestro país se atreviese a citar a Tucson, cuya riqueza actual envidiaría toda España. Por cierto, en Tucson llueve muy poco más que en Almería, pero hay muchas más horas de sol al año, que ya es decir. Las temperaturas veraniegas son allí bastante más altas y las invernales más bajas. O sea que, puestos a comparar, ¿cuál es el clima más preferible, el que nos parecería mejor? ¿El de Tucson o el de Almería?

Ahora va a resultar que el mejor clima, casi el clima ideal, va a ser precisamente el de Almería, seco, soleado, calentito y, después de todo, menos extremado que la pujante ciudad de Tucson o, ya puestos, por volver a aquella torpe comparación del político, que la propia capital sevillana...

Otro aspecto de notable interés en esto de la bondad o maldad de los climas es el de las tormentas. Existe una rara unanimidad en el género humano sobre esta cuestión: a nadie le gustan. Y nos dañan con sus rayos, granizos y aguaceros intempestivos, incluso tornados y trombas, pero sobre todo despiertan ese temor atávico que una inmensa mayoría de congéneres nuestros siente ante cualquier manifestación tormentosa.

Regresando de nuevo a nuestro ejemplo comparativo entre climas peninsulares mediterráneos del norte y del sur, en este aspecto el de Almería es un clima bastante mejor que el de Barcelona: en promedio, sólo 8 días al año de tormenta contra 22 en el caso de la capital catalana... Además, en Almería nunca hiela (en Barcelona algunas veces cada año) y el número medio de días de lluvia es menos de la mitad. Otros dos factores más a favor del clima de Almería, sobre todo en cuestiones turísticas. Pero también de confort ciudadano. Antes decíamos en broma que quizá el clima ideal fuera el de Almería. Empieza a parecernos que ya no suena tan descabellado...

Todo lo cual significa que no sabemos si los climas del futuro, suponiendo que llegue el tan temido cambio climático, serán peores que los de ahora... Y si esto no está nada claro, ¿de qué catástrofes estamos hablando? El Informe Stern habla de pérdidas económicas, pero ya hemos visto que la crisis económica de estos años está haciendo mucho más daño, y en un plazo mucho más breve.

Por cierto, nadie había sido capaz de predecir la crisis económica actual. Ni siquiera el sabio sir Nicholas Stern, aunque ésa sí es su especialidad... ¿No son más temibles estas fluctuaciones económicas globales en el plazo de unos pocos años, propias del sistema capitalista, que el hipotético cambio climático para dentro de un siglo? ¿Por qué los modelos económicos no dedican sus esfuerzos a este tipo de cosas, mucho más próximas a la realidad cotidiana de las gentes, que a la previsión del clima para dentro de un siglo?

La mejor conclusión que se nos ocurre es que lo que en verdad nos aterra, de forma más bien inconsciente, es el cambio en sí. Tememos que las cosas cambien porque somos conservadores y porque, aunque nos siga pareciendo sorprendente, prevalece aquello tan tonto de «más vale malo conocido...».

En suma: seguimos sin saber exactamente cómo determinar la bondad o maldad de los climas, así en genérico. El ejemplo concreto de las dos zonas mediterráneas de nuestro país muestra bien a las claras lo difícil que es discernir, mediante parámetros climáticos, cuál es la que goza de mejores condiciones climáticas. Y si con un futuro calentamiento el clima de Barcelona comenzara a parecerse al de Almería (o, como antes vimos, el clima de Madrid al de Sevilla, e incluso el clima de Sevilla al de Tucson), ¿sería necesariamente para peor? Porque a lo mejor nos iba a ir mejor, aunque lo más probable es que nos dé igual: nuestro bienestar general depende mucho más del nivel de vida, en lo económico y en lo social, que de las condiciones climatológicas, que son promedios globales y a largo plazo.

3.3.2.2. Catástrofes climáticas de ayer y de hoy

Nadie ignora que la mayoría de las catástrofes de las que nos hablan de vez en cuando los periódicos se reproducen de manera más o menos sistemática desde hace siglos. Los monzones de Asia, las sequías del Sahel, los ciclones tropicales del Caribe... son fenómenos muy dañinos y más o menos sistemáticos, unos años peor y otros con menor virulencia. En todo caso, forman parte de lo que podríamos llamar paisaje climático regional, que incluye determinados riesgos habituales como rasgos propios de su clima.

Ante esta obviedad, es difícil defender que alguno de estos fenómenos especialmente catastrófico, como ocurrió con el Katrina en 2005, sea la muestra indudable del cambio climático que nos afecta.

Se puede pensar, eso sí, que ese cambio se manifiesta no tanto en las catástrofes sino en su mayor frecuencia de ocurrencia respecto al pasado. Lo que, ciertamente, asusta a las personas que no disponen de datos históricos para comparar. Pero precisamente basta un sencillo análisis de esos datos históricos para demostrar que son afirmaciones sin sustento sólido en los datos registrados. Es cierto que un muy reciente estudio científico encargado por la CIA y hecho público en febrero de 2013 afirma que el cambio climático podría suponer un plus de inestabilidad política y bélica en el mundo. Los fundamentalismos, el hambre, las desigualdades, los dictadores africanos, las bombas atómicas de Corea del Norte y de las demás potencias nucleares, todo eso es grave, sí. Pero, ¡cuidado!, ahí está el cambio climático para empeorar la situación hasta extremos insoportables. ¡La CIA, que ha apoyado revoluciones fascistas, que sostiene dictaduras militares, que ha derrocado gobiernos y ha actuado como el gendarme del mundo, nos advierte ahora de las maldades del cambio climático para la estabilidad del mundo actual!

No cuesta mucho verificar la ligereza de semejantes planteamientos, por mucho que el trabajo encargado y pagado por la CIA haya sido realizado por la Universidad de Harvard. Basta con analizar con un poco de detalle cuántas, cómo y dónde fueron las catástrofes climáticas del pasado reciente. Esos sucesos atmosféricos adversos pueden perfectamente ser el mejor indicador de las bondades o maldades de los diferentes climas. Y no es difícil hacerlo; de hecho, las siguientes páginas muestran un resumen de esos datos, pero no de hace unos pocos años —eso no es climatología, es meteorología— sino de los últimos siglos.

Ahora bien, cuando no había instrumentos para recoger series de datos como las actuales, ¿qué metodología siguen los científicos para determinar cómo eran los climas pasados?

Uno de los mejores historiadores del clima en la actualidad es probablemente el francés Emmanuel Le Roy Ladurie. Su Historia del clima desde el año mil, cuya primera edición vio la luz hace ya casi medio siglo, en 1967, fue considerado —y sigue siéndolo hoy, en sus sucesivas actualizaciones— como una especie de «biblia» por parte de geógrafos, historiadores y climatólogos a la hora de desentrañar los misterios de las evoluciones climáticas desde la Edad Media hasta finales del siglo XX, en Francia y en buena parte del resto de Europa. Este investigador —nacido en 1929— publicó en 2008 tres gruesos volúmenes sobre Historia humana y comparada del clima, y en 2011 Las fluctuaciones del clima desde el año 1000 hasta hoy. Su metodología ha sido trasplantada a otros lugares del mundo, esencialmente al continente americano.

Por ejemplo, se basa en los datos fenológicos, que plasman la relación de los factores climáticos con el ciclo de los seres vivos, muy especialmente los relativos a las fechas de las vendimias o la recogida de ciertas frutas, la siega de los cereales, etc. En general, la correlación entre la fecha de las vendimias y la temperatura del período abril-septiembre es muy elevada, lo que proporciona indicaciones valiosas para establecer las fluctuaciones del tiempo año a año y, por tanto, a largo plazo.

Otra fuente de datos históricos de enorme riqueza tiene que ver con los acontecimientos atmosféricos catastróficos. Las grandes sequías generadoras de hambrunas, los inviernos muy crudos o prolongados, los veranos excesivamente cálidos, las inundaciones devastadoras... Muchos de estos sucesos quedaron reflejados en escritos antiguos, pero también se consignaban en las crónicas parroquiales o conventuales, máxime si dieron lugar a procesiones, rogativas u otras ceremonias.

Especial interés reviste el análisis de los anillos de los troncos de los árboles, que ha dado lugar a una especialidad cada vez más fecunda: la dendroclimatología. La ventaja de estos análisis de los anillos de los árboles es que pueden realizarse sobre ejemplares longevos todavía en vida o sobre troncos cortados en un pasado a veces muy remoto.

También los glaciares de alta montaña son buenos indicadores de las fluctuaciones climáticas. Con la ventaja de que su evolución es muy lenta, de escala mucho más climatológica que meteorológica; además, su historia no sólo se relaciona con la temperatura —el glaciar crece en épocas frías y retrocede en épocas cálidas— sino también con la precipitación —el glaciar crece si nieva mucho en invierno, y disminuye si nieva poco, porque el verano deshace más fácilmente las zonas de menor altitud.

En conjunto, ¿qué información nos aportan todas esas fuentes indirectas, y menos precisas que las de los instrumentos de medida, pero muy numerosas y variadas?

Sin entrar en más detalles, la primera conclusión que podemos obtener es que tanto en períodos cálidos como, sobre todo, en períodos fríos, los daños a la humanidad y a sus actividades han sido enormes cuando la temperie se ha desmandado, por así decirlo. Es decir, que hace mucho más daño en el día a día el extremismo meteorológico respecto a la media, aunque sea en períodos breves de tiempo, que el cambio más o menos progresivo de los promedios. En suma, los cambios meteorológicos, incluso los más «normales», son peores que los cambios climatológicos.

Dicho lo cual, los períodos más dañinos, a largo plazo, han sido siempre los fríos, no los cálidos. La bonanza —siempre relativa por la época que era— del clima medieval, cuando los vikingos se establecieron en aquella Tierra Verde que hoy llamamos Groenlandia y cultivaron sus tierras entonces verdes y hoy congeladas, contrasta con las grandes hambrunas ligadas al frío reinante en la Pequeña Edad del Hielo, a finales del siglo XVII. Una época que produjo en Francia un incremento de la mortalidad de más de un 10 por 100 de la población total entre 1693 y 1694. Cifras parecidas, si no peores, se dieron en Escocia y en los países escandinavos dos años después, entre 1696 y 1697.

Todo eso significa que, incluso con tendencias climáticas frías o cálidas a largo plazo, siempre puede haber años —uno o varios— excepcionales que contradigan lo que el promedio indica. Para mal, y a veces incluso para bien. Y eso afecta muchísimo más a la vida de las gentes que la tendencia misma hacia el enfriamiento o el calentamiento. Las condiciones meteorológicas del día a día nos afectan muchísimo más que los promedios climatológicos a largo plazo. Los peores daños vienen más del cambio meteorológico que del climatológico.

Han sido muchas las catástrofes atmosféricas que nos han dispensado los climas en estos últimos siglos, desde la Edad Media. La mayor parte de los datos disponibles son europeos, pero existen indicios bastante claros de que en buena parte del resto del planeta —por lo menos, del hemisferio norte— ocurrió algo parecido, aunque no podemos estar seguros del todo. Recuérdese que América no fue realmente descubierta y colonizada por los europeos hasta el siglo XVI; Colón llegó allí a finales del siglo XV, en 1492, pero hicieron falta unos cuantos decenios para que comenzáramos a establecernos en aquellas islas y luego en las tierras de la América continental, tanto central como meridional. En cuanto a la América anglosajona, conviene recordar que los famosos Padres Peregrinos ingleses no desembarcaron en Nueva Inglaterra, hoy estado de Massachusetts, hasta el siglo XVII, exactamente en noviembre de 1620. Antes del siglo XV, sólo podemos, pues, obtener datos indirectos de América a partir de los relatos y tradiciones de las tribus indias, o bien mediante otros datos como los que proporcionan los anillos de los árboles.

Por cierto, el primer año, 1621, de los colonos ingleses pioneros en tierras americanas fue de lo más aciago: un frío intenso que duró casi todo el año les impidió cultivar apenas nada, los pocos animales de granja que habían llevado consigo murieron o fueron consumidos, la hambruna y las epidemias se instalaron en la pequeña colonia... Menos mal que recibieron ayuda de los indígenas de la zona; en agradecimiento por aquel comportamiento, los supervivientes institucionalizaron, un año después del desembarco, el Día de Acción de Gracias, el famoso Thanksgiving Day. Se supone que se lo agradecen a Dios, que actuó a través de aquellos buenos indígenas. ¡Qué contraste con las matanzas posteriores, hasta llegar al exterminio, de las tribus indias por parte de los nuevos colonos según fueron construyendo lo que sería la gran nación norteamericana.

Y si tenemos pocos datos de América, y aún menos de Asia, la ausencia es casi total en la práctica totalidad de África y en todo el hemisferio sur, del que no tenemos dato alguno ni nada que se le aproxime hasta los dos últimos siglos, y aun así de forma muy incompleta. Recuérdese que Australia, por ejemplo, fue colonizada por los británicos a finales del siglo XVIII (Nueva Gales del Sur fue fundada en 1788), aunque había sido descubierta por marinos españoles y holandeses más de un siglo antes.

En cuanto al mundo oriental del hemisferio norte (de la zona oriental del hemisferio sur no sabemos nada, claro, aunque parece que algunos navegantes chinos atravesaron el Ecuador hacia el siglo XV, sin que exista información alguna acerca de lo que se encontraron), conocemos algunos sucesos catastróficos de sus climas a través de diversas crónicas; pero son muy poco precisas temporal y espacialmente. Sólo las grandes batallas o las diversas vicisitudes que afectaban a los emperadores o reyes eran dignas de ser narradas, aunque en dichos relatos no siempre aparecían los elementos atmosféricos.

Los dos últimos milenios

Si entre los siglos X a V a.C. sabemos que se produjo una pequeña glaciación que afectó al mundo mediterráneo y del Próximo Oriente, lo cierto es que no sabemos mucho acerca del efecto que aquello tuvo sobre la humanidad, que constaba de muy pocos individuos por aquel entonces. Desde luego en aquella época —un milenio antes de Cristo— ya conocíamos los metales y teníamos agricultura y ganadería en las regiones del mundo de clima más templado. En Mesopotamia la civilización alcanzaba su máximo esplendor, y ya por entonces sabían incluso predecir eclipses...

Pero los historiadores han deducido también que hubo muchos períodos en los que los humanos de entonces padecieron hambre y mortandades por culpa de un clima irregular y bastante más frío de lo que había sido antes, y de lo que sería después. El final de aquella época —los primeros cinco siglos del milenio anterior a Cristo— coincide con la eclosión en Atenas de la civilización griega, y culminó en el período cálido llamado Pequeño Óptimo Romano, entre los siglos II a.C. y II d.C.; fue la época de mayor esplendor, primero de Atenas y luego del imperio latino. Todo ello coincidió con unos siglos de temperaturas relativamente altas.

Un nuevo enfriamiento de los climas —entre los años 300 a 700— hizo bajar el límite de los glaciares alpinos, que avanzaron hacia cotas más bajas. Aquello coincidió con nuevas catástrofes que causaron numerosas víctimas no sólo en Europa sino también en Asia; del resto del mundo no tenemos información fidedigna.

La invasión de los bárbaros fue, pues, sólo en parte responsable del declive de la civilización grecorromana en buena parte de Europa. Es posible que también influyera el cambio climático que dio lugar a que los glaciares alpinos alcanzaran un máximo de extensión hacia el año 750. Luego, ya a finales de ese siglo VIII, las temperaturas volvieron a subir con cierta brusquedad en toda Europa hasta alcanzar el llamado Óptimo Medieval entre los años 900 y 1300. En esos años la agricultura se recuperó en Europa, la población aumentó de forma considerable y el clima fue probablemente comparable al que tenemos ahora. Las mejores condiciones se dieron sobre todo entre los años 1000 y 1100, cuando los vikingos de Erik el Rojo colonizaron Groenlandia —Green Land o Grüne Land, en inglés y alemán, Tierra Verde—. Erik estableció dos grandes colonias permanentes allí, a finales del siglo IX, que perduraron hasta finales del siglo XIV. Hubo incluso un obispo, entre 1126 y 1378. No hace falta decir que Groenlandia es hoy una enorme isla helada, poblada por apenas 60.000 personas en sus zonas costeras.

En todo ese período de clima templado y bastante aceptable —aun aceptando la relativa falsedad de los promedios— lo cierto es que los sucesos atmosféricos adversos fueron bastante menos agresivos que los que estaban por venir.

Fin del Óptimo Medieval

A partir del siglo XIV, las temperaturas comenzaron a retroceder hasta alcanzar la Pequeña Edad del Hielo, ya en el siglo XVII y buena parte del XVIII. En estos cuatro o cinco siglos comenzaron a darse con frecuencia creciente sucesos meteorológicos terribles y auténticas catástrofes climáticas destructivas que no se habían dado en el Óptimo Medieval. Hubo en el trienio 1314-1316 diluvios e inundaciones catastróficas que causaron hambrunas generalizadas y un aumento de la mortalidad; en esos años, la población alemana disminuyó en más de un 10 por 100. El desastre se repetiría en 1330, y luego entre 1342 y 1375. A mediados del siglo XIV la población europea era inferior a la de un siglo antes, y había graves problemas de malnutrición y una degradación generalizada del estado sanitario que propició, al llegar la epidemia de peste (originada por las ratas que infestaban las caravanas procedentes de Asia), la mortandad atroz de 1348, el terrible «año de la peste negra». En la mayor parte de Europa central, el invierno 1363-1364 tuvo veinte semanas seguidas con temperaturas bajo cero incluso en pleno día, desde finales de noviembre hasta finales de marzo. Se llegaron a helar la laguna de Venecia y los grandes lagos suizos, algo que se repetiría mucho en el siglo XVII. Los daneses huyen de Groenlandia, cuyo clima se deteriora muy deprisa tras la relativa templanza de los siglos anteriores.

Ya en el siglo XV el tiempo se muestra muy fluctuante, con grandes oscilaciones. Los glaciares detienen su avance, que había sido muy rápido en el siglo anterior. Hacia 1420 y durante varios decenios, el fantasma de la sequía se adueña de casi toda Europa: destacan los años 1420 y 1438 como años de hambruna general por falta de agua y agostamiento de cosechas, además de que la peste seguía siendo endémica. Francia alcanzó en 1440 su mínimo de población en todo el milenio: apenas 9 millones de personas cuando tres siglos antes tenía casi el doble. Enorme pobreza también en Inglaterra, Países Bajos, Bélgica y buena parte de Alemania, empeorada por los últimos coletazos de la interminable guerra de los Cien Años —en realidad, duró 116 años, de 1337 a 1453—. Como se ve, el clima no es el peor enemigo de la humanidad sino... el propio ser humano. En la segunda mitad de este siglo XV la tremenda erupción del volcán Kuwae, en el archipiélago de las Vanuatu (al este de Australia), alteró el clima de todo el planeta durante varios años, agudizando el frío y la sequía, que fueron generales y con graves consecuencias sobre todo en el trienio 1481-1483 en Francia, Alemania, Suiza y norte de España e Italia. Los glaciares habían vuelto a avanzar en los Alpes.

Ya en el siglo XVI, que los historiadores franceses llaman algo exageradamente «Le Beau Siècle» por contraste con los dos anteriores y con los dos que estaban por llegar, el tiempo fue más regular durante su primera mitad. Los glaciares incluso iniciaron un amago de retroceso, y el comercio y los viajes fueron más asequibles: la cultura renacentista se expandió así por toda Europa, se generalizaron los libros (la imprenta había sido inventada por Gutenberg en 1450) y comenzaron las grandes conquistas «allende la mar océana» (Colón había descubierto las islas del Caribe en 1492). Pero en el último tercio, el siglo dejó de ser bello: de nuevo volvieron a bajar en picado las temperaturas y volvieron las hambrunas. En la transición con el siglo XVII se alcanzaron ya temperaturas inéditas desde hacía muchos siglos: se iniciaba el punto álgido de la Pequeña Edad del Hielo, cuando los glaciares alpinos bajaban de cota muy deprisa, casi medio kilómetro por decenio.

A la general pobreza se suman las frecuentes guerras civiles en Europa (Francia y Alemania, Escocia e Inglaterra). Esta hambruna de finales del siglo XVI suele ser llamada «crisis shakespeariana». El dramaturgo inglés (1564-1616) se hizo famoso en esa época: Romeo y Julieta se estrenó en 1595 en Londres, con un Támesis helado en invierno. Algo que sería luego habitual durante muchos otros inviernos de los siguientes siglos.

La Pequeña Edad del Hielo: de 1590 a 1820

Un antropólogo y arqueólogo norteamericano de origen británico, Brian Fagan, de la Universidad californiana de Santa Bárbara, escribió entre otras obras un libro que alcanzó justa fama en el año 2000: La Pequeña Edad de Hielo: cómo el clima afectó a la historia entre 1300 y 1850. Junto a la obra de Le Roy Ladurie, constituye quizá el mejor compendio de los sucesos climáticos, casi todos negativos, que ocurrieron en aquella época de enfriamiento casi generalizado: hambrunas, congelaciones, guerras y crímenes por tener algo que comer, despotismo de los poderosos...

Fagan cita en particular un caso llamativo: las rogativas del pueblo de Chamonix, con el obispo de Ginebra al frente, para que el glaciar del Mont Blanc llamado Des Bois no alcanzara al río Arve e interrumpiera su curso provocando la inundación de la pequeña localidad, hoy famosa estación de esquí. Era el año 1644. Los glaciares no comenzarían a retroceder hasta finales del siglo XVIII, pero alcanzaron su cota más baja a mediados del siglo XVII, cuando ocurrieron las rogativas de Chamonix...

No es fácil caracterizar en detalle lo que supuso este período de dos siglos para la vida de las gentes. La climatología trata de los promedios a largo plazo, pero ya vemos que cuando nos acercamos a las fluctuaciones normales del tiempo año a año, de cuyo promedio se extrae el valor climatológico, las cosas varían muchísimo. El período anterior, desde el siglo XIV, es para la climatología una época de enfriamiento progresivo y continuo, una transición entre el Óptimo Medieval y la Edad del Hielo del XVII. Pero acabamos de ver cómo el detalle del tiempo a escala de años o incluso decenios demuestra claramente que esa transición no fue igual para todos, ni en todas partes, ni de la misma manera. Incluso pudo ocurrir que durante más de medio siglo (en el XVI) el tiempo fuera aceptablemente favorable, aunque inscrito en una tónica más general de enfriamiento a largo plazo.

El período que hemos adoptado para caracterizar la Pequeña Edad del Hielo es el que va de 1590 a 1820. Eso incluye, ya en el siglo XIX, las consecuencias de la gigantesca erupción del volcán Tambora, que produjo un enfriamiento tan súbito como negativo en todo el mundo entre 1815 y 1820. Aunque sin este fenómeno telúrico, es probable que la Pequeña Edad del Hielo hubiese acabado antes, quizá en la segunda mitad del XVIII.

¿Qué destacar de esos dos siglos y medio de climas más fríos que los actuales? Conviene recordar que en esa época seguíamos dependiendo en Europa de la agricultura y la ganadería, cosa que hoy ya no ocurre. La extrema crudeza de los inviernos (destacan 1605, 1608, 1618, 1630 y 1641 —quizá el peor, se heló casi toda Europa durante meses...) fue destructiva. En 1658 hubo terribles inundaciones por lluvias torrenciales y deshielo tardío y acelerado de las nieves; en París se registró la mayor subida del Sena de la historia, en la que el agua llegó hasta la explanada de la catedral de Notre-Dame. En el decenio 1660-1670 hubo un respiro del frío extremo, pero éste volvió con fuerza hasta bien entrado el siglo siguiente. El año 1685 fue, según todas las crónicas, tan frío o más que el desastroso 1641. Hubo hambrunas generales en todos los países a finales del siglo XVII, sobre todo por la sequía.

Cuando se inicia el siglo XVIII los climas se hacen menos crudos, pero todavía se mantienen fríos: los glaciares ni retroceden ni avanzan durante los primeros años. Pero en seguida reaparecen los años gélidos entre 1709 y 1716; este último, gélido y extremadamente seco, recuerda a 1685 y 1641. Quizá han sido los tres años más fríos del milenio, y los más dañinos en cuanto a sus consecuencias sobre la población. A mediados de este siglo XVIII suben las temperaturas en el sur de Europa y en lugares de América y Asia de los que se tienen crónicas fiables. Pero abundan los veranos secos y calurosos que propician gran mortandad por falta de agua potable debido a que los inviernos siguen siendo gélidos y muy secos. Y en los últimos decenios del siglo se vuelven a templar los climas, y los glaciares inician por fin un tímido retroceso hacia cotas más altas, aunque a partir de 1784, debido a la erupción del volcán Laki, con sus famosas cenizas viajeras que observara Franklin, se detuvo ese ascenso e incluso hubo en 1789 un invierno gélido similar a los del siglo XVII. Se dice que la hambruna y la pobreza de ese año acabaron por precipitar la Revolución Francesa (los Estados Generales fueron en 1789). Luego, y hasta la erupción del Tambora en 1815, las temperaturas variaron poco pero el clima se estabilizó: frío en invierno, calor en verano, lluvias en su momento; la bonanza parecía llegar. Y es probable que en estos inicios del siglo XIX se hubiese acabado por fin la Pequeña Edad del Hielo... de no ser por el famoso volcán indonesio Tambora.

Su erupción fue probablemente la más activa de las que tenemos noticia. El cielo se oscureció en casi todo el planeta, y las temperaturas bajaron, agudizando el enfriamiento que se había iniciado con cierta timidez en 1809. En particular, el año 1816 —el famoso «año sin verano» en casi todo el mundo— fue extremadamente frío; los glaciares volvieron a bajar de cota con cierta rapidez y sólo frenaron su avance hacia 1820. Un avance de los glaciares medido en los Alpes pero también en el Himalaya y el norte de las Rocosas.

Climas modernos: de 1821 a 1977

Se asume que en el siglo XIX comenzábamos a tener ya datos relativamente fiables con instrumentos manejados por expertos; al menos en buena parte de Europa y algunos lugares de Estados Unidos. Los norteamericanos suelen afirmar, de hecho, que sus series de datos —tanto de la NASA como de la NOAA— son ya fiables a partir de 1850. Suena exagerado: en 1850, como ocurriría todavía durante unos cuantos decenios más, el territorio cubierto por observatorios fiables se limitaba a un puñado de estaciones meteorológicas, la mayoría de las cuales se encontraba en grandes ciudades, tanto europeas como norteamericanas. Pretender que aquellos datos sean tan fiables y generalizados como los que hoy podemos conseguir, es cuanto menos aventurado. Suena más bien a petulancia científica injustificada.

En todo caso, los registros históricos siguen siendo un buen elemento de juicio global acerca del comportamiento atmosférico en este período de transición entre la Pequeña Edad del Hielo y el calentamiento actual, junto a los datos medidos que van haciéndose poco a poco cada vez más numerosos.

A lo largo del siglo XIX y hasta 1910 los climas ofrecen un promedio oscilante, con temperaturas medias bastante superiores a las que hubo entre 1800 y 1820. Las lluvias son relativamente normales, aunque con excepciones en algunos años realmente secos, precisamente cuando hubo retrocesos térmicos; ocurrió en 1830, y entre 1836 y 1856, especialmente los años 1846-1847. De hecho, a mediados del siglo XIX los glaciares dejaron de retroceder e incluso iniciaron un leve descenso durante unos años. Pero a partir de 1857 se dan veinte años de calentamiento sostenido, documentado igualmente en buena parte de América y quizá en el resto del hemisferio norte. Los glaciares vuelven a retroceder, y esta vez proseguirán su retroceso hasta nuestros días. Finalmente, a partir de 1892 y hasta 1940, las temperaturas mantienen una constante escalada, que se hace más significativa a partir de 1910.

Climatológicamente hablando, pues, el calentamiento no es algo reciente sino que, como tendencia global, sin duda se inició en el inicio del siglo XIX, tras los rigores de la Pequeña Edad del Hielo. Curiosamente, en esa época aún no había emisiones de gases invernadero como ahora.

Como al aumentar el nivel de desarrollo el clima condiciona cada vez menos la vida de las gentes —muy poco en los países ricos, todavía bastante en los más pobres—, al menos en comparación con la Edad Media y las épocas anteriores a la revolución industrial, quizá debamos apelar a otros índices para adjetivar de bueno o malo al clima. Por ejemplo, la frecuencia e intensidad de los fenómenos más dañinos que azotan a las diversas regiones del mundo. Los peores de ellos, desde el punto de vista atmosférico, son sin la menor duda los ciclones tropicales. También son muy dañinos en Estados Unidos, como vimos, los tornados; pero el número de víctimas es mucho más reducido... Y suelen ser dramáticas, en el Asia monzónica, las inundaciones en las extensas llanuras costeras de la India, Bangladesh, Vietnam y sur de China.

Recordemos que al tratar el tema de los ciclones y los tornados en el apartado de los meteoros, ya decíamos que a largo plazo no se observaba ninguna variación en su tendencia, ni en cuanto a su número anual ni en cuanto a su potencia destructora. Es decir, por lo que a estos monstruos de la naturaleza respecta, desde que se tienen crónicas, y más tarde datos más o menos fiables, no parece que haya habido cambios sustanciales ni en su número ni en su potencia, al margen de la subida o bajada de las temperaturas de los dos últimos siglos.

En 1931 hay que consignar en Asia la que quizá fue hasta hoy la peor catástrofe natural de la historia en todo el mundo. Fue una súbita y enorme crecida del río Amarillo, y en menor medida del Yangtzé; las dos cuencas bajas de estos caudalosos cursos de agua se desbordaron a lo largo del Gran Canal que los une, cerca de su desembocadura. Pudo ser debido a unas lluvias especialmente intensas en el verano de 1931, y la enorme inundación afectó a más de 80.000 kilómetros cuadrados de terreno llano junto al mar, y causó la muerte de más de un millón y medio de personas. Se calcula que casi veinte millones de personas perdieron su hogar y sus pertenencias...

El descontento popular, agudizado por la guerra entre nacionalistas y comunistas, atribuyó a los primeros el haber abierto las compuertas de algunas presas aguas arriba, lo que pudo influir en el hecho de que ese mismo año, dos meses más tarde, Mao tomara el poder total en China, excepto la isla de Taiwán. La apertura de compuertas de las presas superiores está documentada; pero que se hiciera por razones bélicas y no por aliviar las presas a punto de desbordarse es lo que probablemente nunca sabremos. Las presas estaban en zona nacionalista, todo el sur de China era ya comunista...

De forma bastante sorprendente, la subida de temperaturas se detuvo a la altura del año 1940, prácticamente en todas partes. Vinieron luego casi cuarenta años de estancamiento térmico e incluso, en muchas regiones del mundo, de descenso perceptible aunque nunca excesivo de las temperaturas. Desde luego, en los años sesenta y en los primeros años setenta casi todos los expertos hablaban de la proximidad de una nueva miniglaciación similar a la del siglo XVII. Algunos de aquellos expertos son hoy firmes defensores del calentamiento, igualmente catastrófico, del planeta; son científicos eminentes, pero su credibilidad como augures es dudosa.

Es sorprendente que no exista un estudio extenso acerca de las consecuencias para la población humana, que se encontraba ya en pleno crecimiento exponencial a mediados del siglo XX, de los daños climáticos producidos en el mundo durante esos 40 años que van desde finales de los años treinta hasta finales de los setenta. Porque, en contraste con los años anteriores, con los que vendrían después, ese período de enfriamiento a mediados del siglo XX fue extremadamente dañino para la humanidad. Aunque sea anecdótico, es la época en la que el régimen franquista acuñó aquello de la pertinaz sequía...

No existe una explicación mínimamente convincente acerca del porqué de este largo paréntesis en el calentamiento, iniciado ya en el siglo XVIII tras la Pequeña Edad del Hielo. Los defensores a ultranza de la correlación directa del incremento del CO2 con la subida de temperaturas tienen aquí un escollo que suelen sortear como de puntillas. Aunque lo que en realidad está sobre el tapete es una cuestión esencial, sobre la que basa todo su discurso alarmista el IPCC: la correlación directa entre el incremento acelerado del CO2 y el aumento de temperatura (que no fue tal entre 1940 y finales de los setenta, aunque sí se reanudó luego). Este último tramo de calentamiento es el que se resalta hasta la saciedad cuando se habla del cambio climático; pero nadie dice nada del calentamiento previo, tras la Pequeña Edad de Hielo del siglo XVII, cuando las temperaturas subieron pero el CO2 se mantenía más o menos sin cambios. Claro que en aquella época la población humana era de unos 800 millones de humanos y a mediados del siglo XX la población ya se había multiplicado por cinco o seis, y seguía creciendo desmesuradamente.

La importancia de este dato es sustancial a la hora de comparar los daños climáticos actuales con los del pasado; porque hay que considerar el número total de habitantes en unas u otras regiones a la hora de calibrar las consecuencias de los daños producidos por una inundación, un ciclón o una prolongada sequía... Lo cual invalida las comparaciones pomposas del estilo «la más dañina de la historia», «nunca antes hubo semejantes daños», y similares. Son afirmaciones sensacionalistas muy aventuradas, básicamente porque no tenemos datos precisos de los daños ni del número de víctimas en un pasado después de todo no tan remoto.

El reciente período de calentamiento de los últimos 35 años ha sido mucho menos dañino, en cuestión de catástrofes atmosféricas, que el período anterior de 1940 a finales de los setenta. Los datos de víctimas mortales por ciclones tropicales son un buen ejemplo. En las estadísticas de los sucesos más dañinos producidos por la naturaleza, aparecen en primer lugar los terremotos, que nada tienen que ver con los climas, pero también las inundaciones de los grandes ríos y los ciclones tropicales. De hecho, si miramos exclusivamente el número de víctimas, es normal que los dos primeros puestos lo ocupen catástrofes recientes: el ciclón tropical Bhola, en Bangladesh, que en noviembre de 1970 pudo exterminar a más de medio millón de personas y arrasó prácticamente toda la zona costera del golfo de Bengala, y el reciente terremoto de Haití de 2010, que produjo en torno a 300.000 víctimas mortales y destrozó todo el país.

Como los terremotos, los volcanes y los tsunamis no tienen que ver con el clima, veamos sólo los ciclones: cuatro de entre los diez peores ciclones tropicales de los últimos tres siglos se concentraron en el relativamente breve período de 1940-1978, en la misma región, el golfo de Bengala. Ocurrieron en 1942, 1963, 1965 y, por supuesto, Bhola, en 1970, el peor de la historia conocida.

Pero es que, además de estos ciclones, hubo en esos cuarenta años de climas fríos numerosos episodios de inundaciones dramáticas, en esas mismas regiones del Asia subtropical. Fueron crecidas ligadas al mal tiempo y a las intensas lluvias monzónicas, con o sin ciclones tropicales. Destacan dos situaciones terribles que se produjeron en el otoño de 1971. La primera, en la costa bengalí, una vez más, cuando la inundación por lluvias intensas del puerto de Chittagong y su región provocó cerca de 140.000 víctimas. La segunda, en el mismo año, pero meses más tarde, en Vietnam del Norte: inundación por crecida del río Rojo debido a las lluvias intensas, que provocó unas 100.000 víctimas (la cifra es muy estimativa porque era la época de la guerra de Vietnam y no existen datos fiables; quizá fueron muchas más).

De hecho, en los foros mundiales se habló mucho por aquella época de la «guerra meteorológica» de los norteamericanos, aliados de los vietnamitas del sur. Se dijo que habrían sembrado de ioduro de plata las nubes con el fin de provocar lluvias torrenciales en la selva que provocarían desbordamientos en los ríos. Nunca se verificó el asunto; en todo caso, parece bastante obvio que, por mucho que se intente, ni sabíamos ni sabemos aún cómo hacer llover. Otra cosa es que no lo intentasen los militares norteamericanos.

Además de esas dos inundaciones catastróficas de 1971 también destaca, por lo negativo, un terrible suceso ocurrido en el sur de China en agosto de 1975, cuando la tormenta tropical Nina, residuo de lo que había sido un ciclón poco potente, llegó a la costa de China. Las lluvias intensas, en algunos lugares concentradas en muy poco tiempo, provocaron la rotura de la muy discutida —por sus errores constructivos reiterados— presa de Banqiao, en la provincia china de Henan, sobre el río Ru, afluente del Yangtze. Al parecer la riada provocó la rotura de otras presas aguas abajo, y la inundación final fue responsable de más de 230.000 muertes y de la pérdida de más de 11 millones de hogares.

O sea, que entre 1940 y 1978, cuando las temperaturas bajaban levemente, se produjeron numerosos sucesos meteorológicos, que fueron muchísimo más dañinos y frecuentes que los que se dieron en el período posterior, entre 1978 y 2012. De hecho, en este último período de 35 años sólo un ciclón tropical se encuentra incluido en la triste estadística de los diez ciclones más mortíferos de los últimos tres siglos: el ciclón Nargis, que afectó a Myanmar (antes Birmania) en 2008 y que ocupa la sexta plaza en cuanto al número de víctimas, más de 100.000. Y sólo hubo una gran inundación catastrófica, en 1991, de nuevo en la región de Chittagong, en Bangladesh; las lluvias monzónicas y la consecuente riada se llevaron por delante la vida de casi 140.000 personas.

Como contraste, el Katrina que enarbola Al Gore como símbolo de la maldad demoníaca del cambio climático, produjo 1.833 víctimas mortales, según el último informe de la NOAA de 2012. Que merecen el mismo respeto que todas las víctimas, obviamente. Pero su número es muy inferior.

¿De dónde han sacado que ahora los climas son más catastróficos, por el famoso cambio climático, que antes?

Climas actuales: 1978 a 2012

El período reciente de calentamiento se inicia a finales de los setenta; conocemos bien lo ocurrido desde entonces porque hemos dispuesto de datos medidos por aparatos fiables... aunque la mayoría sólo en los países desarrollados. Pero también hemos podido disponer de interesantes mediciones globales, gracias a los satélites artificiales.

En estos 35 años cabe distinguir dos períodos: los veinte primeros años, de calentamiento sostenido, y los últimos quince, desde 1998 hasta hoy, cuando esa subida se ha detenido; con gran consternación, todo hay que decirlo, por parte de los seguidores de los modelos matemáticos, que no predecían eso en absoluto.

A finales de los ochenta y en los años noventa el cambio climático y el calentamiento global comienzan a hacerse populares y generan una preocupación general. Curiosamente apenas se llevaba un decenio midiendo el citado calentamiento, lo que es un plazo muy breve para hablar de clima, dicho sea de paso. De hecho, hasta mediados de los setenta la idea predominante era la de una glaciación que se acercaba... El porqué de aquel cambio de percepción en tan sólo diez años resulta sorprendente.

En todo caso, en 1992 la reunión de Naciones Unidas de Río de Janeiro reafirmó esa preocupación mundial —que quizá, como decimos, podría parecer prematura—; es probable que la ONU necesitara darle un espaldarazo a su baqueteado PNUMA (su programa de Medio Ambiente, por el que pocos países apostaban) y al recién nacido IPCC, creado en 1988 bajo auspicios aún poco convincentes.

En Río se firmaron los Convenios de Protección de la Biodiversidad y de Prevención del Cambio Climático. Luego vinieron los sucesivos cuatro informes del IPCC (el quinto se espera para 2013-2014), el Protocolo de Kioto que finalizaba en 2012 y ha sido prorrogado hasta 2020... Y la alarma no ha dejado de extenderse desde entonces, apoyándose en informes cada vez más catastrofistas acerca de las consecuencias futuras del calentamiento que de las que pudiera estar provocando la subida térmica de los años ochenta y noventa.

En unos años, el cambio climático se había convertido, con asombrosa rapidez, en una especie de dogma científico (obsérvese la obvia contradicción entre ambos térmicos, dogma y científico). Y sólo los herejes científicos (idéntica observación) osan dudar de algún aspecto concreto de dicho dogma. El CO2 deviene el malo de la película por culpa de una industria que, curiosamente, estaba en horas bajas a finales de los setenta por causa de los sucesivos choques petrolíferos ocurridos en 1973 y luego en 1979. El coste de la energía se había disparado de tal modo que todos los países tuvieron que poner en marcha planes de eficiencia y ahorro energético, precisamente en el momento en que las temperaturas reanudaban su subida y la concentración de CO2 (bien medido desde los años cincuenta) mantenía su imparable escalada.

La crisis energética de los años setenta hizo mejorar enormemente tanto la eficiencia energética —es decir, el cociente entre lo que se gasta en energía y lo que se obtiene como producto final— como la intensidad energética —es decir, la relación entre el consumo energético y el producto interior bruto.

Contrasta este hecho con el período posterior a 1940, en plena reconstrucción industrial al acabar la segunda guerra mundial, cuando la energía era abundante y barata. Aquello propició una escalada de desarrollo industrial más que notable en los países ricos, aunque con desperdicios e ineficiencias más que notables debido a que el factor económico esencial, el precio de la energía, era muy reducido. Pero, en cambio, aunque el CO2 ya había iniciado su subida, las temperaturas se mantenían o incluso bajaban...

En resumen: durante los años cincuenta, sesenta y setenta, debido a la abundancia y baratura de la energía, el CO2 subía en flecha... pero las temperaturas bajaban. En los siguientes tres decenios, el CO2 siguió subiendo igual, pero las temperaturas subían y luego se estancaban ya en el siglo actual.

En conjunto, el aumento global del siglo XX —contando el calentamiento de los primeros cuarenta años, el estancamiento térmico hasta finales de los setenta, y la posterior subida hasta el final del siglo— fue en promedio global del orden de 0,6-0,7 ºC. Y cabe preguntarse: ¿ha propiciado este incremento de temperaturas catástrofes atmosféricas en mayor número y con mayor intensidad que anteriormente? Desde luego, la respuesta es negativa. Por mucho que se empeñen los noticiarios, los informes y declaraciones de unos expertos u otros, incluso el reciente informe de la CIA hecho en Harvard al que antes aludíamos, en cuanto a la gravedad y la frecuencia de las catástrofes más dañinas para la humanidad, los tres últimos decenios han sido mucho más pacíficos que los cuatro decenios precedentes. A pesar de que en esos treinta años la humanidad ha aumentado en más de 1.500 millones de personas.

En cuanto a los ciclones tropicales, ya vimos en el capítulo de los meteoros que no se constata tendencia alguna en cuanto a su mayor frecuencia o intensificación. Los peores momentos al respecto fueron los del potente ciclón que provocó destructoras inundaciones, una vez más en Bangladesh, en abril de 1991. El nivel del agua subió hasta seis metros sobre su nivel habitual casi de golpe, llevándose por delante la vida de 140.000 personas y dejando sin hogar ni pertenencias propias a casi once millones de habitantes. También hemos citado al ciclón birmano Nargis, en 2008 (más de 100.000 víctimas).

En este período más reciente de nuestra historia se han dado algunos fenómenos que la opinión pública, y algunos científicos, políticos, periodistas y, por supuesto, ecologistas, han atribuido al cambio climático y a sus inevitables catástrofes asociadas. Por ejemplo, el ciclón Katrina en 2005, o el calurosísimo verano de 2003 en Europa. Pero, en conjunto, todas las catástrofes atmosféricas de estos quince años —desde las más dramáticas a las menos impactantes— son de muy inferior cuantía a las que se dieron a mediados del siglo XX. En cambio, sí está comprobado que en los últimos 15 años, desde 1998, las temperaturas han dejado de subir mientras la concentración de CO2atmosférico ha seguido aumentando, en torno a un 20 por 100 más en ese decenio y medio... Un nuevo revés para la teoría, quizó no tan intocable como parece, que liga el calentamiento global al aumento del dióxido de carbono.

En el fondo, volviendo a la «maldad» de los climas, es obvio que en casi todas partes se dan, y de forma casi constante en algunos sitios muy poblados, acontecimientos atmosféricos adversos que dañan la economía y, en el peor de los casos, cuestan muchas vidas. Y eso, tanto en los países ricos como en los más pobres; aunque en éstos, las víctimas mortales y pérdida de viviendas son siempre muy superiores.

3.3.3. España y sus climas

A escala planetaria, la península Ibérica es de tamaño más bien reducido, a pesar de lo cual ofrece una enorme diversidad de climas, incluyendo no sólo al archipiélago balear sino, sobre todo, al canario —que, por sí solo, tiene una más que notable cantidad de climas diferentes en una superficie muy reducida.

Nuestra península, Portugal incluido, tiene una situación geográfica muy específica: al oeste un océano frío, al este un mar cálido, al sur un continente cálido, al noreste un continente más bien frío. Eso ya introduce una cantidad de matices muy diversos que, además, se ven multiplicados por el relieve interior, con numerosos accidentes orográficos. Las principales cordilleras ibéricas están orientadas aproximadamente este-oeste (montes Cantábricos, Pirineos, Sistema Central, montes de Toledo, y Sistemas Bético y Penibético), luego un grupo de macizos montañosos siguiendo la orientación noroeste-sureste (Sistema Ibérico) y, entre medias, dos grandes mesetas o altiplanos separadas por el Sistema Central. Por encima y por debajo de estos bloques encontramos dos depresiones excavadas por los caudalosos Ebro y Guadalquivir entre medias de dos extensos sistemas montañosos que se abren hacia el mar en forma de V invertida (Pirineos y Sistema Ibérico, en el Ebro, y montes de Toledo y Sistema Penibético para el Guadalquivir). Finalmente, por si toda esta complicación no fuera bastante, hay que señalar que las costas españolas tienen siempre cerca unas u otras montañas, lo que impide que exista alguna extensa llanura costera; las pocas que hay son de tamaño reducido.

Con toda esta complejidad de mares circundantes y orografía entrecruzada, en una superficie relativamente pequeña, ¿cómo no iba a existir en la península Ibérica una enorme diversidad de climas, muy diferentes los unos de los otros?

Los expertos han intentado simplificar al máximo ese bien nutrido ramillete de climas que nos caracteriza, dividiéndolos en cuatro grandes grupos: oceánico, mediterráneo, subtropical y de montaña. Cada uno influye en un área geográfica bastante bien delimitada, aunque resulta inevitable introducir matizaciones fronterizas entre todas ellas, sobre todo en la transición del clima mediterráneo hacia los demás, e incluso dentro de ese mismo grupo, como vimos al analizar las diferencias entre Almería y Barcelona.

Los diversos subtipos de clima oceánico afectan a las regiones próximas a las costas del norte y noroeste de la Península, desde los Pirineos hasta Galicia. Son regiones localizadas en las que llueve mucho, a menudo por encima de los 1.000 milímetros anuales, y además de forma bastante regular a lo largo del año. Las temperaturas son suaves, debido a la proximidad de un océano más bien frío en comparación con el Mediterráneo, pero de temperatura suave si se compara con la temperatura de ese mismo océano en la orilla americana a la misma latitud. La Coruña está a más de 42,5º de latitud Norte, y Nueva York un poco más al sur, a 40,5º Norte; pero en La Coruña no nieva ni hiela prácticamente nunca, mientras que en Nueva York los inviernos son gélidos y con abundantes nevadas...

En estas zonas ibéricas de clima oceánico —y eso incluye a buena parte de Portugal, al menos hasta la altura de Lisboa—, la humedad elevada y las temperaturas suaves propician un paisaje predominantemente verde, con obvia escasez de días soleados.

Por su parte, el clima mediterráneo afecta a casi todo el resto de España. Abarca desde las costas del Mare Nostrum del este y sur peninsular hasta las fronteras con el clima oceánico; y eso incluye al archipiélago balear. Hay quien opina que muchas zonas del interior, en especial ambas mesetas, tienen un clima más continental que mediterráneo, y eso propicia matizaciones diversas, de hondo calado científico para los climatólogos. Tanto que en esa extensa zona se suelen distinguir al menos tres grandes áreas: el clima mediterráneo costero, el continental-mediterráneo del interior y el mediterráneo árido (éste sólo abarca al sureste peninsular). En todos ellos los veranos suelen ser muy calurosos y largos, pero hay diferencias térmicas notables en las zonas del interior entre el invierno y el estío. En cuanto a las precipitaciones, son en general escasas —muy escasas en las zonas áridas del sureste—, y prácticamente nulas en verano.

El tercer tipo de clima es insólito en Europa; la palabra lo dice todo, subtropical. Por supuesto, corresponde a buena parte del área ocupada por las islas Canarias, situadas en latitudes ya bastante próximas al trópico y geográficamente acopladas a las costas africanas más occidentales. Temperaturas suaves todo el año, con pocas variaciones entre noche y día, entre invierno y verano, y lluvias muy escasas y casi siempre torrenciales.

Por último el clima de alta montaña afecta a regiones muy localizadas en las zonas más altas de los grandes relieves peninsulares: Pirineos, montes Cantábricos, Sistema Central, Sistema Ibérico y cordillera Penibética, incluidas las cumbres canarias más elevadas. Como es lógico, en estos climas los inviernos son muy fríos (tanto más cuanto más al norte y cuanta más altitud) y con nieve abundante, y los veranos son frescos —aunque el verano de Sierra Nevada no tiene nada que ver con el de las cumbres pirenaicas, por ejemplo—. En general, las precipitaciones son bastante más abundantes de lo que correspondería a su área de influencia en cotas más bajas. La nieve de esas cumbres suele ser una excelente reserva de agua de cara al estiaje, especialmente en las zonas del interior y del sur peninsular, y por supuesto en Canarias.

Temperatura

Murcia tiene el dudoso honor de haber alcanzado el momento más cálido en capitales españolas: 47,2 ºC, el 4 de julio de 1994. Pero si nos atenemos a la temperatura media anual más alta, Almería se lleva la palma con 18,9 ºC. Y los veranos más calurosos se dan en Sevilla y Córdoba: 27,4 ºC de media en el trimestre más caluroso del año.

El momento más frío se dio en el lago ilerdense de Estangento (Estany Gento), a 2.038 metros de altitud, el 2 de febrero de 1956. En poblaciones, la mínima más baja fue de –30,0 ºC en Calamocha, Teruel, el 17 de diciembre de 1963, a 880 metros de altitud. Y en capitales, esa mínima absoluta se dio en Albacete: –24 ºC el 3 de enero de 1971. En Albacete la temperatura media del trimestre invernal fue de –5,1 ºC, en 1970-1971.

En cuanto a las temperaturas medias, sin duda son un buen reflejo del clima del lugar en el que se miden dichas temperaturas; son datos climatológicos por excelencia. Y si el observatorio tiene suficiente antigüedad, representan bien el clima e incluso sus eventuales oscilaciones. Su principal defecto es que sólo representan el clima local. Y ni siquiera basta un solo dato para representar el clima de una gran ciudad: piénsese, por ejemplo, en las enormes diferencias que se dan entre los diferentes observatorios de Madrid, todos ellos aspirantes legítimos a representar «el» dato de la capital aunque en un mismo instante difieran varios grados en su temperatura; incluso es frecuente que en alguno de ellos llueva a cántaros mientras que en otro no cae ni gota.

Por lo que respecta a la temperatura media anual, tomando como referencia el treintenio 1971-2000, la más alta se registró en el observatorio de San Cruz de Tenerife, con 21,3 ºC de media anual; la siguiente corresponde al aeropuerto de Gran Canaria (Gando), con 20,8 ºC. Valores propios del clima subtropical canario, con mínimas invernales no muy diferentes de las máximas veraniegas.

En el resto del país, los aeropuertos de Almería y Sevilla registran una media de 18,8 ºC, seguidos de Huelva ciudad con 18,3, y de Cádiz y el aeropuerto de Málaga, con 18,2. Los aeropuertos de Ibiza y Alicante, y Valencia ciudad se quedan en 18,0; los aeródromos de Córdoba y Murcia (Alcantarilla) tienen una media anual de 17,9 ºC. Madrid (Retiro) 14,6 ºC y Madrid aeropuerto 14,1 ºC. Barcelona ciudad 15,6 ºC y Barcelona aeropuerto 15,5 ºC.

Aunque en Canarias ya hemos visto que las dos capitales, situadas en la costa y en la vertiente sur de las islas, superan por bastante los 20 ºC de media anual, el observatorio de Izaña, situado a 2.367 metros de altitud en las faldas del Teide, registra una media anual de 9,7 ºC, que está por debajo de las ciudades más frías de la península. Que, por cierto, son las siguientes, por orden de más a menos frío:

• Ávila y Burgos (aeródromo de Villafría): 10,4 ºC

• Soria: 10,8 ºC

• Salamanca (aeródromo de Matacán): 11,8 ºC

• Valladolid ciudad: 12,5 ºC

• Pamplona (aeropuerto de Noain): 12,6 ºC

• Cuenca ciudad y Zamora ciudad: 12,8 ºC

Aunque este apartado se refiere sólo a España, resulta curioso asomarse a estos mismos datos pero en el mundo entero:

Temperatura máxima absoluta:

• Al Aziziya (Libia): 57,8 ºC el 13 de septiembre de 1922 (aunque en el verano de 2012, la OMM ha eliminado este dato de sus registros, por falta de fiabilidad).

• Greenland Rangh, Valle de la Muerte (California): 56.7 ºC el 10 de julio de 1931 (récord actual de calor en el planeta).

Temperatura mínima absoluta:

• Vostok (base rusa antártica): –89,2 ºC el 21 de julio de 1983.

• Oimyakom (Yakutia), en Siberia: –71,0 ºC el 26 de enero de 1926.

Temperatura media anual más alta:

• Cráter Dallol (Etiopía): 34,4 ºC.

Temperatura media anual más baja:

• Altiplano antártico: –58 ºC.

Máxima amplitud térmica (diferencia entre la máxima y mínima absolutas)

• Verjoiansk (Siberia): la máxima absoluta fue de 37 ºC y la mínima absoluta –68 ºC, por lo que la amplitud absoluta es de ¡¡¡105 grados!!!

Máxima amplitud térmica en un solo día:

55,6 ºC entre el 23 y el 24 de enero de 1916, en la ciudad esta
dounidense de Browning, Montana. La mínima fue de 49 bajo
cero y la máxima 6,7 sobre cero. El dato lo ofrece el National
Weather Service (Servicio Meteorológico Nacional) estadouni
dense.

Precipitación

El conjunto de la precipitación que cae sobre un determinado lugar y que se mide con ayuda de un pluviómetro es quizá la magnitud climática más representativa, incluso más que la temperatura. La vida depende mucho más del agua que del calor o el frío que pueda hacer... Resulta curioso observar que tenemos en nuestro ámbito geográfico algunas de las regiones más secas de toda la Europa continental, y también algunas de las más lluviosas. En el país pueden distinguirse globalmente tres grandes zonas: la España Lluviosa (antiguamente conocida como España Húmeda, que algunos denominan España Verde), la España Seca (también llamada España Parda) y la España Árida (o semidesértica). Los climatólogos ponen la frontera entre las dos primeras en los 700 mm/año de precipitación anual media, y la divisoria entre las dos Españas más secas en los 300 mm/año.

Ya es considerado como un clásico el estudio realizado por Agustín Jansá en 1971 en el que demostraba por medios indirectos que las zonas más lluviosas de España eran las cumbres de la sierra de Gredos (Sierra de Candelario-Béjar), con 3.700 mm anuales de precipitación, seguidas de las cumbres de la sierra de Cando, en Pontevedra, con 3.600 mm, el monte Sayoa, en la cabecera del Arga (cordillera vasconavarra) con 3.300 mm y, finalmente la sierra de Grazalema, en Cádiz, con 3.200 mm.

En cuanto a sequía, destacan los valores de precipitación en torno a los 100 mm/año que se registran en algunas zonas del sureste peninsular, y también en el sur de algunas de las mayores islas del archipiélago canario. El contraste no puede ser más llamativo.

Además de esta enorme variabilidad espacial de las precipitaciones, también existe una más que notable variabilidad temporal. Es decir, de un año para otro la precipitación total varía muchísimo, como también varían mucho las precipitaciones que caen en cada lugar, e incluso el reparto de dichas precipitaciones a lo largo de las diversas estaciones del año. Eso sí, en conjunto la lluvia media que cae cada año es similar a la que caía hace un siglo, incluso algo superior. Es decir, que en esos promedios totales la lluvia prácticamente no cambia, como sí lo ha hecho la temperatura.

La precipitación media anual en España, tomada de treinta en treinta años, no ha variado prácticamente nada en el último siglo y medio; si acaso ha subido levemente en los últimos treinta o cuarenta años, aunque siempre con esa característica irregularidad año a año que ya hemos señalado varias veces. La cifra media para todo el país está en torno a 650 milímetros (en 1971-2000 fue exactamente 648,6).

La escasez de datos y la poca fiabilidad y representatividad de los datos antiguos hacen que normalmente sólo se considere, a escala de todo el país, la pluviometría de los últimos decenios. El gráfico siguiente muestra la evolución de la precipitación anual media en los últimos cuatro decenios.

De todo ello se deduce que el cambio climático no parece afectar a las lluvias, al menos en España. En realidad, eso ocurre igualmente en el resto del mundo, donde si acaso se registra un leve aumento de las precipitaciones desde finales del siglo XIX. Resulta chocante que en el último decenio, 2001-2010, se dieran a la vez uno de los años más secos, 2004-2005, y también uno de los más lluviosos, 2009-2010. Algo parecido ocurrió en el decenio anterior: la prolongada sequía de tres años entre 1992 y 1994 fue seguida inmediatamente por un par de años muy lluviosos, 1995 y 1996.

Más pruebas de irregularidad pluviométrica, por si hacían falta. Y aún hay una más llamativa si cabe, la del registro peninsular más antiguo: el observatorio de Gibraltar, que existe desde 1790. Allí se dieron 1.955 mm en 1855 y 1.659 mm en 1858, frente a mínimos de 356 mm en 1981 y 370 mm en 1869. ¡El año más lluvioso lo fue casi seis veces más que el año más seco! Y aún hay algo más: sólo catorce años más tarde del máximo de lluvia de 1855 se registró un llamativo mínimo cinco veces inferior en el año 1869.

Por localidades, y tomando el promedio anual de los datos registrados por los respectivos pluviómetros desde que existen, las más lluviosas son Arruazu (Navarra) con 2.800 mm y Articutza, también en Navarra, con 2.654, y les siguen Visuña y Villarbacú, en Lugo, con 2.369 mm y 2.346 mm. Grazalema, en Cádiz, alcanza 2.093 mm, Vigo 1.952 y Santiago de Compostela 1.915 mm. Pero éstas son cifras medias, hay que insistir en ello. Los valores extremos en esas estaciones son bastante más llamativos aún. Por ejemplo, en Arruazu se recogieron 3.867 mm en el año 1965, pero en Grazalema cayeron en el año 1963 nada menos que 4.346 mm, y en Santiago de Compostela 3.159 mm en 1960...

Incluso en Canarias, de clima supuestamente seco, existen en las zonas más altas, sobre todo en la orientación norte-noroeste y en las islas más occidentales, numerosos lugares donde sin duda caen más de 2.000 mm en los años más lluviosos. Por ejemplo, el observatorio de Cuevas Blancas (Gran Canaria), a casi 1.700 metros de altitud y que tiene registros desde 1936, recogió en el año 1953 nada menos que 2.859 mm. No obstante, la variabilidad de las lluvias en las islas hace que la precipitación media anual en dicho observatorio de Cuevas Blancas, sin ser en absoluto despreciable, sea de sólo 801 mm.

Las localidades menos lluviosas en la Península se encuentran todas en la provincia de Almería, que es sin duda la más árida de toda España. Son Cabo de Gata, con 152 mm anuales, Huércal-Overa con 171 mm, Aguadulce con 182 mm y finalmente la propia capital almeriense, con 193 mm al año. Incluso en el aeropuerto de Alicante (El Altet), bien cerca de Elche, caen tan sólo 288 mm/año.

Otra magnitud interesante, como ocurría con la temperatura, es la máxima lluvia registrada en 24 horas. Para entendernos, se trata de auténticas trombas de agua: recordemos que la intensidad se expresa mediante la cantidad de precipitación recogida por unidad de tiempo (normalmente, en milímetros de precipitación por hora).

Existe bastante controversia acerca del récord; por fortuna, es amistosa y nada pasional. El climatólogo alicantino Jorge Olcina le atribuye ese máximo a Jávea, el 2 de octubre de 1957, con nada menos que 871 mm, pero advirtiendo que es un dato dudoso. En todo caso, dejando de lado este dato, por si acaso, quizá el récord de precipitación en 24 horas se dio igualmente en la costa valenciano-alicantina, pero el 3 de noviembre de 1987: la localidad valenciana de Oliva reclama el máximo absoluto, con 817 mm caídos precisamente ese día 3 de noviembre de 1987. Pero también éste es un dato puesto en duda, aunque está registrado, porque el día 2 no había registro alguno de lluvia mientras que en otros observatorios próximos sí que se midió mucha lluvia tanto el 2 como el 3. Así que lo más probable es que los 817 mm sean la suma del día 2 y del día 3... Total, que si descartáramos esos dos datos, el récord real le correspondería a la vecina localidad de La Pobla del Duc, con 790 mm el día 4 de ese mismo mes y año; pero es que también este dato ofrece dudas. Total, que como Gandía registró 720 mm aquel día 3 de noviembre de 1987, y a ellos se le sumaron otros 144 el día 2 (en total, 864 mm), y la cifra de Oliva (probablemente también de los dos días fue 817, quizá el dato a retener sea el de Gandía, con 720 mm el día 3.

Toda una novela de misterio... Apostamos por el dato de Gandía como récord de lluvia en un solo día (720 mm, el 3 de noviembre de 1987), a pesar de que AEMET sigue incluyendo el dato de Oliva, de 817 mm ese mismo día.

En cuanto a capitales de provincia, la máxima lluvia en 24 horas se dio en Málaga, con 313 mm el día 27 de septiembre de 1957. Le siguen Santa Cruz de Tenerife con 280 mm el día 27 de agosto de 1988, y Alicante con 270 mm el día 30 de septiembre de 1997.

En intensidad por hora, el dato más alto registrado corresponde al aeropuerto de Alicante: en una hora cayeron 159 mm, el 20 de octubre de 1982. Fue el día de la gota fría que provocó el desastre de la pantanada de Tous, cuando se rompió dicha presa en el tramo final del Júcar.

Por cierto, gracias a un estudio realizado por investigadores de la Universidad de Extremadura, dirigidos por la profesora María Cruz Gallego y publicado en abril de 2011 en una revista de referencia, el Journal of Geophysical Research, demuestra que desde 1903 la lluvia total en España no ha cambiado gran cosa pero en cambio ha aumentado el número de días de lluvia, lo que viene a significar que, en promedio, las lluvias que caen son las mismas pero menos intensas; o sea, menos dañinas.

Un nuevo mito que se derrumba por lo que respecta al cambio climático catastrófico, al menos en España: la intensidad de las lluvias —y, por tanto, su carácter erosivo y, en líneas generales, los daños que puede provocar— no sólo no ha aumentado con el famoso calentamiento global sino que incluso ha disminuido de forma bastante clara.

Por cierto, el estudio en cuestión indica que esto ocurre en todas las regiones españolas excepto precisamente el golfo de Cádiz y el sur de Portugal, que son zonas habitualmente lluviosas y menos sometidas a los riesgos de erosión, tan característicos de las costas mediterráneas. Que es precisamente donde las lluvias han reducido más su intensidad, es decir, su capacidad destructiva por vía de la erosión. Aun así, en el área mediterránea sigue lloviendo algo más en conjunto al final del siglo XX y a comienzos del XXI que un siglo antes. Algo más de lluvia, pero cada vez menos erosiva: si eso es el cambio climático, ¿de qué nos quejamos?

En cuanto al resto del mundo, veamos algunos datos realmente llamativos:

Precipitación media anual más baja:

• Valles Secos de Mc Murdo (Antarctica’s Dry Valleys), en la Antártida: se cree que no ha caído precipitación alguna en varios miles de años. Es la zona más seca y pedregosa, sin hielo, de la Antártida, aunque su temperatura está siempre muchos grados bajo cero.

• Desierto de Atacama (Chile): en su centro, no llueve (menos de 0,1 mm) desde hace cuatro siglos.

• Desierto de Gobi (Mongolia): 0,2 mm.

Precipitación media anual más alta:

• Lloró (Colombia): 13.300 mm.

• Monte Wai-Ale-Ale (Hawái): 11.960 mm.

• Cherrapundji (India): 11.430 mm.

Precipitación máxima en un año concreto:

• Cherrapundji (India): 26.461 mm (entre agosto de 1860 y julio de 1861). Tomando un año civil completo, de enero a diciembre, en 1861 cayeron en total 22.987 mm.

Precipitación máxima en un mes concreto:

• Cherrapundji (India): 9.300 mm en julio de 1861.

Precipitación máxima en un día concreto:

• Cilaos (isla de la Reunión): 1.870 mm el 16 de marzo de 1952.

Máximo número de días de lluvia al año (promedio):

• Monte Wai-Ale-Ale (Hawái): 350 días.

• Campbell Island (Nueva Zelanda) y Bahía Félix (Chile): 325 días.

Viento

Desde el punto de vista climatológico, el viento tiene significado sobre todo cuando se considera su intensidad media a largo plazo. Ese promedio es representado mediante una magnitud algo extraña pero sumamente útil: el recorrido medio del viento, que puede ser diurno, anual o plurianual. Se trata de una magnitud teórica que reproduce bien la existencia de mucho o poco viento: el recorrido en un día, por ejemplo, es la distancia que recorrería una molécula de aire que circulara a la velocidad media de ese día durante 24 horas. También se determinan los valores extremos de las rachas máximas, datos puntuales cuyo significado en climatología tiene que ver con los récords históricos de cada observatorio. Lo que tumba a los árboles no es el viento medio sino la racha máxima...

En cambio carece de sentido la dirección media, al menos a escala global; en el planeta Tierra, en líneas generales, predomina la circulación zonal —de oeste a este—, lo que no quiere decir que no haya localmente y durante cierto tiempo, direcciones meridianas norte-sur en ambos sentidos, e incluso direcciones antizonales —por ejemplo, los alisios—. Pero el promedio, a muy largo plazo, es la dirección zonal. Porque es la dirección de giro del propio planeta Tierra.

Las direcciones dominantes del viento en un determinado lugar se suelen expresar de manera gráfica a través de una rosa de los vientos en la que a cada rumbo le corresponde una determinada frecuencia de viento medio en dicho rumbo, obtenida promediando los datos registrados por los anemómetros durante muchos años. Esto resulta esencial, por ejemplo, a la hora de orientar la pista de un aeropuerto, porque su eje debe seguir la línea de mayor frecuencia de vientos.

Los humanos hemos tendido siempre a personalizar los vientos, como elementos inseparables de nuestras vidas. Ya vimos en la primera parte que para los griegos eran los dioses Anemoi. Muchos de aquellos nombres mitológicos han perdurado hasta nuestros días; véanse algunas muestras españolas:

Ábrego (o Llovedor): viento del Suroeste, húmedo y templado, con lluvias atlánticas que caen en Andalucía occidental, Extremadura y Meseta Sur.

Bochorno: viento del Sureste, en el valle del Ebro. Seco y cálido. • Cierzo: viento del Noroeste, en el valle del Ebro. Seco, frío en invierno y fresco en verano; desagradable por ser muy racheado. • Galerna: viento cuya dirección cambia bruscamente del Suroeste al Noroeste al paso de un frente. Afecta a la costa del Cantábrico: mala mar y temporales duros.

Ponientes: vientos atlánticos del Oeste en Galicia, Portugal y golfo de Cádiz. Trae lluvia abundante. En el Mediterráneo se llama Ponent, y suele ser seco y cálido.

Gallego: viento del Noroeste en el valle del Duero. Frío, húmedo, racheado...

Mistral (Maestro, Mestral): viento del Noroeste en Cataluña, Valencia y Baleares. El Mistral francés es del Norte, muy atemporalado y peligroso, hacia Menorca y Córcega.

Tramontana (Tramuntana): viento del Norte en Cataluña. En Francia, en cambio, la Tramontane es un viento del Noroeste.

Gregal (Greco, Griego): viento —supuestamente originario de Grecia— del Noreste en Baleares, Cataluña y Valencia. Frío y seco en invierno, fresco y húmedo en verano.

Levante (Llevant): viento del Este en las zonas mediterráneas. Suele ser lluvioso en el sureste y este peninsular si va asociado a una depresión en el mar de Alborán.

Siroco (Xaloc): viento del Sureste en Valencia, Cataluña y Baleares. Muy cálido, puede arrastrar calima del Sahara.

Ostro (Migjorn): viento del Sur en el Mediterráneo. Muy cálido y portador de calima africana.

Garbí: viento del Este-Sureste en Valencia, Cataluña y Baleares. Más fresco y húmedo que el Xaloc, con el que suele confundirse.

Lebeche (Llebeig): viento del Suroeste en las regiones mediterráneas. Seco y cálido en verano, más húmedo pero también cálido en invierno. El Xaloc y el Lebeche pueden confundirse a veces con el Sirocco italiano, que es del Sur y procede del Sahara. • Matacabras: similar al Levante, pero en el golfo de Cádiz. Seco y racheado, cálido por efecto Föhn (viento terral, tras atravesar la punta sur de la Península).

Solano: viento del Este que afecta a ambas Castillas y Extremadura. Seco y cálido.

Viento Sur: Propio de la cornisa cantábrica. Por efecto Föhn, es seco y muy cálido; en la costa suele batir récords de calor. En el área mediterránea es el Ostro o Migjorn.

En cuanto a las rachas máximas, el valor más alto superó por muy poco los 240 km/h en el observatorio tinerfeño de Izaña, a más de 2.300 metros de altitud, el 28 de noviembre de 2005. Ya se había registrado allí, treinta años antes, una racha de 216 km/h. En la Península, el récord lo tiene el vizcaíno alto de Orduña, que alcanzó el 28 de febrero de 2010 nada menos que 228 km/h. Un día antes, el alto del Gran Plato, a 1.880 metros de altitud, en el término segoviano de Cerezo de Arriba, registró 182 km/h, y bastante antes de eso, el día 14 de enero de 1969, la cumbre del Montseny catalán (Turó de l’Home) había registrado una racha de viento del Oeste de 196 km/h.

Por lo que al mundo se refiere, el récord de velocidad del viento medido en un intervalo de tiempo corto pero reseñable —no es una racha instantánea sino un viento medio durante diez minutos— lo tuvo hasta hace poco el monte Washington, en New Hampshire (noreste de Estados Unidos), en cuya cumbre se había registrado el 12 de abril de 1934 durante diez minutos seguidos un viento medio de 372 km/h. En ese período hubo rachas superiores, y una de ellas alcanzó durante unos instantes 416 km/h...

Bastante más tarde, el 10 de abril de 1996 se registraron 408 km/h durante diez minutos en la isla australiana de Barrow, con ocasión del paso del ciclón tropical Olivia, el 10 de abril de 1996. Es el actual récord.

Terminamos con un curioso indicador... meteorológico-turístico. Está en una carretera que penetra en el estado de Wyoming, reputado por sus fuertes viento, y con él se le da la bienvenida al viajero. Buen humor no les falta, sin duda... ¿Le vino de ahí al Gran Wyoming la idea de adoptar ese alias?

El cartel explica cómo funciona el medidor de viento de Wyoming mediante el ángulo de la cadena. Si marca 0º es que la cadena está rota y hay que llamar al meteorólogo. 30º significa brisa fresca, 45º céfiro suave, 60º huracán en el área, 75º ¡ojo con los trenes voladores!; y 90º... ¡Bienvenidos al maravilloso Gran Wyoming!

Insolación

Lamentablemente, en España tenemos pocos observatorios que miden regularmente este parámetro, y aún son menos los que lo miden desde hace mucho tiempo. La situación en el resto del mundo es todavía peor... Con todo poseemos uno de los registros de insolación más antiguos del mundo, en el Observatorio de la Marina de San Fernando, en Cádiz: se iniciaron en 1880 y fueron los primeros que se realizaron regularmente en España utilizando el heliógrafo Campbell-Stokes.

Veamos algunos datos extremos de insolación en España:

Máxima insolación anual media en España (período 1971-2000):

• Izaña (Tenerife, a 2.367 metros de altitud): 3.433 horas

• San Fernando (Cádiz): 3.233 horas

• Huelva: 2.998 horas

• Jerez (aeropuerto) y Almería (aeropuerto): 2.965 horas

Mínima insolación anual media en España (período 1971-2000):

• Bilbao (aeropuerto): 1.584 horas

• Santander (aeropuerto): 1.638 horas

• San Sebastián (Igueldo): 1.695 horas

En cuanto al resto del mundo, en promedio anual, como era de suponer, las zonas más soleadas del planeta corresponden a la franja ecuatorial comprendida entre los paralelos 45º Norte y 45º Sur, en particular a la altura de los trópicos. En estas regiones se alcanzan cifras medias diarias cercanas a 6 kWh/m2. Las frecuentes lluvias que se dan en torno al Ecuador disminuyen allí el número total de horas de sol.

Por el contrario, los países más lluviosos de las zonas templadas frías, situadas por encima de los 50º de latitud Norte y Sur y hasta el Círculo Polar correspondiente, son los que menos insolación reciben al año. Por ejemplo, la capital noruega, Oslo, recibe en promedio 2,27 kWh/m2 diarios, y la capital finlandesa, Helsinki, 2,41. Y en España la cifra supera los 5 kWh/m2 en buena parte de la mitad sur, y entre 3 y 4 en la mitad norte.

Cabe observar que, después de todo, no es tanta la diferencia entre el máximo (en torno a 6) y el mínimo (superior a 2). Eso significa que la energía solar no tendría por qué ser descartada en ningún sitio; obviamente, serán más rentables las instalaciones en lugares soleados y en latitudes subtropicales, pero la producción en los países más fríos y lluviosos sólo será entre dos y tres veces menor, que no es como para asustarse.

Tormentas

No es fácil computar todas las tormentas que se producen, ni siquiera las que se dan en un solo lugar. Porque eso requiere ponerse de acuerdo sobre ciertos factores que son, en realidad, opinables; por ejemplo, ¿se computan las que descargan en ese mismo lugar, sin contar las que se producen en las proximidades? ¿O bien se cuentan las tormentas que se ven —o se oyen— en un radio de unos kilómetros? ¿Y qué contamos, tormentas, rayos y truenos, relámpagos sin trueno, con lluvia o sin lluvia? ¿Qué pasa con las tormentas en el mar, donde no suele haber nadie que las observe? Y así sucesivamente...

En general, desde hace un siglo se vienen contabilizando los días de tormenta en los observatorios, entendiendo por tales aquellos en los que se observa cualquier tipo de manifestación tormentosa en un radio de diez kilómetros. En cambio, contar las descargas eléctricas era muchísimo más difícil; aunque desde hace un par de decenios ya se usan los radares para contabilizar, casi una a una, las descargas; el sistema permite no sólo contar rayos individuales, sino incluso discriminar las ascendentes y las descendentes.

En conjunto, y gracias sobre todo a los datos globales que nos proporcionan desde hace dos o tres decenios los satélites, actualmente se estima que en todo el mundo se producen diariamente entre 40.000 y 50.000 tormentas diarias.

Parecen muchas, pero si dividimos ese número por la superficie total de la Tierra (algo más de 510 millones de kilómetros cuadrados), nos sale a una tormenta diaria cada 10.000 km2. Para toda España, ese promedio mundial supondría unas 45 tormentas diarias, en promedio; o sea, unas 16.000 tormentas al año. En realidad, los datos que tenemos apuntan a unas pocas menos, en torno a las 12.000; de ellas 5.000 en verano, 3.500 en primavera, 2.500 en otoño y apenas 1.000 en invierno.

Todas las tormentas que se producen cada año en el planeta producen, en promedio, unos nueve millones de rayos al día, algo más de cien rayos por segundo. Si dividimos por la superficie total del planeta, como antes, eso supone que caen más o menos veinte rayos al año por kilómetro cuadrado. Pero las tormentas son mucho más frecuentes en las zonas continentales que en mar abierto. De hecho, sobre los mares cálidos se dan entre 40 y 80 días de tormenta al año por kilómetro cuadrado, mientras que sobre los mares fríos esa cifra apenas llega a diez días. Obviamente, hay muchos más días tormentosos sobre los continentes: en zonas ecuatoriales y tropicales se dan, como promedio general, de 100 a 200 días de tormenta al año por kilómetro cuadrado. Todas ellas generan unos 40 rayos por km2 y año; como la media para todo el planeta ya dijimos que era del orden de 20, esto significa aproximadamente el doble de rayos. Y es probable que en sitios concretos de esas zonas cálidas del planeta caigan todavía más.

En España, los lugares más tormentosos están en el Pirineo central y algo menos en el oriental, y también el Macizo Ibérico, en la zona común a las provincias de Cuenca, Teruel y Castellón; son regiones con más de 40 días de tormenta al año, en promedio.

En cuanto a los valores extremos de tormentas en el mundo, he aquí algunos datos que quizá ayuden a comprender la enorme irregularidad de este fenómeno.

• Récord de días de tormenta al año: en Bogor (isla de Java) se dieron 322 días de tormenta en el año 1916.

• Máximo número medio de tormentas al año: lago Victoria (África), con un promedio de 251 días de tormenta al año.

• Récord de tamaño de granizo: 1,02 kilos, en Gopalganj (Bangladesh), el día 14 de abril de 1986. La granizada mató a 92 personas.

En todo caso, existen excelentes manuales de climatología que describen, con profusión de datos y análisis científicos, los muy diversos matices que adornan a los diferentes climas del mundo y, por supuesto, de la península Ibérica. Especialmente recomendable resulta el Atlas climático de España y Portugal peninsular, elaborado por las agencias meteorológicas oficiales de los dos países hermanos. Se puede consultar y descargar en la siguiente dirección, de la Agencia Española de Meteorología: http://www.aemet.es/es/web/serviciosclimati cos/datosclimatologicos/atlas_climatico.

En esa misma web, en el apartado de datos climatológicos, se pueden encontrar los diversos valores de los principales observatorios del país desde que iniciaron su andadura: http://www.aemet.es/es/servi ciosclimaticos/datosclimatologicos

3.3.4. Predicción

3.3.4.1. Sistema climático y circulación global

El problema esencial que tienen los conceptos de tipo global es que se aplican al promedio de todo el planeta. Lo que indudablemente oculta muchos errores debido a que quedan fuera del promedio global numerosos detalles sustanciales en las dimensiones de menor escala. La Tierra es muy grande, como lo es la variedad de sus parámetros geográficos —los factores del clima— y la distribución de sus parámetros atmosféricos —los elementos del clima—. Por eso los promedios, que parecen decir mucho, pueden en muchas ocasiones no significar absolutamente nada.

Eso sí, resulta sumamente cómodo poder disponer de indicadores únicos para toda la Tierra —de temperatura, de precipitación, de insolación, de niveles de CO2, de lo que se quiera...— para poder luego operar con ellos en modelos matemáticos.

Sin duda, si se quiere simular el comportamiento de una especie de «clima global» que se pudiera deducir como un promedio de todos los climas del mundo, hay que trabajar con variables igualmente «globales». Pero cabe la duda siguiente, que parece bastante justificada: ¿serán luego aplicables los resultados de ese tipo de estudios «globales» a la pequeña escala de un continente, de un país o incluso de alguna región concreta?

En todo caso, resulta muy sugestiva la idea de una especie de Sistema Climático Global, que en cierto modo podría explicar de manera promediada y matemáticamente comprensible la síntesis del comportamiento de todos los climas del planeta. Pero sugestiva no quiere decir acertada, ni mucho menos precisa. De hecho, no es obvia en absoluto esta noción de sistema cuando se aplica al clima, por muy global que sean los promedios que se utilicen.

La noción de sistema, de manera general, alude a un conjunto estructurado de elementos, objetos u otros componentes, constituidos por variables relacionadas entre sí y que operan por tanto unas con otras formando ese conjunto total, por complejo que pueda acabar siendo. En un sistema físico, las variables son magnitudes físicas entre las cuales se establecen, por ejemplo, unos determinados intercambios de materia y energía.

La idea de Sistema Climático pretende englobar al conjunto de los variadísimos climas del planeta en un todo único que pueda ser luego incluido en un modelo matemático. En realidad, lo que parece realmente difícil es considerarlo como un sistema mínimamente comprensible. Por una sencilla razón: su complejidad y, además, su carácter caótico.

No obstante, el hecho de acudir a los modelos matemáticos que, en cierto modo, simbolizan ese Sistema Global de los climas ha permitido avances bastante notables, aunque hay que seguir cuestionando sus desconocidas y quizá enormes incertidumbres a la hora de analizar sus resultados. Porque resulta esencial recordar algo obvio: un modelo es sólo eso, un modelo. Es decir, una simplificación, una simulación de la realidad... Pero no es real. Y aún menos cuando pretende abarcar plazos de tiempo de decenios, o siglos.

Con todas las cautelas que se quiera, la noción de Sistema Climático fue adoptada oficialmente ya en 1975 por la OMM, que lo define como el conjunto de los componentes siguientes: atmósfera, hidrosfera, criosfera, superficie de la Tierra y biosfera.

La inmensa complejidad del Sistema Climático la sintetizó el meteorólogo Edward Norton Lorenz (1917-2008), padre de la teoría del caos, a un sistema relativamente sencillo de tres ecuaciones diferenciales no muy complejas. Resulta admirable que, hace casi medio siglo, aquella sencillez llevara tan lejos; aunque con enormes incertidumbres aún no resueltas, en cuanto a los resultados. De hecho, Lorenz fue el primero que intentó analizar la predicción climática a partir de flujos deterministas no periódicos, en un trabajo publicado en 1963, lo que acabaría desembocando en la idea del caos y las teorías no deterministas del cambio climático, ya en 1976. Y todavía en 2005 publicó un extenso trabajo sobre el diseño de modelos caóticos. Señal de que el asunto está muy lejos de haber sido zanjado con éxito.

No deja de ser interesante que, como meteorólogo apasionado por los problemas de predicción del clima a largo plazo, Lorenz abordara ya en 1967 el problema trascendental de la circulación general de la atmósfera, en un trabajo que intentaba una aproximación teórica al análisis de lo que podía ser dicha circulación general. Desde aquel trabajo de hace más de 45 años, sólo podemos decir que, a pesar de los indudables avances en los modelos matemáticos del clima e incluso en la identificación de los componentes del supuesto Sistema Climático Global, quizá prematuramente aceptado por la OMM en 1975, en realidad aún no entendemos bien cómo funciona esa circulación global; y eso es algo que ocurre igualmente con muchos otros aspectos relacionados con los climas, tanto en el pasado como los previsibles en el futuro. Es decir, lo que sólo conocemos, y de forma muy imperfecta, son las pautas generales y muy aproximadas por las que el aire se mueve como se mueve, tanto en horizontal como en vertical, a lo largo y ancho del planeta.

En suma, la idea de un Sistema Climático Global reposa sobre un esquema teórico de circulación de la atmósfera igualmente global. Pero por muy complejo que sea el diseño de ese esquema, supone una base que no puede ser más inestable, por no decir casi absolutamente irreal, por escasamente conocida. Y éste es un grave problema de los modelos del clima, en general, y aún más de los expertos que los manejan: explican bien cómo «debe» ser el Sistema Climático Global, pero luego la realidad viene a demostrar, con cierta tozudez, que todo eso no es más que... un modelo. Porque las cosas luego no son como se supone que «debían» ser.

Los modelos climáticos que tienen en cuenta al conjunto de la atmósfera en sus tres dimensiones se denominan Modelos de Circulación General (o Global). La forma de operar consiste en dividir el volumen atmosférico en células paralelepipédicas cuya base, en la superficie, es un rectángulo definido por una determinada latitud y longitud. En cierto modo estas células reemplazan a los píxeles en las modernas imágenes digitales, y se supone que su centro representa el conjunto promediado de las condiciones atmosféricas de toda la porción de atmósfera contenida en la célula.

Es obvia la imposibilidad material de operar punto a punto con toda la atmósfera; las células son, pues, una aproximación inevitable si se quiere que el modelo pueda llegar a ser calculable... Pero eso implica notables errores o incertidumbres no siempre cuantificables por el hecho de considerar que el comportamiento de todo un enorme volumen de muchos kilómetros cúbicos de aire equivale al de un punto central de dicho volumen. O, peor aún, al del promedio de todos los puntos del volumen.

Pretender que el tiempo —y, a la larga, el clima— de todo ese aire está representado por la media de cada una de las moléculas que componen el volumen de la célula quizá fuera como pretender que la luminosidad de un solo píxel puede representar a una parte de la imagen completa de la fotografía. Y no digamos si en ese volumen se produce, por ejemplo, una tormenta; o incluso varias. Esos fenómenos violentos incluyen movimientos convectivos del aire caliente, condensación, evaporación e incluso congelación del agua, movimiento de las gotas y el granizo de arriba abajo en muy diversos viajes que pueden llegar hasta cerca de la estratosfera, rozamiento de todas las partículas y moléculas de la nube hasta establecer inmensos campos eléctricos, descargas entre la nube y el suelo, o entre unas partes de la nube y otras... Un inmenso y complejísimo mundo que no acabamos de comprender del todo y que, desde luego, somos incapaces de reducir a un modelo matemático, por mucha teoría que le echemos. Y lo malo es que las tormentas son imposibles de encuadrar en los modelos de circulación global de la atmósfera porque son fenómenos locales, a veces muy estáticos y casi siempre de escaso tamaño, aunque de mucha potencia concentrada.

Los expertos se zafan de esta dificultad estableciendo reglas empíricas en forma de parámetros numéricos muy diversas —cada grupo de expertos introduce los suyos, por lo que sus predicciones no siempre coinciden—. Esos parámetros se supone que emulan y resumen el efecto global de esas tormentas año tras año. Pero son sólo una abstracción teórica más, una aproximación conjetural que, innegablemente, constituye una nueva fuente, otra más, de incertidumbre.

Quizá uno de los principales defectos de esa forma de trabajar, y por tanto de los famosos informes de la ONU, consista en otorgar mayor credibilidad a los modelos matemáticos que a la realidad multiforme y poco comprensible de los miles de climas existentes en el planeta. Y lo que aún suena peor, hacer todo lo posible por forzar la realidad para que se ajuste a los modelos, cuando hacer lo contrario sería lo más correcto.

Porque no hay que olvidar que está ahí, desde hace ya casi medio siglo, el caos que definió Lorenz. La noción de caos no es muy fácil de comprender. Aunque es un concepto frecuente en el lenguaje común, en física no tiene el mismo sentido que en el lenguaje literario corriente, que lo asimila a algo desordenado, confuso. Pero en física, el caos tiene que ver con el hecho de que una transformación ofrezca resultados muy dispares a poco que varíen, incluso muy poco, las condiciones de partida. Lorenz lo aplicó a la atmósfera, cuyos cambios son difíciles de predecir precisamente porque dicha evolución (del tiempo a corto plazo, del clima a largo plazo) es extremadamente sensible a pequeñas diferencias de los datos iniciales respecto a los datos realmente existentes.

Esta noción de caos se hizo pronto famosa entre los especialistas y, lo que es ya más curioso, tuvo un notable éxito mediático. Quizá debido a la broma del «efecto mariposa», que Lorenz explicaba con humor a los periodistas en los años setenta.

Lo que los trabajos de Lorenz pusieron de manifiesto es algo finalmente bastante simple: el Sistema Climático, considerado en teoría como un todo global en el planeta Tierra, se comportaba como un sistema caótico. Lo que viene a significar que las matemáticas que podríamos utilizar para describirlo, y aún más para predecir sus variaciones futuras, serían sólo aproximadas y sujetas a incertidumbres cuya magnitud ni siquiera somos capaces de evaluar con precisión.

El determinismo en ciencia es una de las más trascendentales aportaciones del intelecto humano; nos permite, por ejemplo, comprender que, cuando existe una relación de causa a efecto, es posible conocer

EL EFECTO MARIPOSA

Esta apelación, derivada de una imagen paradójicamente exagerada de Lorenz, se ha hecho muy famosa por múltiples razones, la mayoría de ellas alejadas del sentido inicial que le quería dar el científico. Sin querer, le había regalado al mundo no científico una de esas frases afortunadas y universalmente conocidas, que al final tienen muy poco que ver con la ciencia. Lo mismo que el famoso «todo es relativo» con el que muchas personas identifican, no hace falta decir que erróneamente, la obra de Einstein... La frase fue más o menos la siguiente: «el vuelo de una mariposa en Australia puede provocar un ciclón tropical en el Caribe un año más tarde». Lorenz quería ilustrar, sin duda, el desconcertante efecto que, a largo plazo, puede tener una mínima variación de las condiciones iniciales en un sistema caótico. Sin el levísimo aleteo de la mariposa no habría ciclón tropical; con el levísimo aleteo del lepidóptero, puede haberlo... o no.

Ese «... o no» expresan claramente que, además de la hipersensibilidad a las pequeñas variaciones de las condiciones iniciales, propia del caos, también hay que sumar la ignorancia que tenemos acerca de la evolución de esos sistemas caóticos a largo plazo; como los climas.

Un buen ejemplo podría ser dejar una pelota con cuidado sobre la línea divisoria de las dos vertientes de un tejado: la pelota cae hacia uno u otro lado de manera irregular, sin que haya una dirección predominante por mucho cuidado que pongamos al colocarla exactamente en el vértice. Lo único que la hace ir a uno u otro lado es la posición inicial, que en cada intento es levísimamente diferente del anterior aunque nos esforcemos en ponerla exactamente en esa línea central del tejado. Ocurre lo mismo en todos los procesos en los que unos cambios minúsculos al inicio conducen a resultados muy divergentes. Quizá Lorenz se inspiró en un antiguo proverbio chino que dice que «el aleteo de una mariposa se siente al otro lado del mundo».

Seguro que Lorenz, cuando habló del efecto mariposa, nunca imaginó la influencia que esa expresión iba a tener sobre la cultura de nues-tros días. Sin relación alguna con el fenómeno matemático inicial, claro. Veamos sólo algunos ejemplos, aunque hay muchos más.

Tres películas norteamericanas han llevado por título El efecto mariposa: 1, 2 y 3 (los guionistas fueron Eric Bress y Jonathan M.Gruber, y las películas aparecieron sucesivamente en 2004, 2006 y 2009); también una película española de 1995, dirigida por Fernando Colomo, con María Barranco y Coque Malla, se llamó así: El efecto mariposa. La española tenía muy poco que ver con la teoría del caos, aunque sí con el caos de la vida del joven protagonista que se va a casa de una tía a Londres a estudiar, y allí pasa lo que pasa. Las tres películas norteamericanas, en cambio, abordan el asunto desde la óptica de la fantasía-ficción, con viajes en el tiempo y enormes cambios en el mundo futuro a poco que las visitas al pasado modifiquen algo, aunque sea mínimamente.

Otro guión, esta vez de Ray Bradbury, sirvió de base para la película El ruido del trueno, en 2005; unos viajeros en el tiempo matan unamariposa prehistórica y cuando vuelven al presente se encuentran con un mundo totalmente desconocido. Un capítulo de Los Simpson parodiaba el guion de Bradbury, cuando Homer, arreglando una tostadora, consigue fabricar una máquina del tiempo; mataba un insecto muy antiguo y luego, al volver, se encontraba con un mundo diferente. Y en la novela de Isaac Asimov llamada El fin de la eternidad aparece una dimensión especial habitada por unos «Eternos» que cambian la historia en sus viajes por el tiempo, intentando mejorar el mundo a base de «cambios mínimos necesarios». Incluso en la música moderna deja su impronta la dichosa mariposa; el grupo británico Muse, en su álbum Absolution, hizo famosa una canción, en 2003, en la que mezclaba una influencia clásica con la música alternativa más moderna; y se llamaba, como por casualidad, Butterflies and Hurricanes, o sea «Mariposas y huracanes».

—a partir de un proceso regulado y explicable desde el punto de vista matemático— cuál será la solución final tras la transformación originada por ese proceso. Pero cuando son muchas las variables que intervienen, y se aplican a innumerables elementos de tamaño muy reducido, en cuya estimación matemática de la posición inicial encima es seguro que siempre se comete algún error, por pequeño que sea, entonces nos enfrentamos a una imposibilidad real de conseguir ese determinismo puro.

Y a eso es a lo que nos enfrentamos cuando queremos aplicar a cada uno de los elementos puntuales de la atmósfera (por ejemplo, cada molécula de los gases del aire) su propia fórmula matemática representativa del proceso que originará la situación final... ¡para cada una de esas moléculas! ¿Por qué? Sencillamente, porque no se comportan igual las moléculas de dióxido de carbono, de vapor de agua, de nitrógeno o de cualquier otro constituyente básico del aire, sea gas, líquido o sólido.

¿Cómo sería posible llegar a ese grado de detalle?

Y, además, ¿cómo conocer con precisión el proceso físico, y por tanto la ecuación matemática, que regula los diversos procesos de transformación?

Finalmente, ¿cómo integrar ese número casi infinito de ecuaciones y procesos elementales en un proceso global y, además, a largo plazo?

Así planteado, todo ello suena imposible. Y seguramente lo es si lo que se busca es una precisión milimétrica, exacta, una predicción absolutamente perfecta, determinista. Pero la física sabe bien que la abstracción matemática conduce a una perfección que, en la vida real, nunca se alcanza: el mundo real no es matemáticamente perfecto. Y entonces los físicos tienen que negociar con ellos mismos, y aceptar simplificaciones y atajos que, al final, conducen a soluciones aproximadas. Con un error relativo siempre presente, que se intenta reducir todo lo que se pueda.

Ésa es la razón última por la que en el mundo real ni siquiera los más perfeccionados sistemas y logros científicos o tecnológicos estén exentos de alguna posibilidad de fallo o de error. El riesgo de que cometamos un error, por pequeño que sea, siempre existe. No existe riesgo cero; es un mito en el mundo real, aunque no lo sea en el abstracto mundo de las matemáticas. Aunque, desde luego, necesitamos a las matemáticas para comprender el mundo real... siempre que no olvidemos que los resultados serán siempre más o menos aproximados. En el caso del caos, ni siquiera sabemos cómo de aproximados...

Veamos un ejemplo muy ilustrativo de la influencia del caos en modelos matemáticos de la temperie, no del clima. Suena más fácil, porque los plazos son de días, no de muchos decenios. Pero aun así...

Ya dijimos que en el caso de la temperie a corto plazo muchas incertidumbres se podían corregir bastante bien en un porcentaje alto de los casos... si el plazo de la predicción es lo bastante corto. Aun así, ni siquiera en plazos de predicción muy cortos se llega al cien por cien de fiabilidad; pero en cuanto el plazo de predicción se va más allá de unos cuantos días, la incertidumbre crece exponencialmente. El ejemplo gráfico que sigue ilustra bien la influencia del caos en la predicción meteorológica a corto plazo. El mapa que mostramos a continuación es el que corresponde al nivel de 500 HpA; están trazadas sólo las isohipsas de 5.760 metros de altitud (al sur), 5.520 (en el centro), y 5.160 (al norte).

Se trata de una predicción a tres días realizada por el servicio meteorológico alemán el 4 de octubre de 2012 a las 00h, válida para el 7 de octubre a las 0.00 horas. Como puede verse, los distintos modelos (cada uno de ellos representado por una línea de color diferente) coinciden bastante bien: las diferencias son muy pequeñas entre unos y otros, y los diferentes sistemas aparecen muy bien delineados. Eso no quiere decir que la realidad se ajustara exactamente a esto que se predecía tres días antes, pero al menos los distintos modelos coincidían de forma más que ajustada.

Pero esa misma predicción, y con los mismos modelos matemáticos para un plazo de diez días (en este caso, el 14 de octubre de 2012), muestra un aspecto completamente diferente: el trazado de las isohipsas difiere enormemente según los distintos modelos. Que, en cambio, habían coincidido muy bien en el corto plazo.

¿Qué consecuencias podemos extraer de este sencillo ejemplo? En primer lugar, que la predicción del tiempo sólo es fiable a corto plazo, máximo dos a cuatro días; no del todo fiable, desde luego, pero al menos casi todos los modelos coinciden en apuntar hacia una misma predicción. En segundo lugar, que cuando el plazo se amplía a más de una semana se hace patente de forma absolutamente evidente el caos: nadie podría negar que la segunda figura representa bien el caos literario, pero también el matemático...

Es un ejemplo, repitámoslo, sólo meteorológico, que pretende predecir el estado de la atmósfera en un plazo corto, unos días. Pero ¿qué ocurre si pretendemos predecir el clima a largo plazo, treintenios, siglos...? Obviamente, las cosas se complican mucho porque nuestro conocimiento de los climas es difuso y bastante imperfecto, y si lo abstraemos en un Sistema Climático Global, es escasamente representativo de la realidad. Aquello que definía en latín Peixoto, y que podría resumirse en: «sé lo que es el clima, siempre que no me pidan que lo explique»...

La imprecisión inicial a la hora de estimar los climas actuales como un todo es la que hace muy difícil, debido al caos, que podamos obtener buenas predicciones a largo plazo.

3.3.4.2. Datos reales y estadísticas: la tentación informática

En todas las cuestiones relativas a los climas y sus cambios existe una variable que suele pasar completamente desapercibida, porque nadie la cita ni para evaluarla ni aún menos para descalificarla: la calidad estadística de los datos utilizados. Es decir, la adecuación a la realidad de los datos usados en los cálculos.

Se supone que los datos medidos, y luego promediados, son excelentes y por eso se usan en los modelos. La calidad de esos índices estadísticos se da por verificada, sin más. Aunque sepamos que su calidad depende precisamente de la forma en que fueron obtenidas las series largas de datos (con las que se calculan luego los promedios climáticos) en observatorios no homogéneos ni en el tiempo ni en el espacio. Esos datos han sido, además, posteriormente tratados matemáticamente —para rellenar huecos o eliminar datos poco creíbles—, y finalmente depurados y transformados en índices teóricos mediante herramientas estadísticas a menudo complejas —ajustando parámetros, por ejemplo— que permiten obtener ese «destilado» final, útil para el análisis y el posterior cálculo en el modelo de predicción climatológica.

El hecho es que la climatología moderna, al menos la parte que se dedica al estudio de la evolución de los climas en el pasado y en el futuro, tiene mucho más de matemáticas que de geografía. Su «arte» consiste en saber tratar de la manera más eficaz posible los datos en bruto obtenidos en los observatorios, utilizando como complemento de referencia —en general, otorgándole un valor numérico en forma de parámetros diversos— el análisis geográfico directo de los elementos (lluvia, temperatura, etc.) y, sobre todo, los factores (latitud, altitud, etc.) del clima.

Quizá eso se deba a que muchos climatólogos modernos son más bien físicos con una buena base matemática, que geógrafos con una buena base estadística pero escasos conocimientos de física. Todo ello propicia una especie de tentación matemática, que realmente se basa cada vez más en la informática, mediante la cual parecería más importante el proceso de cálculo —con sus inevitables simplificaciones posteriores a la hora de manejar las complejas leyes físicas que intervienen en el proceso climático— que el propio dato en sí, obtenido con mayor o menor fiabilidad. Lo que conduce a la necesidad casi compulsiva de retocar los datos en bruto —en inglés, raw data— y hacerlos estadísticamente más creíbles o lógicos, antes de ser luego utilizados en los modelos.

Un trabajo presentado en un congreso de hidrogeología, celebrado en Viena en la primavera de 2012, por un grupo de especialistas griegos en torno a los datos reales y los datos depurados —en este caso, homogeneizados— de las mejores series estadísticas utilizadas por los estudios del IPCC, llegó a la conclusión de que esa depuración de los datos en bruto condujo a una sobreestimación del calentamiento final ¡de casi el doble! Lo que les llevó a calcular que la elevación térmica global a lo largo del siglo XX fue de sólo 0,42 ºC en lugar de los oficiales 0,76 ºC del IPCC.

El trabajo, como todo lo que hacen los investigadores, ha de ser sometido a crítica y posteriores análisis por otros colegas, aunque los datos son difíciles de desmentir. En todo caso, si citamos este reciente estudio de los hidrogeólogos griegos, sean del todo ciertas o sólo en parte sus conclusiones, es importante porque pone el dedo en la llaga de eso que estamos llamando la calidad estadística de los datos, la tentación informática de los expertos en modelos. Lo que subyace en ese y otros trabajos es una severa crítica a los famosos datos homogeneizados, a los índices calculados a base de modificar los datos en bruto, el uso abusivo de proxies...

Esto de los proxies requiere una pequeña aclaración; cuando no se tienen datos de muchos lugares del mundo, tanto actuales como sobre todo del pasado, los científicos acuden a estimaciones indirectas, generalmente de tipo histórico, como las que vimos en su momento. Pero, una vez más la tentación informática, los expertos en modelos necesitan cifras para calcular, no estimaciones históricas. Y convierten entonces esa información puramente histórica y descriptiva en números mediante una aproximación numérica, en inglés proxy. El caso de los anillos de los árboles se presta muy bien, por ejemplo, para obtener datos numéricos de temperatura del pasado... transformando el ancho, la forma y otras informaciones obtenidas de esos anillos en cifras de temperatura. ¿Inventadas? No, son proxies, aproximaciones virtuales que se supone que representan las temperaturas reales. Se supone... No, lo suponen los autores.

¿Cuál es la calidad estadística de una serie que mezcla datos reales medidos con termómetros y datos numéricos estimados mediante proxies? Pues, como mínimo, dudosa.

Otras voces se habían alzado ya para criticar la forma en que la estadística, como especialidad matemática, es deficientemente utilizada por los científicos que defienden el supuestamente explosivo cambio climático actual. De hecho, ya en 2006 y a petición del Congreso norteamericano se elaboró un informe oficial, cuyos autores «pro-bono» fueron tres estadísticos, que analizaba la polémica en torno al famoso gráfico en forma de palo de hockey, núcleo central de las tesis recientes del IPCC, que aparecía en un trabajo de Michael Mann, Raymond Bradley y Malcolm Hugues, en 1998. Analizaremos esta controversia en la cuarta parte del libro. Lo que aquí nos importa es la vertiente «estadística» de ese conflicto, como ejemplo de la dificultad que entraña manejar muchos datos numéricos cuyo origen no siempre está bien determinado, o simplemente no es suficientemente representativo de lo que se busca representar.

En informe del Congreso norteamericano o Informe Wegman, fue dirigido precisamente por Edward Wegman, un prestigioso profesor de estadística, que pasa por ser uno de los que mejor currículo tiene y es director del Centro de Estadística Informática de la Universidad George Mason, en Washington, además de presidente del Comité de Estadística Teórica y Aplicada en la Academia Nacional de Ciencias. Se puede consultar el resumen final de aquel trabajo en varias webs; por ejemplo, http://www.uoguelph.ca/~rmckitri/research/Wegman Report.pdf.

En lo esencial, ese informe ponía de manifiesto la pobreza de los datos —por su escaso número y por su mala representatividad global— utilizados por Mann y sus colegas para estimar las temperaturas de los siglos anteriores al XIX, y criticaba especialmente el uso abusivo de ciertos proxies de anillos de árboles a partir de los cuales se deducían datos numéricos de temperatura y lluvia de todo el planeta cuando sólo eran de una pequeña zona subpolar del hemisferio norte. Lo inaceptable de este asunto es que a Wegman le hayan intentado hacer la vida imposible por haber osado poner en cuestión un trabajo que fue esencial para las conclusiones del IPCC, propiciadoras del enorme negocio del comercio de emisiones de CO2, por no citar las posibilidades económicas del futuro de la energía nuclear —y del hidrógeno, de las renovables, de la recaptura del dióxido de carbono y de otros nuevos sistemas energéticos o de «descarbonización» de la industria.

Ay, la economía y la política... contra la ciencia. Mal maridaje, sí.

El IPCC no es sagrado, y sus informes y estudios pueden y deben ser criticados desde el punto de vista científico, cuando habla de ciencia, y matemático, cuando se expresa en términos estadísticos. Por ejemplo, es muy criticable el uso que hace en sus informes de expresiones tales como «resulta muy probable» cuando se refiere a análisis que en realidad son más bien dudosos, por no decir indeterminados... Por ejemplo, una frase repetida machaconamente en los informes 3 y 4 es la siguiente: «The temperature increases that we have been experiencing are likely to have been the largest of any century during the past 1,000 years» ; es decir, el incremento de temperatura que hemos estado experimentando es muy probable que haya sido el más alto producido en cualquiera de los siglos de los últimos mil años. Muy probable suena a... casi seguro. Y eso es lo que han puesto desde entonces todos los periódicos del mundo. Pero el propio IPCC explica lo que entiende por is likely to: significa una probabilidad de más del 66 por 100 de ser cierto, o sea muy probable. Por supuesto, esa probabilidad no se calcula; es lo que estiman los autores sin ofrecer los datos en los que la sustentan. Aun así significa que ellos estiman, sin decir por qué, que lo que afirman es cierto en dos de cada tres casos.

¿Y eso es estar casi seguros? Más bien suena a abuso de lenguaje.

En cierto modo, estos problemas estadísticos se producen igualmente cuando se pretende reducir el conjunto de los climas —el inmenso y extenso mosaico de climas del planeta— a un único Sistema Climático Global. El problema quizá fundamental es el concepto «global» cuando se aplica a la temperatura, la precipitación o cualquier otra variable. Por ejemplo, ¿qué sentido real tiene decir que la temperatura media global del planeta es del orden de 15 grados? Obviamente ninguno; sin embargo la temperatura global es probablemente el dato más famoso de todo este asunto del cambio climático, y ha dado lugar al fantasma cuasiapocalíptico del «calentamiento global».

Algunos trabajos científicos, procedentes del mundo matemático y estadístico más que del mundo de la física, ponen el acento en esta cuestión. Uno de ellos apunta directamente, y diríamos que con bala, al concepto de temperatura global. El trabajo fue publicado en 2007 por la revista Journal of Non-Equilibrium Thermodynamics, Revista de Termodinámica en Desequilibrio; estaba firmado por Essex (matemático de la Universidad de Ontario, en Canadá), Andresen (del Instituto Niels Bohr de la Universidad de Copenhague) y una vez más McKitrick (economista estadístico de la Universidad de Guelph, en Canadá). El trabajo, titulado «¿Existe el concepto de temperatura global?», argumenta que existen fundamentos observacionales, físicos y matemáticos que permiten demostrar que no tienen ningún sentido físico las temperaturas medias globales de la Tierra utilizadas en el contexto del calentamiento global antropogénico; más claro, agua. Puede encontrarse en: http://www.uoguelph.ca/~rmckitri/research/global temp/GlobTemp.JNET.pdf.

Pero es que, claro, los conceptos globales son tentadores porque permiten un tratamiento estadístico masivo de una enorme cantidad de datos, gracias a los potentes ordenadores actuales. Por eso es fácil caer en eso que hemos llamado la tentación informática. El formidable desarrollo de los sistemas de cálculo electrónico, con una creciente capacidad de cálculo de las máquinas y una imparable mejoría en la complejidad de los programas que se usan en ellas, han propiciado el desarrollo acelerado de la predicción numérica en las ciencias de la atmósfera.

Hace ya varios lustros que se estableció en Reading, Reino Unido, el Centro Europeo de Predicción a Plazo Medio (CEPPM, cuyas siglas inglesas son ECMWF; la web es www.ecmwf.int). Es una organización integrada por 34 estados, en directa colaboración con la Comisión Europea, que se dedica a las predicciones meteorológicas a medio y largo plazo, y a la explotación de los últimos avances en modelización informática con fines científicos. Realiza todo tipo de trabajos pero ha conseguido una sólida reputación sobre todo en la predicción a varios días vista, hasta una semana, incluso con un límite máximo de diez días. También realiza avances estimativos a un mes de plazo, y los resultados comienzan a ser bastante estimables, aunque son globales y poco precisos espacialmente (se limitan a indicar grandes regiones donde lluvias y temperaturas pueden estar por encima, igual o por debajo de lo normal). Todo ello podía parecer ciencia ficción hace sólo tres o cuatro decenios, cuando la predicción meteorológica a más de tres días se acercaba ya mucho al cara o cruz del puro azar.

Pero debe quedar claro que estos modelos matemáticos del CEPMM son modelos meteorológicos, no climatológicos. Se usan para predecir el tiempo a unos cuantos días vista, y tienen una resolución muy superior a los climatológicos porque se realizan para regiones concretas, no para el conjunto del planeta. Son modelos meteorológicos regionales, no modelos climatológicos globales, de los que más adelante trataremos.

Lo que queríamos subrayar aquí es que el éxito de la informática para resolver problemas de la predicción de la temperie a corto plazo ha propiciado un uso quizá abusivo de esa misma informática para la predicción climatológica a muy largo plazo. Por supuesto, ni la metodología ni las ecuaciones son las mismas, pero la tentación de los climatólogos es asumir que los resultados informáticos a largo plazo pueden ser igual de fiables que los resultados meteorológicos a corto plazo. Pero eso no es cierto; los modelos matemáticos del clima global son esencialmente imperfectos. Y ese clima global, un caos.

3.3.4.3. Modelos matemáticos: los límites de la predictibilidad

Todo lo que hemos comentado acerca de los modelos, aplicados tanto al tiempo como al clima, tiene un aspecto más bien agridulce: es la mejor herramienta de la que disponemos, su evolución ha sido impresionante desde aquellos primeros balbuceos de hace un siglo, el progreso tecnológico en las máquinas informáticas para calcularlos ha sido aún más impresionante, desde aquella primitiva idea de calculadoras humanas de Lewis Fry Richardson, o desde los primeros ordenadores de hace medio siglo...

Pero esos modelos siguen siendo —habría que añadir, lamentablemente— demasiado susceptibles al caos, de modo que su funcionamiento, y sus resultados, apenas son válidos más que para unos cuantos días, en meteorología. Eso es algo que podemos verificar una vez transcurridos esos días, claro. El problema surge con la verificación de los modelos del clima: sus predicciones a muchos decenios vista no podremos verificarlas nunca... ¿Cuántos científicos que hoy viven seguirán existiendo dentro de un siglo, incluso dentro de cincuenta años?

Por otra parte, los modelos matemáticos toman como datos de partida unos datos del clima que o bien son estimados —con enorme incertidumbre, que podemos difícilmente cuantificar con un mínimo de precisión— o son obtenidos calculando promedios de datos meteorológicos, insuficientes en número y en calidad, y poco representativos por tanto del conjunto del planeta.

Finalmente, las ecuaciones matemáticas —que se supone que representan los cambios del teórico Sistema Climático Global en plazos de muchos decenios— son imperfectas porque reflejan la realidad con ciertos errores difíciles de detectar, y con más que notables simplificaciones cuya finalidad es poderlas calcular con los ordenadores actuales. Que son muy potentes, sí; pero que jamás podrían hacer esos cálculos con ecuaciones más complejas, o bien con muchos más datos correspondientes a muchos más lugares y de tamaño más reducido.

Con la predicción de los cambios climáticos del futuro pasa lo mismo que con todas las demás predicciones que intenta realizar el ser humano, y no sólo en el campo científico; queremos saber con la mayor probabilidad de acierto posible qué va a ocurrir, pero también muchas otras cosas: cómo va a ocurrir eso, cuándo, dónde, con qué consecuencias, etc. Todo ello exigiría conocer con precisión la evolución de un enorme número de variables, su forma de cambiar con el tiempo y el resultado final de todos esos desarrollos en diversos momentos del futuro. Y tanto para zonas extensas como para regiones mucho más localizadas pero de enorme interés (por ejemplo, zonas turísticas o de deportes de invierno).

Enfrentarse a eso es también desalentador. Los modelos no saben hacerlo, ni probablemente sabrán hacerlo nunca. No obstante, eso es precisamente lo que los políticos de la ONU le piden al IPCC, es decir, a los científicos en los que se basan los informes de dicho Panel Intergubernamental.

En suma, no tenemos demasiada idea de cómo serán los climas futuros excepto que, en esencia, seguirán pareciéndose mucho, a grandes rasgos, a los actuales.

¿Cómo? ¡Pero si eso es exactamente lo contrario de lo que dice el famoso «consenso»! Será una broma, ¿no?

Pues no, nada más cierto, por mucho que todo el mundo asuma que estamos en pleno cambio climático catastrófico y generalizado que no hace más que crecer y crecer. Lo dicho es, en esencia, irrebatible, incluso a la luz de los peores augurios del IPCC: «a grandes rasgos, los climas seguirán siendo bastante parecidos a los actuales».

Por ejemplo, los climas tropicales del planeta seguirán siendo tropicales, y es seguro que no van a ser climas polares o, sin irnos tan lejos, climas templados fríos como, por ejemplo, los del norte de Europa o Estados Unidos. Y así sucesivamente...

Tampoco los mares subirán cientos de metros ni arrasarán Nueva York o las costas del Mediterráneo español, por mucha película catastrofista que hagan los magnates de Hollywood o los ecologistas de Greenpeace. De hecho, incluso en el caso —altísimamente improbable, que no predicen ni los más delirantes auspicios ecologistas— de una fusión completa de todos los hielos del planeta (eso es algo que no ha ocurrido desde hace muchísimos millones de años), el nivel medio del mar subiría en conjunto unos 70 metros. Sería un horrible drama, desde luego, si ocurriera de golpe; pero si es dentro de millones de años, pues...

Lo que nos preocupa, pues, es la posibilidad de cambios climáticos... muy pequeños. Y en climas que, en esencia, serán parecidos a los actuales a grandes rasgos, algo más cálidos o no, algo más secos o no... Pero muy similares.

Porque la catástrofe de la que tanto se habla respecto a la subida del nivel del mar es de unos pocos milímetros por año en promedio... cuando las mareas hacen subir dos veces al día el nivel del mar varios metros—. O del calentamiento en décimas de grado al siglo respecto a una hipotética temperatura global del planeta... cuando hay sitios en los que en un solo día la temperatura varía más de veinte grados. O...

¿Que no es lo mismo un promedio a largo plazo que una variación diurna? Por supuesto que no. Pero en cuanto a las consecuencias sobre los ecosistemas costeros o sobre los seres vivos, humanos incluidos, quizá sí que lo sea. ¿Cómo pueden estar tan seguros que cualquier cosa que cambie, incluso poco, va a ser peor que lo que había antes?

También se aduce que los extremos se van a agudizar, que habrá menos nieve en las montañas en invierno (para el esquí, un lujo exclusivo de los países ricos), que no habrá agua potable para beber (alguien parece ignorar que existen las desaladoras), y toda una serie de cosas así, incluyendo la invasión de plagas tropicales en los países de clima templado.

Pero lo peor de todo esto es que precisamente lo más complicado de predecir es el comportamiento de la humanidad en los próximos decenios o siglos. Es demasiado fácil asumir que los humanos haremos más o menos lo mismo que ahora dentro de un siglo. No hay más que echar la vista atrás y observar lo que hacíamos, y cómo lo hacíamos, hace un siglo. Las diferencias con lo que ahora hacemos son enormes... ¿Cuál será, pues, la influencia de ese comportamiento humano —en todos los órdenes de la vida, desde el industrial hasta el lúdico, pasando por el cultural y educativo, el comercial, el costumbrista, el sanitario... — en los climas futuros? Nadie lo sabe; a pesar de que se trata del factor esencial de lo que ocurra en ese futuro lejano.

Sin ir más lejos, hace un siglo éramos menos de la sexta parte de seres humanos que hoy, lo cual ya es un dato sustancial. Y no teníamos coches, luz eléctrica, aviones, Internet, bombas atómicas, teléfonos móviles... ¿Qué tendremos dentro de un siglo, a la velocidad que van la ciencia y la tecnología, contando además con el crecimiento de la población, sobre todo en Asia?

Para hacer predicciones climáticas no sólo hay, pues, que estimar en los modelos la evolución termodinámica de la atmósfera en función de ciertos elementos cuya variación suponemos que será de una u otra forma. Pero no hay sociólogo —ni, ya puestos, novelistas de ficción— capaz de predecir cómo se comportará la humanidad en los próximos decenios, tanto para lo bueno como, sobre todo, para lo malo. Corea del Norte ensayó, en febrero de 2013, su tercera bomba atómica, mucho más potente que las anteriores. ¿Se atreve alguien a decir que es imposible una guerra nuclear entre las dos Coreas? O, ya puestos, entre India y Pakistán por el problema de Cachemira; o entre Irán e Israel, o entre... Y que nadie lo dude, eso tendría consecuencias dramáticamente peores que cualquier incremento de gases invernadero que uno quiera imaginar.

Ciertos escenarios de futuro nos pueden parecer hoy más o menos lógicos, pero siempre estarán rodeados de enormes incertidumbres. ¿Seguiremos consumiendo carbón y petróleo hasta que se acabe? ¿Y cuándo se vayan acabando esos combustibles, qué vendrá? ¿Aparecerán nuevos desarrollos tecnológicos, inimaginables hoy, para obtener energía o alimentos sin tasa? ¿Serán por fin los pobres menos pobres y los ricos menos ricos, o por el contrario los ricos seremos cada vez menos en proporción y habremos de defendernos dentro de guetos ultradefensivos?...

Bueno, todo esto suena a ciencia ficción. Quizá sí, pero si bien se mira no es más que una pequeña muestra de la impotencia que nos invade cuando pensamos en el futuro de la humanidad, antes que en el del planeta.

Por eso, aunque tuviéramos las mejores herramientas de cálculo y las mejores y más complejas teorías físicas para explicar el comportamiento atmosférico, jamás podremos incluir en nuestros modelos matemáticos unos elementos de tipo humano que ni siquiera podemos imaginar. Pero que influirán poderosamente, nadie lo dude, en el devenir de los climas futuros. Y eso sin contar con las cosas del futuro que también ignoramos, no ya acerca del comportamiento humano en temas energéticos, sino en muchísimas otras cuestiones como la deforestación, el uso del suelo, los transportes del futuro, las guerras y sus armas, la propia demografía, las posibles pandemias, las crisis económicas brutales propias de la voracidad del capitalismo, los consumos masivos de bienes y servicios aún por inventar, las nuevas tecnologías aún no puestas en marcha...

El geógrafo especializado en climatología Tim Ball escribió en 2011 un curioso artículo en torno a los modelos informáticos de predicción, diciendo que son «la perdición (bane, en inglés) de la sociedad moderna». Introducía el caso de Alan Greenspan, que fue presidente de la Reserva Federal norteamericana, quien afirmó en su comparecencia ante un comité del Congreso de Estados Unidos que el problema de la crisis económica actual sólo obedecía al hecho de haber utilizado unos modelos matemáticos que parecían funcionar bien desde hace casi cuarenta años y que, de repente, fallaron estrepitosamente.

Por supuesto, Greenspan no se atribuyó responsabilidad alguna como regulador —en nuestro país, tampoco el Banco de España supo detectar problema alguno en unos bancos y Cajas de Ahorro que luego resultaron estar casi en la ruina—. La culpa era exclusivamente de los modelos; en inglés, los llamó GIGO (Garbage in Garbage Out, o sea «basura dentro, basura fuera»), que significa que la basura sirvió y ahora ha dejado de servir).

Vale, señor Greenspan; ¿pero quién fue el que metió esa basura dentro del modelo, quién decidió lo que ocurría con esa basura cuando el modelo daba buenos resultados, quién decidió qué hacer con la basura una vez que fue sacada fuera del modelo porque de repente ya no servía? Y, en última instancia, ¿quién decidió basarse en exclusiva en unos modelos que sólo eran eso, modelos llenos de basura potencial?

Bien, pues en el caso del clima, lo que Ball y muchos otros llevan advirtiendo desde hace años es que los especialistas en modelos se han dejado deslumbrar por los resultados matemáticos de sus predicciones, de un modo similar al de los economistas. Y otorgan una excesiva credibilidad a esos resultados, creyéndoselos casi como si fueran hechos consumados... pero del futuro. Lo cual resulta, en el fondo, bastante risible.

No es difícil poner de manifiesto el asombroso doble lenguaje del IPCC, cuando en su primer informe de 1992 afirmaba que «los escenarios de futuro no son predicciones y no deberían ser usados como tales», mientras que en informes sucesivos dice: «los escenarios de futuro son imágenes de ese futuro o son futuros alternativos, aunque no son ni previsiones ni predicciones». O sea, que los modelos ofrecen imágenes del futuro, o futuros alternativos, pero no son predicciones... Entonces, ¿qué son, ciencia ficción?

Lo cierto es que los modelos serán tan precisos en sus resultados como lo puedan ser los conocimientos que tengamos acerca de los diversos mecanismos que controlan o modulan las veleidades atmosféricas, tanto a corto como a largo plazo. Y de eso andamos más bien escasos; ya lo hemos visto.

En una conferencia sobre modelización climática celebrada en 2008 en Reading, Reino Unido, sede del Centro Europeo de Predicción a Plazo Medio, uno de los principales expertos de dicho organismo, Tim Palmer, quien además es hoy presidente de la Real Sociedad Meteorológica británica, declaró textualmente: «No quisiera minar el trabajo del IPCC, pero sus predicciones, especialmente para los cambios de clima regionales, son muy inciertas».

Palmer no criticaba al IPCC por su trabajo —él mismo es un miembro destacado de su panel de autores— sino por otorgarle a sus predicciones una credibilidad excesiva, debido a que podrían estar basadas en los resultados de unos modelos matemáticos todavía insuficientes como para dar resultados fiables. Y afirmaba que cuando esas predicciones fallen —de hecho parecen ya estar fallando desde que empezó el siglo XXI, y eso fue el origen del escándalo del Climategate que analizaremos en la cuarta parte—, eso podría destruir buena parte del trabajo realizado para alertar al mundo en contra del desperdicio energético en el que se basa el desarrollo industrial.

Es difícil no estar de acuerdo con Tim Palmer.

Con todo, los modelos actuales tienen mucha ciencia detrás. Otra cosa es que eso sea suficiente como para tomarlos por oráculos casi infalibles, que es la impresión que dan los expertos de la órbita del IPCC. Por ejemplo, si queremos determinar cuánto se calentará el planeta al doblarse la concentración en la atmósfera de los gases invernadero, los modelos que se utilicen deben considerar de qué modo ese cambio de temperatura, que se supone de tendencia progresiva aunque con altibajos año tras año, puede modificar en ese recorrido otros parámetros climáticos o biológicos, que a su vez acabarían retroalimentando, positiva o negativamente, a esas variaciones de temperatura. Esos fenómenos de retroalimentación pueden estar conectados entre sí, y por tanto se podría establecer algún tipo de ecuación que los ligara, o bien podrían tener entre sí comportamientos caóticos al ejercer su influencia mutua; incluso, en última instancia, podrían no tener nada que ver los unos con los otros.

Pero es que todo eso lo ignoramos. Y no sabemos por tanto cómo incluirlo en las ecuaciones de los modelos. Lo que significa que la incertidumbre final de los resultados no puede ser pequeña, por mucho que los expertos se empeñen en decir que existe una ciencia «robusta» en torno a estas cuestiones (lo dice textualmente el IPCC). O sea, que afirmar, sin más, que doblar el CO2 implicará un calentamiento global de dos grados, como lo hacen ahora los expertos, es más bien una especie de brindis al sol. Y aún más lo es afirmar que si se sobrepasan esos dos grados de más las cosas se desmandarán de tal forma que el mundo será poco menos que inhabitable. Pero todo eso, ¿cómo lo saben? Los modelos no pueden afirmar tal cosa; simplemente, porque son absolutamente incapaces de hacerlo.

Hasta ahora nos hemos referido esencialmente a la escala temporal, es decir, a la predicción climática proyectada hacia el futuro, en plazos de medio a un siglo. Pero si la escala temporal plantea semejante complejidad, aún más lo hace la escala espacial, es decir, el ámbito geográfico que queramos abarcar en la predicción.

El problema es, en este caso, tan complejo que podríamos decir que cada modelo realiza su propia inclusión del espacio geográfico, dependiendo del parámetro que se considere. Por ejemplo, hay modelos que utilizan el balance de energía para predecir la variación de la temperatura de la superficie terrestre en función sólo de la latitud. En este caso, la escala espacial es ésa, la latitud. Otros modelos, en cambio, se centran en el espacio vertical de la atmósfera, es decir, la mayor o menor altitud, y la temperatura que le corresponde a cada nivel; suelen ser modelos de radiación-convección. En ambos casos, la precisión de los resultados no es muy alta, y las incertidumbres no pueden ser más obvias al prescindir de otros parámetros que, aunque sea en menor cuantía, también influyen incluso en esos casos particulares.

Otras fórmulas se basan en la integración en una zona concreta de los fenómenos que ocurren en la superficie, a partir de una distribución vertical de la atmósfera que se estima previamente. Estos modelos dinámico-estadísticos pretenden incluir los fenómenos locales, pero aislándolos de los que se producen en las regiones contiguas...

Finalmente, también existen, por supuesto, modelos globales auténticos que se basan en los modelos de circulación general, y que intentan incorporar todos los procesos conocidos y cuantificables dentro de una atmósfera —incluida la interfaz con los océanos— con tres dimensiones. La idea, sin duda excelente, consiste en integrar todos los datos disponibles, pero intentando comprender la forma en que interactúan unos con otros en los subsistemas parciales para incluirlos dentro del modelo final.

Podría parecer que estos modelos de circulación general son los únicos realmente interesantes; pero tienen muchos defectos, el mayor de los cuales es que multiplican las incertidumbres de los modelos sectoriales, haciendo crecer la incertidumbre de las predicciones finales de tal forma que pudieran acabar siendo inservibles.

Todo esto resulta especialmente grave, por ejemplo, al abordar con modelos regionales, basados en subsistemas del Sistema Global, el problema del incremento de las temperaturas por efecto invernadero. Da la impresión de que los expertos quieren pedirle peras al olmo... Porque sin duda podemos llegar a comprender casi todos los procesos que intervienen y tener una idea bastante clara de sus límites, sí. Pero incluso en tal caso resulta imposible saber realmente cómo, cuándo y dónde se producirán esos supuestos incrementos de temperatura que anuncian los resultados del modelo regional porque, para conseguirlo, dichos resultados deberían ser integrados en algún tipo de modelo global.

En suma, la complejidad de la simulación matemática del supuesto Sistema Climático Global proviene de muchos factores, entre los que quizá pudiéramos destacar al menos los tres más trascendentes: en primer lugar, la gran cantidad de escalas de movimiento simultáneo que tienen lugar en la atmósfera y demás componentes del sistema (desde los pequeños movimientos de aire por calentamiento local o lo que sea, hasta las grandes corrientes oceánicas y aéreas). En segundo lugar, las múltiples retroalimentaciones (de signo y magnitud muy diferentes) que se producen entre la mayoría de esos elementos, retroalimentaciones que desconocemos en muchos casos pero que pueden influir a su vez en las situaciones inicialmente consideradas, que son muchas y muy variadas. Y finalmente, el hecho de que muchas perturbaciones regionales quizá crezcan con gran rapidez, variando de escala y haciendo por esa razón que dejen de tener sentido los promedios alcanzados, a no ser que su acción sea contrarrestada por otra perturbación de signo opuesto. Eso quizá ocurra, o quizá no; en todo caso, no lo sabremos hasta mucho después.

Con todo, los programadores intentan verificar sus modelos aplicándolos al pasado; y no siempre son buenos los resultados, aunque los científicos los estiman en general satisfactorios. Pero cabe una objeción general a esta forma de trabajar para saber si funciona o no un modelo: conocemos mal las condiciones presentes del tiempo —y por tanto del clima, puesto que éste se basa en esas condiciones presentes, promediadas luego a largo plazo—, pero aún conocemos peor las condiciones de los climas en el pasado. Sobre todo cuanto más hacia atrás viajamos en el tiempo. En realidad, a más de un siglo vista la escasez de datos es tal que cualquier verificación de un modelo podría resultar simplemente ilusoria.

O sea, que los modelos no son esa especie de oráculo casi infalible, como parecen creer numerosas personas del entorno del IPCC, e incluso fuera de él. Aunque son minoritarias, ya se alzan voces que critican esta dependencia casi absoluta de los modelos que se trasluce en las conclusiones de los informes y las recomendaciones a los políticos en cuanto a la «descarbonización» de las actividades de todo tipo. Pero ¿cuáles son los límites de la predictibilidad de los modelos que eso afirman? ¿Con qué grado de fiabilidad pueden afirmar todo eso que afirman?

La capacidad de un modelo, de cualquier modelo, para predecir correctamente acontecimientos futuros depende de muchos factores no siempre bien conocidos; ya hemos visto unos cuantos inconvenientes de la modelización en las páginas que preceden: carácter caótico del comportamiento atmosférico, insuficiencia matemática de las ecuaciones empleadas, calidad dudosa de los datos de partida, sobre todo los más antiguos... Pero en el otro platillo de la balanza quizá hubiéramos de colocar los éxitos de la predicción científica realizada mediante el conocimiento de ciertas leyes de la naturaleza que hemos podido llegar a descifrar, y muy a menudo mediante el uso de modelos matemáticos ad hoc.

Un físico teórico danés, Per Bak (1948-2002), acuñó en 1996 el término criticalidad autoorganizada en su libro How Nature Works: the Science of self-organised criticality («Cómo funciona la Naturaleza: la ciencia de la criticalidad autoorganizada»). Su idea era enfocar problemas complejos, quizá simbolizados por el del montón de arena de forma cónica al que se le añaden lentamente más partículas de arena hasta que se rompe el equilibrio hasta entonces aparentemente estable y se desmorona parcialmente de forma impredecible. Esos estados críticos, que parecen autoorganizarse de manera natural cada vez que se rompe el equilibrio (en el caso de la arena, el montón cónico muestra una base que crece a saltos), muestran bien a las claras la enorme dificultad de encuadrar sistemas complejos en ecuaciones que permitan predicciones del comportamiento futuro del conjunto.

Pues bien, lo que sugieren Bak y otros autores es que, en general, existen dos grandes grupos de razones para explicar la dificultad de predecir el futuro en determinados procesos científicos. Por una parte, el hecho de desconocer las variables —o algunas de ellas— que intervienen en dichos procesos, porque puede que esas variables ocultas jueguen un papel sustancial, pero podemos no conocerlas y a veces ni siquiera sospechamos de su existencia. El segundo grupo lo componen aquellos aspectos del proceso cuya dinámica es excesivamente compleja —y por tanto total o parcialmente incomprensible—, o bien simplemente muy mal conocida o claramente desconocida.

En el campo de la atmósfera y sus leyes, que es lo que aquí nos ocupa, es probable que no haya ya variables ocultas, o muy pocas y quizá poco relevantes; lo contrario sería una enorme sorpresa para todos, aunque sin duda no del todo imposible. En suma, parece muy probable que los científicos hayan ya explorado casi todos los posibles parámetros que intervienen en la evolución de eso que llamamos temperie y clima. Con todo, no cabe descartar alguna sorpresa futura, especialmente en campos que hoy son considerados completamente marginales en estas cuestiones atmosféricas. Por ejemplo, hasta hace unos pocos decenios nadie hubiera sospechado la posible importancia —aún no demostrada de manera clara— del choque fluctuante, lejos de la Tierra, entre el viento galáctico y el viento solar.

O sea, que el problema de la predictibilidad está relacionado con la complejidad de los procesos, unos procesos que en general no conocemos aún bien y que, además, son de tipo caótico. Lo que significa que la predictibilidad de los modelos del clima depende de la precisión del conocimiento que podamos tener de las condiciones iniciales, y de la calidad de las ecuaciones matemáticas que se suponen que representan fielmente las transformaciones que esas condiciones iniciales habrán de sufrir. O sea, lo que antes avanzábamos: calidad de los datos del clima actual y calidad matemática de los modelos que se aplican. Y se advierte, con cierto desasosiego, que nuestros modelos están lejos de conseguir buenos niveles de esas dos esferas de calidad.

Todo lo anterior suena demasiado teórico; o, cuando menos, genérico. Veamos algún ejemplo concreto. Por ejemplo, la atmósfera; es el principal objeto de nuestras atenciones, pero no está claro que comprendamos bien cuáles son sus dimensiones. En lugar de hablar de volúmenes y masas, quizá sea más representativo analizar sus componentes puntuales.

Ya dijimos que es imposible aplicar punto a punto, para todo el volumen de aire que hay en el planeta, las ecuaciones de los modelos, suponiendo que esas ecuaciones fueran exactamente representativas de la evolución que se pretende medir. En estos momentos, los mejores modelos utilizan como unidad varios millares, o muchos centenares de kilómetros cúbicos de aire. Se trata de una simplificación tan inevitable como, sin duda, excesiva porque asume que lo que ocurre en todo ese inmenso volumen de aire es exactamente lo que ocurrirá en cada uno de sus puntos.

Basta recordar el gigantesco número de puntos elementales —moléculas, partículas, aerosoles...— que existen en el conjunto de la atmósfera, que son nada menos que 1044; o sea, un 1 seguido de 44 ceros. Cien septillones. Aunque no tenga sentido alguno, puede que resulte curioso escribirlo en su totalidad, sin potencias de diez:

1007000 0006000 0005000 0004000 0003000 0002000 0001000 000.

Los mejores modelos que se consiguen utilizar en estos momentos (los anteriores, que son los usados en los estudios conocidos, son bastante peores en ese sentido) pueden llegar a cubrir unas 100.000 células para cada una de las 50 capas horizontales en las que se divide la atmósfera; o sea, la atmósfera dividida en 5 millones de células. Son muchas para la capacidad de cálculo de los más potentes ordenadores actuales o los que se espera estén disponibles en un futuro próximo; una capacidad de cálculo que se ve rebasada en mayor medida aún si se considera el conjunto atmósfera-hidrosfera; los modelos acoplados complican mucho no sólo el número de unidades a calcular sino las propias ecuaciones del modelo. Y esa complejidad todavía se hace mayor si se incluyen otros sistemas acoplados al anterior...

En todo caso, cada una de esos 5 millones de células atmosféricas incluye nada menos que 20 sextillones de moléculas, o sea, un 2 seguido de 19 ceros, a las que se les supone un comportamiento idéntico. Así las cosas, ¿cómo pueden seguir afirmando que los resultados son fiables y que el modelo ofrece una predictibilidad aceptable?

Bueno, es obvio que los modelos actuales no pretenden ofrecer predicciones casi exactas del futuro clima con toda clase de detalles. Probablemente eso no sabrán hacerlo ni siquiera los modelos que los mejores científicos del mundo vayan produciendo en un lejano futuro. Los modelos actuales sólo buscan señalar cambios en las situaciones medias, a escala global, de la temperatura y la precipitación para dentro de muchos decenios, sin entrar en el detalle de dónde, cómo y cuándo se producirán esos cambios. De ahí que se afirme que al doblarse el CO2 atmosférico la temperatura media del planeta habrá subido por ejemplo dos grados. Y eso lo afirman con una probabilidad equis de que sea así, sin detallar cómo será esa subida ni aún menos cómo afectará a unas u otras regiones ni con qué reparto anual se producirá. Ni tampoco cómo determinan esa probabilidad equis...

Como cita final nos permitimos incluir una frase del físico y matemático británico Freeman Dyson, miembro de la Royal Society británica y de la Academia Americana de las Ciencias: «Los modelos resuelven las ecuaciones de la dinámica de fluidos; lo hacen bien al describir los movimientos fluidos en la atmósfera y en los océanos. Pero lo hacen muy mal cuando describen las nubes, el polvo, las relaciones químicas y biológicas en los campos, las granjas y los bosques. No son capaces de describir el mundo real en el que vivimos, lleno de barro y de una mezcla de cosas que aún no sabemos comprender. Es mucho más fácil para un científico sentarse en su despacho y concebir modelos por computadora, que colocarse la vestimenta de invierno y medir lo que realmente está ocurriendo allá afuera con los humedales y las nubes. Por eso los expertos en modelos del clima acaban creyéndose sus propios modelos antes que la realidad de allá afuera».

4

Cambio climático

4.1. Efecto... ¿infernadero?

4.1.1. Buena y mala prensa

4.1.1.1. El poder de la comunicación

Hace ya bastantes años que la opinión pública es bombardeada con noticias de todo tipo relacionadas con el cambio climático, en general, y con el calentamiento global, como corolario añadido. Los medios de comunicación se hacen eco con cierta frecuencia de eventos sin duda apasionantes informativamente hablando —por ejemplo, una catástrofe atmosférica del tipo que sea—, pero también de estudios científicos con predicciones alarmistas acerca de un clima que en el presente, y aún más en el futuro, se muestra ya potencialmente devastador y, en cualquier caso, temible. En esas noticias, lo sorprendente es que las predicciones a muy largo plazo —medio siglo, un siglo, o más— son presentadas como una realidad inevitable, como algo que va a ocurrir inexorablemente y que, por supuesto, sólo podrá ser globalmente dañino, incluso apocalíptico.

Ya vimos en algún apartado anterior que si ahora los distintos climas del mundo ofrecen a veces un variado repertorio de maldades, nada tiene eso de extraño a poco que uno se fije en lo que ocurría antes. Incluso si ese «antes» es mediados del siglo XX, los sucesos adversos y los daños ocasionados fueron más y peores que en los tres últimos decenios.

Pero, claro, los medios de comunicación no quieren ni acordarse de lo que ocurría en los años sesenta o setenta, porque hoy venden muchos ejemplares y acumulan muchos millones de telespectadores o «escuchantes» al contarnos las «perversidades» del ciclón tropical Katrina, que arrasó Nueva Orleans en 2005, o de la tormenta extratropical Sandy, que dañó gravemente a Nueva York en octubre de 2012. Curiosamente, catástrofes que afectan al país más poderoso del mundo.

Algo que quizá no hubiera ocurrido si, al hablar del Katrina, hubieran dicho que no fue el ciclón más potente de la historia en el Caribe sino el sexto. Es más, incluso hubo dos más potentes en esa misma temporada de 2005: Wilma y Rita. Lo que no le quita importancia a Katrina, desde luego, con sus 1.833 víctimas mortales y unos daños valorados en 100.000 millones de dólares. En cuanto a Sandy, había sido un ciclón de mediana potencia en Cuba (categoría 3), luego bajó a 2 al rozar las costas de Florida y llegó a Nueva York siendo ya una tormenta extratropical, no un ciclón. Por supuesto, provocó inundaciones, cortes de luz y problemas graves a la población. Y en los diversos estados afectados causó un total de 75 víctimas mortales directas y unas pérdidas totales estimadas en unos 70.000 millones de dólares. ¿Había habido precedentes de algo parecido? Sin duda; prácticamente una vez al año hay una o dos tormentas extratropicales, incluso algún ciclón extratropical, que llegan a la ciudad neoyorquina. Sin ir más lejos, en 2011 el ciclón Irene (sólo de categoría 1, pero más potente que Sandy). La memoria de los periodistas es flaca...

O sea, que la prensa tiene mala memoria o sus departamentos de documentación son ignorados deliberadamente. Claro que hemos citado sólo años recientes, como prueba de esa mala memoria. Pero si alguien piensa, como se dice cada vez que surge un suceso de este tipo, que es culpa del calentamiento global —incluso el frío extremo parece ser culpa, paradójicamente, del calentamiento... aunque nadie explique nunca por qué—, por seguir con el ejemplo de esa zona estadounidense, diremos que la Navidad más fría fue la de 1983, cuando Washington llegó a 20 ºC bajo cero. Por cierto, era en pleno calentamiento del período 1977-1998. La Navidad más cálida, en cambio, fue en la capital federal la del año 1962; curiosamente, en plena época de temperaturas más bajas (1940-1978). Y es que el clima y el tiempo, como decíamos anteriormente, no son la misma cosa. Esto que comentamos es la variabilidad meteorológica, que poco o nada indica acerca de cambio climático alguno.

Con todo, es obvio que los datos sorprendentes e insólitos, los sucesos que entrañan víctimas mortales y daños económicos cuantiosos, incluso los nuevos avances en el conocimiento de unos u otros aspectos de la realidad, constituyen noticias relevantes. Pero de ahí a proclamar que el Katrina o Sandy son prueba inequívoca del cambio climático es cuanto menos aventurado, por no decir poco científico.

Y no digamos si lo que se hace es predecir como algo seguro y cierto lo que va a ocurrir dentro de cincuenta o cien años. Eso jamás debería ser presentado como una noticia confirmada, sino como una conjetura, por muy fundada que parezca en función de la autoridad científica de quien lo afirma... Además, ninguno de los que emiten dichas predicciones, ni por supuesto de los que se asustan con ellas, vivirá lo bastante como para verificar si se cumplen o no. ¿Entonces? ¿Cómo controlar la veracidad de semejantes predicciones?

Es mi opinión muy fundada, y probablemente no soy el único que así piensa, que en estos asuntos que tienen que ver de cerca o de lejos con el cambio climático la ética periodística, en general, salvo honrosas excepciones, está claramente comprometida. No tanto por darle relevancia, que por supuesto la tiene, a los informes del IPCC, por ejemplo, como por sesgar constantemente las noticias que tienen que ver con la atmósfera. Un sesgo que implica relacionar siempre las normales anormalidades (el tiempo en muchos sitios presenta una enorme variabilidad per se) con el cambio climático, tal y como había profetizado el IPCC.

Porque resulta clamoroso, por parte de los medios occidentales, el olvido casi absoluto del dramático y hambriento mundo pobre. Los peores ciclones tropicales, no en pérdidas económicas sino en algo sustancialmente más importante como son las víctimas humanas, se han dado, se dan y se darán en Asia. Pero, claro, eso no interesa en el mundo rico norteamericano o europeo. El mismo ciclón Sandy que dañó gravemente a Nueva York, provocó daños aún peores e incluso más víctimas en el mundo pobre del Caribe; pero eso no salía en los telediarios porque primaban las inundaciones de la capital neoyorquina, los daños en las comunicaciones y la electricidad, los túneles de Manhattan inundados... Uno acaba teniendo la amarga sensación de que para los medios de comunicación occidentales hay muertos de primera y muertos de segunda. Y los unos son, obviamente, más interesantes informativamente hablando que los otros.

Suena muy duro, pero basta echarle un vistazo al capítulo de este mismo libro sobre ciclones tropicales. Es casi seguro que nadie conocía los dramas de Bangladesh o Myanmar, a pesar de haber provocado cientos de miles de víctimas...

Todavía recordamos, con cierta guasa no exenta de crítica política, aquella quizá imprudente afirmación, hace ya unos años, del que hoy es presidente del gobierno español, Mariano Rajoy, según la cual un primo suyo, catedrático de física en Sevilla, le había comentado con buen humor que era excesivo pretender realizar predicciones exactas del clima a cincuenta o cien años vista, cuando aún no éramos capaces de acertar en la predicción meteorológica a más de dos días. Se le criticó —con crueldad sin duda desmedida— por su frivolidad, su ligereza y otras lindezas por el estilo. Y, lo que es aún peor, incluso se crucificó hasta extremos insoportables a un excelente físico nuclear por meterse en camisa de once varas... ¿Quiénes eran ellos, el científico y el político, para atacar el dogma indiscutible de un cambio climático aterrador? ¿No habían declarado nada menos que la ONU y el afamado «experto» Al Gore que estábamos ante la peor catástrofe a la que se enfrentaba la humanidad? ¿Cómo osaban un físico nuclear y un político de derechas frivolizar con tan grave asunto?

Bien, pues bromas aparte, y al margen de la carga generalizadora que semejantes afirmaciones siempre conllevan, el primo de Rajoy tenía bastante razón. Traducido al lenguaje siempre cauto de la ciencia, lo que sin duda quiso transmitirle —en tono de broma muy sevillana, recordémoslo— a su primo el político debió de ser algo así: «En el estado actual de los conocimientos, realizar predicciones con un alto nivel de confianza a muy largo plazo en temas atmosféricos, y a escala planetaria, resulta cuando menos aventurado; incluso a corto plazo las cosas son ya más que dudosas con excesiva frecuencia».

¿Quién podría discutir algo así? Sólo refleja la pura verdad. Pero no. La prensa no es nada amiga de las cautelas científicas ni de las afirmaciones prudentes: el mal periodista —que abunda— es el que no puede dejar que la verdad le estropee una buena noticia.

Otra cosa bien diferente es que un científico o un grupo de investigadores afirmen que sus modelos de predicción apuntan en esa dirección, con un determinado margen de incertidumbre o desconocimiento. Eso sí pudiera ser noticia. Que un científico respetable o un grupo investigador de primera línea afirmen algo catastrófico para dentro de cien años, debe ser presentado exactamente como eso, como la afirmación de lo que dichos científicos dicen, con la cautela lógica, en sus comunicaciones científicas. Aunque al comunicador debería picarle la curiosidad de saber qué tipo de modelos matemáticos son capaces de predecir todo eso a tan largo plazo, qué simplificaciones usan, cuántos datos tienen de partida, de dónde sacan las ecuaciones y cosas así. Pero no: lo importante es la mala noticia... Que es muy buena en periodismo, paradójicamente.

Desde luego, ya hemos visto al final del apartado anterior que los modelos matemáticos no son fáciles de comprender. Pero tampoco se entiende muy bien eso del achique de espacios en el fútbol moderno; ni los misterios de las hipotecas subprime, que desencadenaron toda la crisis financiera actual; o la dichosa prima de riesgo, que se mide por centenares y en realidad son porcentajes respecto a la deuda alemana, ni... Vamos, que los periodistas manejan hoy conceptos sumamente complejos en todas las facetas de la actualidad. Pero parece como si sólo renunciasen a su propio criterio, al escepticismo inherente a su oficio y a su inevitable curiosidad ante cualquier suceso cuando se enfrentan a los temas de cambio climático. Entonces se limitan a repetir como loros lo que los expertos dicen, dándolo por cierto como verdades reveladas.

Y, lo que sin duda es peor, silenciando las eventuales voces críticas que pudieran surgir en contra de lo que unos u otros dicen. Porque en este tema, los medios de comunicación han abrazado la doctrina del consenso. Toda la ciencia está de acuerdo; hay consenso universal... Lo cual es una gran tontería, dicho sea con la máxima claridad posible. Lo veremos más adelante.

Parece como si se hubiese adoptado una conducta basada en obviar las cautelas y en olvidarse de la información bien estructurada, que ha de ofrecer las diferentes versiones en liza cuando las opiniones no convergen. Al menos en esto de la atmósfera y sus veleidades. Y así, por ejemplo, no existe problema alguno en convertir el «podría ser» de las predicciones de los científicos en un «será» categórico.

Y, sin embargo, en todas estas cuestiones es muy fácil que surja la controversia. Esta parte del libro ofrece unas cuantas muestras bastante llamativas. Por un lado, en los datos, porque la metodología de obtención, cálculo y estimación es notablemente imperfecta; lo hemos visto ya. Y por otro, y sobre todo, en las predicciones y aún más en las recomendaciones, que se basan en fenómenos atmosféricos futuros cuya posibilidad de que ocurra está llena de las más variadas incertidumbres. Incluso habría que añadir que, en conjunto, respecto a los climas del mundo son muchas más las cosas que ignoramos que las que sabemos.

También es cierto que, en este tema, son numerosos los buenos científicos que hacen de vez en cuando afirmaciones sensacionales —¿sensacionalistas?— al dar por seguros ciertos acontecimientos futuros, porque a ellos les parecen perfectamente predecibles con muy escaso margen de error. Y eso, creen ellos, los convierte en prácticamente irrefutables. Es difícil juzgar la conducta de los científicos; lo único que cabe recordar es que también son humanos, susceptibles a problemas relacionados con la vanidad, la soberbia, la autocomplacencia, o incluso el autoengaño y la fe ciega en sus conocimientos y resultados. Pero afirmar que algo que se predice para dentro de un siglo es poco menos que irrefutable —el adjetivo «robusto» que suelen usar es muy gráfico, pero poco serio— no es más que presunción,

Todo esto tiene mucho que ver con el actual estado de opinión, según el cual el efecto invernadero, que es quizá el máximo responsable de los climas que nos ofrece el planeta Tierra a los que en él sobrevivimos, sería más bien una especie de efecto infernadero letalmente amenazador para todos, y en todas partes. Una idea de lo más errónea: sin efecto invernadero no habría vida en la Tierra, así de claro.

Además, y esto le añade al asunto un morbo moralizador más que notable, ese infernadero nos lo estamos ganando a pulso los humanos por nuestras malas acciones, es decir, por habernos desarrollado industrialmente de la forma en que lo hemos hecho, por habernos olvidado de nuestra condición natural de monos listos y habernos convertido no sólo en Homo sapiens sapiens sino incluso en Homo sapiens tecnologicus...

¡Viva el sentimiento de culpabilidad! Sobre todo, cuando la culpa siempre la tienen los demás, no nosotros con nuestros comportamientos y hábitos consumistas. Esos «demás» son, claro, las industrias, las multinacionales, el capitalismo, el comunismo, los políticos, quien sea... Todos menos nosotros, claro.

Visto lo cual no es de extrañar que sean muy numerosas las personas en todo el mundo que ya han dado por buenas esas predicciones a largo plazo, tomándolas poco menos que como una realidad establecida, como una verdad definitiva o una profecía cierta. Que han sido comunicadas no tanto por una deidad angélica o similar como por un estamento humano superior e inatacable, que incluye un grupo selecto de personas sin tacha que podríamos agrupar bajo el concepto nebuloso de «miembros del consenso científico». Los nuevos oráculos, los nuevos profetas, los arcángeles anunciadores del futuro cierto que nos aguarda.

Si las líneas que anteceden destilan ironía no es casual, es una forma de expresar que ese tipo de planteamientos agoreros, incluso catastrofistas y autoflageladores, parecen ignorar las muchas bondades que le aportó al Primer Mundo de entonces —en total, poco más de cien millones de personas— la industrialización que se inició con la máquina de vapor y el consumo masivo de carbón, a partir de finales del siglo XVIII. El resto de la población humana —en total, toda la humanidad sumaba menos de mil millones de personas— no pudo beneficiarse de esa revolución industrial. Eran, y siguen siendo hoy en número muchísimo mayor que hace siglo y medio, pobres de solemnidad.

Hoy los ricos industrializados sumamos casi mil millones de personas. Los pobres más miserables del mundo —los que no tienen qué comer ni agua potable para beber— son más de mil millones. Y los que eran pobres y están dejando de serlo, con una enorme diversidad de grados de bienestar, son casi 5.000 millones, la mitad de ellos chinos e indios. Sí, somos hoy algo más de 7.000 millones de seres humanos, y la cifra sigue aumentando en casi cien millones más cada año. ¿Puede de verdad suponer alguien que el cambio climático pudiera ser igual de malo, o de bueno, para todos? ¿Cómo imaginar que ese único y supuesto cambio climático pueda afectar por igual a un país muy pobre de África que a los europeos más ricos? Y, lo que aún resulta más increíble, si los climas no son iguales en África y en Europa, ¿es asumible que el cambio climático sí vaya a serlo?

4.1.1.2. Errores... ¿comprensibles?

En las informaciones acerca de la ciencia que rodea al efecto invernadero y al cambio climático a veces brilla, por su ausencia, el rigor. Sin ir más lejos, el mero hecho de utilizar el término «cambio climático», así en singular, supone cometer un error notable al considerar que hay un solo clima en toda la Tierra, y que el cambio de ese único clima va a afectar, obviamente, a todo el planeta por igual. En realidad, lo que se supone no es eso, claro, sino que todos los climas del mundo pueden ser representados por un solo ente teórico, el famoso Sistema Climático Global.

Además, se suelen confundir, como si fueran la misma cosa, los datos actuales, que se basan en realidades que medimos con aceptable precisión, con las predicciones de futuro, o las estimaciones que podemos hacer del pasado cuando no había instrumentos de medida. Las predicciones poseen un grado de incertidumbre que depende obviamente de nuestra actual capacidad científica para conocer con precisión el presente y para predecir sucesos climáticos del futuro con esa misma o parecida precisión. Lo vimos al hablar de los modelos matemáticos, cuyos resultados están muy lejos de parecerse a algo así como una verdad revelada. En cuanto al pasado, es obvio que las estimaciones de los cambios que hubo son válidas cualitativamente si se apoyan en suficientes sucesos históricos reseñables, pero no pueden ser cuantificadas en absoluto como lo son los datos medidos hoy con aparatos.

Y aún hay más errores de comprensión, algunos incluso absurdos, pero que contribuyen a dificultar la percepción pública del problema, confundiendo a la población no experta. Un ejemplo muy claro tiene que ver con las confusiones de lenguaje, que es la herramienta de trabajo de los comunicadores; muchas personas, medios de comunicación incluidos, llegan a agrupar bajo el mismo paraguas del cambio climático no sólo muy diferentes sucesos meteorológicos (que pueden ser catastróficos o no, incluso habituales como las «olas de calor» en julio, que es lo que antes llamábamos verano), lo cual dentro de un orden podría ser incluso admisible, sino que los mezclan con sucesos telúricos que nada tienen que ver con la atmósfera, como los tsunamis y los seísmos en general. Y esto es ya risible, cuando no intolerable.

Resumen final: el planeta está enfermo y su enfermedad se llama... seres humanos. De ahí, lo que decía Al Gore sobre que el planeta tiene fiebre... O sea, el planeta tiene fiebre ahora, pero antes no; estaba sanísimo, no había ciclones ni inundaciones ni sequías... Suena ridículo, ¿no? Pues deber ser que no; lo dice un premio Nobel de la Paz.

Bien, a esto es a lo que nos referimos al hablar del efecto infernadero. El inmenso poder de los actuales medios de comunicación —los clásicos como la prensa escrita, la radio y la televisión, y los modernos como Internet y las redes sociales— nos ha hecho pensar que estamos acercando al planeta a algo parecido al infierno, a ese planeta con fiebre de Al Gore. Por cierto, es curioso que toda la maldad de estas cuestiones se haya focalizado en el CO2, el dióxido de carbono; quizá es que el carbono suena a carbón, que es negro y sucio, lo que le ponen los Reyes Magos a los niños malos. Toda una imagen subliminal de negruras infernales; claro, un planeta con fiebre por culpa del efecto infernadero... Todo cuadra.

Pero es una idea bastante tramposa. La prueba es que ha conseguido un estado de opinión, y esto sí que es sorprendente, que aunque declara su preocupación, no por ello cambia sus comportamientos: nadie deja el coche para ir al supermercado de la esquina; nadie reduce sus habituales despilfarros de agua, luz, comida o lo que sea; nadie reduce la cuantía de su basura doméstica, nadie cambia sus hábitos consumistas...

Si de verdad fuera un problema tan grave, si los habitantes de los países ricos creyeran en efecto que lo es, y vivieran sincera y realmente preocupados por el cambio climático, se supone que actuarían de otra forma. Pero ¿qué hacen realmente los gobernantes, los empresarios y los ciudadanos de a pie para ir corrigiendo los desmanes de esta civilización del desperdicio en la que nos movemos? Porque ésta es, aunque sea de lejos y quizá sólo parcialmente, una de las premisas esenciales del problema que tanto dicen que les preocupa.

Suena un poco fuerte aludir a nuestra civilización como algo esencialmente dominado por el desperdicio. Es verdad que hemos conseguido obras de arte increíbles, logros tecnológicos maravillosos, hallazgos científicos asombrosos, una calidad y una cantidad de vida que se han duplicado en apenas un siglo... Pero todo eso lo hemos hecho con un notable desprecio por el impacto que todos esos logros podían tener sobre el entorno natural, del que se obtienen todos los recursos básicos que nos permiten vivir como vivimos. Y malgastando muchos de esos recursos naturales, desechando como residuo inservible elementos que tienen todavía un determinado valor. Esos residuos, tanto industriales como domésticos, alcanzan tal diversidad y tan enorme cuantía que su gestión se ha convertido en un serio problema para las sociedades avanzadas. Y son por eso mismo característicos, cómo no, de nuestras sociedades desarrolladas y opulentas.

Sí, somos una civilización del desperdicio; no sólo de eso, desde luego, pero también eso. Pero de este tema nadie nos dice gran cosa; al contrario, nos convencen de que el planeta está enfermo, con fiebre, por culpa del carbono que todo lo... ensucia. Lo curioso de estas reflexiones es que en 2013, como en los dos o tres años precedentes, la crisis económica, y no sólo en España, campa por sus respetos. Por el número de parados, por la deuda de los bancos, por el desastre económico que afecta a sectores muy amplios de la población en muchos países ricos. El cambio climático no tiene nada que ver con todo ello, sino que el problema partió del comportamiento criminalmente ignorante de muchos supuestos expertos en economía creativa, con aquellas prácticas incalificables de Lehman Brothers y sus hipotecas subprime, y luego la burbuja inmobiliaria que afectó sobre todo a los países mediterráneos, y a España en primer lugar.

Pero no importa. Que esos daños hayan conseguido en muy poco tiempo empeorar mucho más las finanzas del mundo desarrollado que lo que preveía el famoso Informe Stern por causa del cambio climático para dentro de varios decenios, es cosa que parece irrelevante. Y así, cualquier fenómeno atmosférico que se salga un poco de la pauta normal —pero ¿cuál es esa pauta, si la mayor parte de las personas ignora lo que significa el concepto de «normalidad climatológica», por otra parte enormemente cargado de subjetividad?— es inmediatamente considerado como una especie de aberración climática que confirma, sin el menor género de dudas, la gravedad del problema del cambio climático. Lo de la crisis económica es, sin duda, mucho más real y palpable; pero no genera espanto sino, acaso, enfado y decepción ante la inutilidad de las medidas políticas para resolver el problema...

O sea, que el cambio climático comienza ya a parecerse a un mito; conviene recordar que los mitos son creencias que tienen que ver con una realidad que está, en cierto modo, más allá de la propia realidad. Y aunque haya, sin duda, algo de mito en todo esto del calentamiento global, también es obvio que eso no lo explica todo. De hecho, no explica casi nada, como suele ocurrir con los mitos. Porque en este caso confluyen muchos estudios científicos, una abundante investigación de buena calidad en torno a las complejas y variadas cuestiones que tienen que ver con el comportamiento de la atmósfera. Lo reprochable es que el asunto del cambio climático haya sido convertido por algunos en algo que suena a un mito. O, peor aún, a un dogma.

Todo lo cual es compatible, no sé si lamentablemente, con el hecho de que en este campo concreto de la ciencia muchos especialistas hayan encontrado unas posibilidades de trabajo, e incluso de notoriedad, impensables hace sólo unos pocos decenios. A lo mejor eso ha podido nublar, aunque sea pasajeramente, el buen juicio habitualmente escéptico de algunos de ellos.

También conviene recordar que en el mundo de la ciencia existen las modas y las tendencias; el cambio climático es hoy, sin el menor género de dudas, uno de esos temas de moda, y muy relevante, para la investigación científica mundial. Desde luego, por su interés intrínseco, que lo tiene y mucho. Pero probablemente también porque genera inquietud en muchas mentes poco informadas, lo cual otorga un papel indudablemente protagonista al investigador. E incluso porque se ha hecho muy popular en la sociedad civil y en sus gobernantes, lo cual le otorga mayor importancia al trabajo habitualmente callado y sacrificado de la ciencia. Nada menos que todo un grupo especial de la ONU, el IPCC, dedicado a su estudio...

Con todo, cada día que pasa mueren de hambre en el Tercer Mundo más de 25.000 personas, de las que la mitad son niños menores de cinco años. El hambre lleva matando, año tras año, a muchísimas más personas que cualquier otra catástrofe que pudiéramos imaginar. Pero contra esa plaga de la humanidad no se movilizan de igual modo ni la ONU, con su IPCC, ni los organismos culturales, científicos, económicos, políticos y otros, que defienden la idea, que expresara de forma meridiana Al Gore, según la cual el cambio climático es la peor catástrofe que afrontaba la humanidad. Actuar en función de semejante afirmación puede llevar a conductas aberrantes... Como decíamos en un capítulo anterior, no es el cambio climático sino el hambre lo que debería centrar todos nuestros esfuerzos.

Pero la histeria acerca del cambio climático ha borrado de un plumazo ese tipo de consideraciones. Y quizá por eso no le costó mucho al que fuera vicepresidente con Clinton entre 1993 y 2001, Albert Arnold Gore, conseguir la difusión de una especie de histeria colectiva en torno a las calamidades reales del cambio climático, con un documental notable, desde el punto de vista cinematográfico, que se llevó en 2006 dos Oscars de Hollywood, a la música y a la realización. Su director fue Davis Guggenheim y en él Al Gore sólo actuaba de presentador, aunque luego acabaría por apuntarse todo el mérito de aquellos premios. Todo el documental sugería, aunque sin afirmarlo tajantemente, que el cambio climático venía a ser como una especie de maldición bíblica, y no sólo una amenaza futura sino un daño presente para el mundo entero. Bueno, en realidad, sólo para Estados Unidos... ¿Qué mejor ejemplo que el devastador ciclón Katrina, del que todo el mundo tenía un recuerdo reciente? Los dos Oscars se lo concedieron al documental apenas año y medio después del suceso.

Todavía hoy se sigue diciendo —como en un determinado momento deja caer Al Gore al analizar con enorme dramatismo aquella catástrofe— que fue el más potente y dañino de la historia en el planeta Tierra y, consecuentemente, la mejor prueba de que el cambio climático y sus horrores ya estaban aquí para quedarse y, claro, para producir con mayor frecuencia aún catástrofes como aquélla, si no peores. Vamos, la antesala del infierno...; perdón, del infernadero.

Bien, pues en las siguientes temporadas de ciclones, tras 2005 y hasta 2012, refiriéndonos a todo el planeta y no sólo al Caribe y al golfo de México —porque el mundo no es sólo Estados Unidos, obviamente—, no ha vuelto a haber ningún otro Katrina, ni siquiera algún otro ciclón excesivamente potente. Pero eso no importa; el mito, que también aquí existe, del Katrina ya estaba servido. La prensa se apoderó del filón y, sorprendentemente, consiguió convencer a numerosos científicos, incluso los no expertos en climatología, de que aquello era el apocalipsis por adelantado. Y así lo asume la mayor parte de la opinión pública, no sólo norteamericana sino de todo el mundo occidental.

En cambio, el mundo asiático conoce en sus propias carnes los daños de los ciclones de aquellos parajes, mucho peores —sobre todo en víctimas humanas, que es sin la menor duda el peor de los daños causados por cualquier tipo de catástrofe— que los que originó el Katrina. Ya lo vimos con detalle en el apartado de los hidrometeoros y los ciclones.

Pero no, la equidad científica y la simple contemplación de los datos reales vale muy poco frente a una mercadotecnia bien construida. Véase si no la carátula del documental que se distribuyó por medio mundo: sin rubor alguno se hace aparecer la figura del ciclón tropical formado a partir del humo que sale de unas fábricas. El dibujo es sobrecogedor, pero falso: porque si existe el cambio climático no es por la contaminación de esas chimeneas —contaminación tóxica para los seres vivos, pero que afecta muy poco o nada al clima— sino por el dióxido de carbono y, sobre todo, el vapor de agua que emiten las combustiones del mundo industrializado. Dos gases que no son contaminantes sino que son imprescindibles para la vida en la Tierra.

En cuanto a víctimas, pero sobre todo en pérdidas materiales, ya vimos que el Katrina sí fue uno de los peores —no el peor— de la historia reciente... en Estados Unidos. Pero basta recordar que, como vimos, ha habido en el resto del mundo, incluso en el Caribe, ciclones mucho más potentes. Y en Asia, muchos de ellos han causado, por desgracia, muchísimas más víctimas que el Katrina. Pero, claro, los habitantes de aquellos países son pobres y están lejos de las agencias de prensa occidentales.

Carátula del documental Una verdad incómoda, presentado por Al Gore. Véase cómo se sugiere, sin que quepa la menor duda, la directa relación entre la contaminación humana y los ciclones como... ¿el Katrina? Más claro, agua.

Al Gore citaba el Katrina como ejemplo más que obvio del horroroso cambio climático que, ya en 2005, estábamos provocando los malvados humanos desarrollados. ¿Horroroso? Bien; desde un punto de vista estrictamente objetivo, la crisis económica que se inició en 2008 con el dichoso asunto de las hipotecas subprime en Estados Unidos, y que luego se contagió a Europa y otras áreas del mundo, ha hecho mucho más daño —desde el punto de vista económico, pero también en cuanto al incremento del consumo de combustibles tan aparentemente indeseables como el carbón, y en cuanto al olvido de los problemas del hambre en el Tercer Mundo— que todo el posible cambio climático acontecido en el siglo XX.

Veamos el caso del ciclón Katrina algo más de cerca. La potencia del meteoro al llegar a Nueva Orleans ya no era de categoría 5, la máxima de la escala Saffir-Simpson, sino que ya había bajado a 3 y luego enseguida bajó a 2. Lo peor fue que aquellos vientos y lluvias muy violentos se unieron a otros factores que nada tienen que ver con el clima sino con la imprevisión y la dejadez de los humanos. Incluso en el país más rico del mundo.

Nueva Orleans es una ciudad, por así decirlo, mal diseñada y aún peor construida, en un enclave muy inadecuado, al menos para una ciudad moderna. Los franceses pusieron en 1699 un campamento en el mismo lugar en el que los indios solían montar alguno de sus poblados. Luego, en 1718, aquel campamento militar dio lugar a un pueblecito que tomó el nombre de la ciudad francesa, añadiendo el muy común «Nueva», típico de los colonizadores (Nueva Amsterdam, luego Nueva York, es un buen ejemplo). El lugar elegido era un pequeño llano en medio del delta del Misisipi, al borde de un meandro del río y vecino, por la otra orilla, de un lago de nombre igualmente francés, Pontchartrain (en honor del conde de Pontchartrain, Louis Phélypeaux, canciller y ministro de Marina del rey francés Luis Felipe, que reinó entre 1830 y 1848).

Buena parte de la ciudad estaba, y está aún, por debajo del nivel del mar. Por esta razón, los barrios afectados estuvieron siempre protegidos por diques, muy antiguos y vulnerables, que se rehacían malamente cada vez que un ciclón se acercaba por allí —la última reparación fue unos treinta años antes del Katrina—. Por eso en época de crecidas del río Misisipi o cuando las mareas y las tormentas sacuden al mar, es frecuente que parte de la ciudad quede inundada.

A comienzos del siglo XIX, tras casi medio siglo de administración española —los últimos dos años, bajo el yugo napoleónico—, la ciudad contaba con 10.000 habitantes y un urbanismo modélico... para la época. La época francesa fundacional sólo había dejado su impronta en la pésima localización de la ciudad misma. Los españoles mejoraron las cosas bastante, y los últimos años bajo mandato napoleónico la ciudad fue ordenada de manera más que positiva. Pero luego los dos siglos posteriores de administración norteamericana vieron un crecimiento desmesurado y anárquico tanto de la población como de los edificios, que fueron invadiendo cada vez más zonas inundables, con un riesgo obvio de sufrir un avance del agua en épocas desfavorables.

Por otro lado, todo aquello se hizo extrayendo del subsuelo el agua subterránea necesaria para el consumo de la ciudad, lo que hacía que el firme bajara de nivel cada vez más. En los últimos dos siglos se estima que el nivel de la mayor parte de la ciudad ha bajado casi un metro. Y fue en esa situación cuando apareció en 2005 el ciclón Katrina, que alcanzó de lleno a la ciudad cuando todavía tenía enorme energía (magnitud bajando de 4 a 3). Pero ¿cómo pudo causar tanto destrozo en una gran capital, de más de 300.000 habitantes, en el primer país del mundo?

El riesgo climático asociado a Nueva Orleans ha sido elevadísimo desde su misma creación, y no ha dejado de crecer, lo que es paradójico, conforme iba progresando en población y riqueza. Y eso nada tiene que ver con el cambio climático, por supuesto; porque los riesgos climáticos se deben a características relativamente normales de cada clima. Un riesgo que se confirma tarde o temprano, en el largo plazo. En Nueva Orleans nadie puede aducir que ignora lo que son los ciclones y tormentas tropicales.

Para ilustrar ese riesgo climático de la ciudad sureña podría valer una tesis doctoral sobre geografía económica, realizada allí en 1954 por un joven graduado del Instituto de Estudios Políticos de la Universidad de París, que expresaba con claridad la situación: «El Misisipi siempre le planteó graves problemas a Nueva Orleans; un simple excedente de 51 milímetros de lluvia en cuatro meses provocó en 1927 la más dañina y desastrosa inundación hasta la fecha, con una crecida en la ciudad de más de seis metros que inundó 73.000 km2 y causó más de 2.000 víctimas; algo que podría volver a repetirse en peores condiciones aun en caso de ciclón tropical».

No era vidente aquel joven estudiante francés; es que la cosa estaba bastante clara... Y aun así no hubo que esperar mucho para que lo escrito en aquella tesis se hiciera realidad. Nadie le hizo mucho caso al joven doctor, pero los periódicos franceses sí le dieron mucha relevancia a esta anécdota en 2005, cuando ocurrió lo del Katrina, debido a que aquel joven estudiante se llamaba, y se llama, Jacques Chirac. En ese año 2005, Chirac era presidente de la República Francesa, cargo que ocupó entre 1995 y 2007.

Sin comentarios. ¿Cambio climático, señor Gore?

4.1.2. La sociedad moderna actúa... o no

4.1.2.1. IPCC: política y ciencia

Suele ser frecuente la alusión al «consenso científico», como argumento de autoridad, sobre la gravedad del calentamiento global de origen humano y la urgencia de tomar medidas. Más adelante analizaremos con cierto detalle esta cuestión del supuesto consenso; lo que nos importa ahora es lo que todo el mundo, desde los medios de comunicación a la inmensa mayoría de la ciudadanía, incluidos numerosos científicos prestigiosos, piensa acerca del cambio climático gracias a la existencia del famoso IPCC. Los sucesivos informes que ha ido haciendo públicos este organismo de la ONU han venido sentando cátedra, en cierto modo, desde hace ya un par de decenios. Y gracias a ello, la mayor parte de la población mundial cree que en este asunto hay pocas cosas que poner en duda: el cambio climático es una realidad dramática indiscutible.

¿Qué es el IPCC? ¿Cómo un Comité Intergubernamental, es decir, político, ha conseguido semejante credibilidad mundial? Porque lo indudable es que, aun siendo como es una institución emanada de los gobiernos representados en la ONU, es tenida por autoridad mundial en todo lo referente a las ciencias relacionadas con el clima. Aunque en realidad no es el IPCC quien tiene esa credibilidad, sino los trabajos científicos sobre los que gravitan las conclusiones de sus informes.

IPCC son las siglas inglesas de Panel Intergubernamental de Cambio Climático. Fue establecido en 1988 por dos organizaciones de la ONU, la OMM (Organización Meteorológica Mundial) y el PNUMA (Programa de Naciones Unidas para el Medio Ambiente), con la finalidad de «proporcionar al mundo un punto de vista científico sobre el estado actual del conocimiento acerca del cambio climático y sus impactos potenciales, tanto ambientales como socioeconómicos».

O sea que, en efecto, se trata de un organismo político aunque sus conclusiones se basen en sólidos informes científicos, lo que no quiere decir que sean infalibles, claro. La génesis de la institución daba ya por sentada la existencia de un cambio climático capaz de generar impactos ambientales y socioeconómicos, tal y como anunciaban sus fines al ser creada. El IPCC no investiga el cambio climático sino que acepta que existe y tiene consecuencias, por lo que intenta obtener datos científicos al respecto con el fin de hacer recomendaciones a los responsables políticos.

Su tarea, como organismo intergubernamental de la ONU, se limita a revisar y evaluar —pero no a producir— la información científica, técnica y socioeconómica más reciente en relación con la comprensión del cambio climático y sus consecuencias. Es decir, que «digiere» lo que va aportando la ciencia de cara a comprender las consecuencias de unas u otras actitudes presentes o futuras. Su autoridad procede, pues, de la autoridad de las investigaciones sobre las que construye su discurso; y, por supuesto, de la responsabilidad de los políticos que aprueban y firman, como responsables últimos, los sucesivos informes finales, que no siempre reflejan fielmente lo que dice la ciencia.

Como organismo de la ONU, el IPCC está abierto a todos los países que están en Naciones Unidas. Al final de 2012 contaba con 194 países miembros, cuyos gobiernos se supone que participan en el proceso de revisión y en las sesiones plenarias donde se toman las principales decisiones y se aprueban los informes. Los miembros del directorio que asume la coordinación del organismo también se eligen en las sesiones plenarias, incluido el presidente.

Hasta ahora el IPCC ha emitido cuatro informes finales; el quinto se espera para 2013-2014. Resulta curioso que, a pesar del volumen de trabajo que coordina, el IPCC tenga muy poco personal administrativo: su secretariado apenas incluye una decena de personas. Ellas son las que controlan los cuatro organismos de coordinación: tres grupos de trabajo (WG, por Working Groups), además de un equipo de tareas (TF, por Task Force) que recopila inventarios nacionales de gases invernadero. Con los datos de esos cuatro organismos se construye, tras un largo proceso de «digestión», cada uno de los informes finales, o AR.

Esto significa que lo esencial de cada uno de esos cuatro informes dados a conocer hasta ahora (1990, 1995, 2001 y 2007) consiste obviamente en los trabajos que se coordinan, revisan y resumen dentro de cada uno de los cuatro grupos: el WG1, sobre las bases científicas del conocimiento del clima y sus cambios; el WG2, sobre impactos, adaptación y vulnerabilidad; el WG3, acerca de la mitigación del cambio climático —sólo en los dos informes más recientes; en los dos primeros analizaba estrategias y dimensiones socioeconómicas del problema—, y el TF sobre inventario de emisiones.

En suma, la elaboración de cada uno de los cuatro informes finales, cada seis años más o menos, supone un considerable volumen de trabajo que luego se incluye, resumido, en diversos tomos de unas mil páginas cada uno. Con el fin de hacer que todo esto sea lo más asimilable posible, el IPCC acompaña cada uno de sus informes finales de un documento de síntesis (Synthesis Report), mucho más resumido, que ha sido acusado a veces de no sólo resumir sino cambiar parcialmente, incluso tergiversar, determinados aspectos de unos u otros trabajos científicos de base, además de hacer que parezcan más o menos contundentes ciertas afirmaciones que en los trabajos científicos originales pudieran estar mucho más matizadas.

En todo caso, el documento de síntesis va, a su vez, precedido de un resumen bastante más breve aún, destinado a los responsables de políticas, llamado en inglés Summary for Policymakers. Ese resumen para políticos condensa en poco más de veinte folios —es probablemente lo único, dicho sea de paso, y con no poca ironía, que habrán leído sobre el asunto un altísimo porcentaje de los que opinan e incluso deciden sobre estas cuestiones— las miles de páginas del conjunto de cada informe final.

La web del IPCC (www.ipcc.ch) incluye el siguiente esquema de organigrama sobre el funcionamiento de la organización:

Como ya hemos visto, el máximo organismo es el plenario; a las sesiones plenarias asisten todos los representantes nombrados por los gobiernos participantes. Allí se elige un directorio (en inglés, Bureau) formado por una treintena de miembros —en 2012 eran exactamente 31— en representación de diversos países. Uno de ellos es español, José M. Moreno, catedrático de ecología de la Universidad de Castilla-La Mancha. Hay un presidente (el ingeniero hindú Rajendra Pachauri) y tres vicepresidentes. Del Bureau depende la secretaría, que es el auténtico órgano de trabajo exclusivo del IPCC, con una decena de personas para coordinación y administración.

Por su parte, cada uno de los grupos de trabajo tiene su propio apoyo económico, administrativo y coordinador en las TSU (siglas inglesas de Unidad de Soporte Técnico), cada una de las cuales se responsabiliza de las actividades y el coste del trabajo, y de los viajes de los científicos de cada WG. Para el quinto informe final (AR5, en su etapa de redacción final ahora, a comienzos de 2013), la unidad de soporte del WG1 (Bases científicas del problema) está en Suiza, la del WG2 (Impactos, adaptación y vulnerabilidad) en Estados Unidos, la del WG3 (Mitigación) en Alemania y, por último, la responsabilidad de los inventarios nacionales de gases invernadero es de Japón. Se supone que las instituciones (universidades, centros de investigación, etc.) que soportan financieramente en cada uno de esos cuatro países el grueso de los trabajos de cada WG lo hacen generosa y desinteresadamente. Pero la duda planea sobre semejante forma de trabajo; conviene recordar aquello de que quien paga, manda...

Todo este trabajo reposa sobre las investigaciones de los autores, que aportan la materia básica que luego es revisada por los expertos y eventualmente reescrita y vuelta a revisar, para finalmente servir de base para la aprobación última en el plenario, tras un primer filtro de los gobiernos en reuniones mixtas entre políticos y expertos. Resulta, pues, de interés saber cuántos y quiénes son esos autores, y también cómo son seleccionados ellos y sus coordinadores. Porque ése es el trabajo verdaderamente científico, antes de ser filtrado por todos los demás estamentos del IPCC.

El primer paso de la selección de autores consiste en que los gobiernos de los países participantes mandan al Bureau del IPCC las listas de los científicos que estiman pertinentes. Es decir, que en cada país el gobierno de turno es quien decide qué científicos han de participar; se supone que los gobiernos y los organismos implicados lo hacen con criterio neutral y buscando la mejor calidad científica, pero...

El Bureau recibe la lista de todos esos posibles autores y elige entonces entre ellos los que cree que deben ser autores directores-coordinadores (CLA, Coordinating Lead Authors) y autores principales (LA, Lead Authors). Éstos son los que de verdad van a producir el trabajo científico de base para los informes finales, porque valorarán, descartarán y resumirán según su criterio los trabajos de los autores que les correspondan.

Se supone que con este procedimiento se consigue que los CLA y LA sean los científicos más relevantes del mundo en las distintas disciplinas consideradas. Pero en realidad podemos observar que su selección es política y arbitraria, lo que no quiere decir que sea siempre forzosamente injusta pero tampoco garantiza la equidad.

Es una selección política porque son los gobiernos los que incluyen en sus listas a unos u otros investigadores, siguiendo criterios muy diversos; recuérdese que son casi dos centenares de gobiernos... Y es arbitraria porque esos pocos autores principales (CLA y LA), que son los que realmente tomarán decisiones científicas esenciales —de entre los muchos cientos de autores—, son elegidos a su vez por el Bureau, siguiendo su propio criterio (recuérdese que los 31 miembros del Bureau son políticos, científicos y técnicos, no necesariamente climatólogos, propuestos igualmente por sus gobiernos y elegidos por el plenario del IPCC, formado también por representantes de los gobiernos).

Todo este más que notable embrollo administrativo significa, hablando en plata, que la inclusión o no en las listas tanto de los aspirantes al Bureau como de los autores relevantes (directores-coordinadores o principales) o de los autores normales depende directamente de la libre voluntad de los políticos de cada país, aunque teóricamente el IPCC (pero ¿quién es el IPCC sino sus propios órganos de gobierno, elegidos también por los políticos?) podría también elegir a otros autores expertos, reconocidos por sus publicaciones y escritos. Éste es un tema que nos parece crucial aunque, curiosamente, no suele ser reflejado con detalle por la prensa.

En todo caso, es innegable que en estos últimos años cualquier científico cuyas investigaciones ofrezcan resultados que disientan, aunque sea parcialmente, de algunos de los puntos de vista oficiales —empleamos el adjetivo oficial desde el punto de vista de la política expresada en el Protocolo de Kioto—, tendrá muy escasas, de hecho nulas, posibilidades de ser incluido en las listas de autores. O sea que, a priori, el sesgo de los autores a favor de la tesis del grave cambio climático antropogénico es más que obvio.

No obstante, todo este embrollo administrativo, político y científico que es la actual organización del Panel Intergubernamental arroja ya cierta luz sobre la existencia o no de ese famoso consenso científico en el que supuestamente se apoyan de forma unánime los sucesivos informes del IPCC... Pero, claro, lo que ocurre es que dicha unanimidad viene en cierto modo garantizada en origen, como una especie de consenso previo forzado desde el inicio, y no sobrevenido a posteriori.

Volvamos a la elaboración de los informes. Los numerosos y muy diversos trabajos de los científicos de base, en todas las áreas afectadas directa o indirectamente por el clima, pasan luego por muy diversos filtros. Primero el de los autores principales, luego el de los directores coordinadores, y finalmente la revisión de los editores revisores, que pueden sugerir pero no imponer correcciones o cambios. Luego, esos informes revisados y filtrados pasan, a su vez, por otros filtros más políticos —en el seno de las reuniones del Bureau—, y finalmente son discutidos en el plenario del IPCC, formado igualmente por políticos, que es de donde emana el informe final. Esta discusión suele hacerse —al menos, para el resumen destinado a los políticos y el documento de síntesis— línea a línea, palabra por palabra. Pero, en cambio, no suele entrar a fondo en el análisis del grueso de la información que pasó por todos los filtros que hemos enumerado...

¿Qué deducir de todo este complejo mecanismo?

En primer lugar, y por encima de todas las demás consideraciones, ha de quedar muy claro que los informes finales del IPCC se apoyan sobre un gran fondo de ciencia. De muchas especialidades científicas, por otra parte, porque ninguno de los trabajos de investigación de base abarca el conjunto del problema sino que cada uno de ellos se centra en aspectos sectoriales y, a menudo, ni siquiera de índole climatológica.

En segundo lugar, que toda esa ciencia ha sido preseleccionada de tal modo que se garantice, de antemano, una especie de consenso previo en torno no sólo a la existencia de un cambio climático obvio sino de su extrema gravedad.

Y, en tercer lugar, que toda esa ciencia —con toda probabilidad ya previamente sesgada en algunos de sus planteamientos— es luego sintetizada, revisada y filtrada por un reducido número de expertos para elaborar el informe final, que es por último modificado y adaptado con criterios políticos por el plenario.

¿De verdad se puede afirmar que el resultado de esta forma de trabajar del IPCC supone un indudable «consenso científico» de tipo universal?

No es extraño que se hayan dado diversos casos de científicos relevantes que se hayan ido del IPCC dando un portazo, a veces muy poco simbólico; casos que han sido generalmente silenciados por los medios de comunicación. Por ejemplo, el físico americano Frederick Seitz (1911-2008), que fue presidente de la Rockefeller University y de la Academia Nacional de Ciencias de Estados Unidos, escribió acerca del capítulo 8 del Segundo informe del IPCC lo siguiente: «Nunca he sido testigo de una corrupción tan flagrante del proceso de revisión de trabajos por otros expertos [en inglés, peer review] como lo que aparece al final en el Informe del IPCC [se refiere al Segundo informe]». Seitz, al que se le reprochó virulentamente no ser climatólogo, no se refería a aspectos concretos de la ciencia atmosférica, sino al uso abusivo de los artículos publicados en revistas con sistema de revisión por pares, una supuesta manipulación que ha sido denunciada no sólo por él también por muchos otros como una especie de coto cerrado, una tribu de científicos próximos a las posturas del IPCC. Es más, Seitz denunciaba que el «Informe final» suprimió al menos quince aspectos básicos de los autores de base, y que la versión final estaba sesgada políticamente.

El británico Paul Reiter, famoso entomólogo del Instituto Pasteur, especializado en enfermedades tropicales transmitidas por insectos, sobre todo la malaria, fue autor principal del IPCC (segundo y tercer informes), en el apartado de cambio climático y riesgos sanitarios. Al ver que las conclusiones decían exactamente lo contrario de lo que él y otros especialistas habían indicado —a saber, que aumentaría el riesgo de que la malaria se expandiese por el Primer Mundo al subir las temperaturas, cosa que se había demostrado que no tendría por qué ocurrir—, exigió que su nombre no figurase entre los autores del IPCC. La ONU se negó inicialmente, pero acabaron haciéndole caso cuando redactó un durísimo informe para la Cámara de los Lores criticando al IPCC y su forma de tratar la información de sus científicos. Dicho informe es accesible en: http://www.publications.parliament. uk/pa/ld200506/ldselect/ldeconaf/12/12we21.htm. Reiter ha declarado recientemente que su caso no es el único y que conoce a muchos otros científicos a los que les ha pasado lo mismo que a él.

Por ejemplo, Judith Curry, quizá una de las más prestigiosas climatólogas del mundo, algunos de cuyos libros de texto son tenidos por auténticos manuales de alto nivel sobre termodinámica atmosférica. Pertenece a los más importantes organismos internacionales de su especialidad, y ha sido autora principal en los tres primeros informes del IPCC. En estos momentos está considerada como una especie de oveja negra, a pesar de que se fue del IPCC sin dar portazos mediáticos; eso sí, declaró que el organismo de la ONU había perdido para ella toda credibilidad por su comportamiento tribal, en el que se ataca a todos los que no están de acuerdo con algún aspecto concreto de sus conclusiones, y también por el oscurantismo de sus datos, que, en algún caso, puede intentar esconder más de un defecto grave, como ocurrió con la famosa polémica del gráfico en palo de hockey o con los correos electrónicos del Climategate.

Finalmente, Richard Lindzen (nacido en 1940), físico de la atmósfera y profesor de meteorología nada menos que en el MIT de Boston. Fue autor principal de los Informes 2 y 3 del IPCC. En el primero de ellos protestó porque el resumen final para políticos había sido sustancialmente modificado, pero aceptó seguir trabajando en el IPCC; y acabó renegando del Tercer informe de 2001 debido a los cambios sustanciales del texto final respecto a lo que los trabajos científicos decían acerca de la importancia del vapor de agua como eventual compensador del efecto del CO2. Lindzen también ha criticado con acritud la desmesurada importancia que los informes del IPCC han ido otorgando a los modelos de predicción, atribuyéndoles poco menos que el carácter de infalibles cuando en realidad, según él, están llenos de defectos y son escasamente creíbles. Por supuesto, Lindzen es vituperado, como Curry, por antiguos colegas que tanto alababan su nivel científico unos años antes.

4.1.2.2. Desarrollo versus medio ambiente

Al abordar el tema de los cambios climáticos desde el punto de vista científico nunca se debería partir de premisas absolutas, de apriorismos del estilo si/no, blanco/negro, bueno/malo. Por el contrario, habría que atender a los muchos matices que aparecen en un tema tan complejo; matices que tienen que ver con la indeterminación en cuanto a las leyes naturales aplicables —las conocemos imperfectamente— y también con el error relativo en la obtención y el tratamiento de los datos utilizados, y las incertidumbres en cuanto a los métodos con los que predecimos. Incluso deberíamos considerar con la máxima objetividad las consecuencias —¿por qué siempre negativas, según el IPCC?— que podríamos temer en cuanto a esos cambios de clima.

¿Quiere decir esto que, en el fondo, como no estamos seguros, lo mejor sería no hacer nada hasta que lo estemos? Obviamente, no. Muchas personas sensatas piensan que los temas del clima debieran generar alerta, pero no alarma excesiva. Esta última acaba siendo improductiva, incluso inútil; y aún más en el Primer Mundo, tan autocomplaciente, tan insolidario; tan ineficiente como desperdiciador, en suma.

O sea, que ante todo tendríamos que desperdiciar menos, es decir, ahorrar más; y, además, deberíamos ser más eficientes en el uso de la energía y de todos los demás recursos naturales, lo que implica conseguir lo mismo gastando menos. Estos dos sencillos consejos son tan fáciles de enunciar como difíciles de seguir. Pero son actitudes imprescindibles por muchas razones, incluida la solidaridad con los seres humanos más desfavorecidos; pero también lo son pensando en el futuro de nuestro entorno natural, del que en última instancia dependemos todos. Lo malo es que no son una panacea, ni siquiera una solución perfecta; pero, de momento, constituirían un buen primer paso.

Todo lo cual quiere decir que, aunque no hubiera cambio climático, habría que actuar del mismo modo que si lo hubiera y fuera a ser todo catastrófico; porque en esa lucha contra el supuesto cambio de clima que nos acecha, esas dos premisas —ahorro y eficiencia— son esenciales. Lástima que las inmensas inversiones que se realizan para el cambio climático no vayan destinadas a fines mucho más concretos relacionados con la desigualdad entre ricos y pobres, que pasarían por muchas otras vías además del ahorro y la eficiencia de los países ricos. Porque no es de recibo que el 20 por 100 de la humanidad —los ricos— estemos consumiendo el 80 por 100 de los recursos naturales del planeta.

Por tanto, el problema al que deberíamos enfrentarnos no es tanto el cambio climático en sí como un cambio general de ese comportamiento humano que nos ha ido llevando a un deterioro ambiental generado por unos impactos —tan deseables vistos desde lejos como inasumibles cuando se analizan más de cerca— ligados, ¿quizá de forma inexorable?, al desarrollo industrial. Ése es nuestro desarrollo, el de los países ricos; lo malo es que también es el que está llegando ya, y a marchas forzadas, a los países que están dejando de ser pobres muy deprisa, al menos para una parte de su población. Sobre todo, China y, tras ella, India. A los que habría que añadir probablemente Brasil y Rusia. Es decir, los países BRIC, como se les suele denominar. Sus habitantes suponen ya algo más de la mitad de la humanidad...

El modelo de desarrollo que a nosotros nos ha hecho ricos probablemente ya no es válido; incluso ahora nos damos cuenta de que, tal y como lo hemos venido aplicando, quizá nunca lo fue. Sencillamente, porque es absolutamente insostenible, incluso a medio plazo, poco más de uno o dos siglos, a lo sumo. No podemos seguir pensando en crecimientos permanentes basados en unos elementos esenciales, como las fuentes de energía, que se agotarán tarde o temprano.

Pero los países pobres y superpoblados, esencialmente asiáticos, no quieren, o no saben —o no pueden— comprenderlo; para ellos el corto plazo consiste en salir de la pobreza y parecerse a los ricos. Por eso crecen del mismo modo insostenible que lo hicimos nosotros un siglo antes.

Se alzan muchas voces que proclaman la necesidad de un estricto control de todos los impactos ambientales globales, y no sólo de las emisiones de gases invernadero. Aunque ahora esté de moda criminalizar el CO2 que sale, por ejemplo, de los tubos de escape de los automóviles, al medir los gramos emitidos por kilómetro recorrido, en realidad eso es exactamente lo mismo que cuando medíamos el consumo de un motor en litros de combustible por cada cien kilómetros recorridos. A menor consumo, menores emisiones; y no sólo de CO2 sino de todo lo demás, claro. Pero queda más «ecológico», más políticamente correcto, atacar al supuestamente malvado dióxido de carbono que proclamar un menor consumo. Aunque sean exactamente lo mismo...

Esas voces que reclaman un modelo menos insostenible de desarrollo proceden no tanto de la comunidad científica concienciada —que muestra preocupación e interés por este y otros retos, pero está hipnóticamente seducida de forma mayoritaria por el cambio climático— como de la sociedad civil de muchos países ricos, seguida de lejos y con timidez por la comunidad política, y todavía de manera parca y renuente, por no decir hostil, por la comunidad económica. Porque lo que se reclama son conductas que acaben siendo ambientalmente viables; pero, paradójicamente, las sociedades mismas que han podido generar esas voces son luego incapaces de promover dichas conductas.

Eso pasa con múltiples organizaciones tanto ecologistas como sociopolíticas de diverso signo, pero mayoritariamente de izquierdas. Algunas de estas organizaciones civiles —existen muchas ONG, pero no todas son igual de eficientes, ni de generosas— sin adscripción ideológica se dedican a acudir en socorro de las situaciones más urgentes, como Cruz Roja, Médicos sin Fronteras y algunas más que merecen admiración y apoyo. Pero hay otras que dejan mucho que desear, en sus objetivos y en sus métodos.

Es curioso: numerosas encuestas en los países ricos señalan que el cambio climático preocupa mucho a una amplia mayoría de la población. Pero luego la realidad es bastante tozuda y muestra de manera clara que esa preocupación no se traduce en casi nada que sea útil. No hay más que mirar el caso de España, un país rico de la Unión Europea y que, dentro de ella, defiende de manera firme el Protocolo de Kioto para reducir los gases de efecto invernadero. Pues bien, aunque nuestro compromiso con Kioto fue alcanzar en el año 2012 unas emisiones sólo superiores en un 15 por 100 a las de 1990, fuimos capaces de terminar el año 2005 con un incremento superior al 52 por 100. Y a finales de 2012, a pesar de la feroz crisis económica —que ha sido muchísimo más efectiva para reducir nuestras emisiones de CO2 que los buenos deseos políticos de unos y otros—, seguimos todavía muy por encima del objetivo propuesto. Aunque conviene añadir, en honor a la verdad, que el impulso de las renovables, sobre todo la eólica, está aportando desde hace unos pocos años un porcentaje sensible de electricidad bastante menos contaminante, lo que además reduce un poco nuestras emisiones directas de dióxido de carbono (que aunque no es contaminante, sí está acusado de alterar los climas). Con la contrapartida, eso sí, de que a veces tenemos tanta electricidad producida que hay que bloquear la producción eólica ya que, por desgracia, no sabemos aún cómo acumular esa energía sobrante cuando no es posible evacuarla por las redes internacionales.

En todo caso, si nos fiamos —¿por qué no, al menos en cuanto a la tendencia a medio plazo?— del CO2 que se mide en Mauna Loa, es obvio que su concentración sigue al alza imparablemente, incluso de forma acelerada en los últimos años. Algo que no suena descabellado si tenemos en cuenta que el consumo de carbón mundial está aumentando a un ritmo similar, si no superior, al de hace unos años, y que al petróleo de siempre se comienzan a añadir ya el petróleo y el gas procedentes de los yacimientos bituminosos (arenas y esquistos), lo que en inglés se llama shaleoil and gas.

O sea, que si alguien desea que deje de aumentar la concentración de dióxido de carbono, lo primero que debería hacer es recomendar a los países más poderosos —China, Estados Unidos, Europa— que reduzcan sus consumos de combustibles fósiles. Algo que está lejos de ocurrir; antes al contrario, ese consumo crece y crece.

Suena paradójico, por no decir hipócrita, ¿verdad? Si está todo el mundo tan preocupado por el CO2, ¿por qué los americanos y los chinos queman ahora más carbón y petróleo que nunca? Parece como si fuera una preocupación sólo de cara a la galería...

El caso del carbón y su consumo masivo como fuente de energía es paradigmático. Fue el origen de la revolución industrial y todavía hoy mantiene su carácter de elemento clave de la obtención de energía barata; pero a cambio de mucha contaminación y de la emisión de mucho CO2. De hecho, es la fuente de energía actual que más dióxido de carbono emite por unidad de energía producida. Pero fue —y todavía sigue siendo— la primera fuente de energía masiva, y acabará siendo la última porque, con las reservas conocidas y al ritmo actual de consumo, aún queda carbón para varios siglos.

Bien, pues a pesar de sus desventajas, y con el único dato a favor de un precio sumamente favorable, el carbón vuelve a tener las preferencias de casi todo el mundo. Adiós al ahorro de recursos naturales perecederos, tan recomendado hace unos años como la única vía posible para reducir el cambio climático que nos acechaba. Menos mal que, al menos por ahora, aunque el CO2 ha crecido cada vez más deprisa desde 1998, la temperatura media se mantiene sin subir, en contra de lo que predecían los modelos. Porque, en todo caso, el consumo global de carbón volvió a subir con fuerza a partir de 2009 y hoy alcanza los 4.000 Mtoe (Million tons oil equivalent, millones de toneladas de petróleo equivalente), cuando en 2001 estaba en casi la mitad, 2.380 Mtoe.

En cuanto al más famoso de los gases de efecto invernadero, con leves diferencias de un año a otro, el ascenso sigue siendo casi lineal, con un incremento anual en torno al 2 por 100, como lo plasma el gráfico anterior, tomado de la web http://co2now.org/, con datos de Mauna Loa. Es evidente que el Protocolo de Kioto no ha conseguido que el mundo cumpla el que era quizá su principal objetivo: frenar la escalada de la concentración de CO2 en la atmósfera. Eso sí, ha propiciado el jugoso negocio de las cuotas de emisión.

¿Quiere esto decir que la humanidad es muy malvada, globalmente considerada, porque a pesar de los negativos augurios de los científicos se empeña en seguir emitiendo más y más CO2, incluso en plena crisis económica? Bueno, a lo que la humanidad se está enfrentando en realidad no es a un cambio climático horroroso, que no se ve por ninguna parte, sino a una problemática humana y ambiental que va mucho más allá del tema atmosférico o climático; y que tiene que ver con las desigualdades entre humanos, con la contaminación y el agotamiento de los recursos, con el mal uso que hacemos los ricos de los recursos que dilapidamos, y sobre todo con la crisis económica, que se lleva por delante la concienciación ambiental que, a lo que se ve, estaba cogida con alfileres...

Esa insostenibilidad del mundo rico de hoy impide la generalización de su desarrollo al mundo pobre que está dejando de serlo, que es cinco veces más numeroso, y aún más al mundo más desfavorecido, literalmente muerto de hambre, que está compuesto por un total de seres humanos tan numeroso como el de los ricos.

Pero ni siquiera los defensores del medio ambiente quieren ver el asunto desde este prisma global, indudablemente complejo. Prefieren fijarse de manera casi obsesiva en cosas tan aparentemente concretas —no es cierto, no hay nada más difuso y discutible, científicamente hablando— como el cambio climático, el efecto invernadero, el CO2... Han acabado por convertirlos en la única y definitiva espada de Damocles que pende sobre un mundo inerme y amenazado por su causa. Pero no; como mucho pueden ser sólo síntomas, y quizá no los peores, de que las cosas andan mal en el mundo desarrollado.

Ya hemos visto en varias ocasiones que, en esto del cambio climático, el mito y la realidad conviven. El invernadero y el infernadero son, en realidad, una misma cosa, por contradictorio que parezca. Son sólo dos percepciones diferentes de un mismo asunto. Es posible que podamos aclarar algunos de sus aspectos y predecir mejor algunas de sus consecuencias, tan sólo mejorando nuestro conocimiento científico —desde puntos de vista críticos, sin apriorismos, sin dar nada por hecho de antemano— acerca de lo que sabemos, que seguramente es poco, y lo que ignoramos, que sin duda es mucho más. Enseguida lo veremos.

En cuanto a lo que tememos, cada cual es dueño de sus miedos. Incluido el miedo al cambio climático... Aunque no parece muy defendible el hecho de propiciar dicho temor incluso por encima del rechazo a las desigualdades, a la injusticia y a la violencia de unos y otros seres humanos. Propiciar el miedo al cambio climático por encima de la batalla contra el hambre, contra la guerra nuclear, contra el terrorismo internacional, contra la mortalidad infantil... resulta sencillamente inhumano.

¿Cómo pudo alguien afirmar sin caérsele la cara de vergüenza que el cambio climático suponía la peor amenaza global a la que se enfrenta la humanidad?

4.1.3. Los malos de la película: efecto invernadero y CO2

4.1.3.1. Medir... y comprender

4.1.3.1.1. Dificultades numéricas de nuestra mente

No es fácil analizar a fondo las cuestiones relacionadas con el cambio climático, en las que destaca el papel estelar del CO2 como el auténtico malo de la película, como mano derecha de su jefe en el hampa climática, el aún más malvado efecto invernadero. Lo que no está claro es quiénes serían los buenos de esta película...

La dificultad no estriba tanto en determinar quiénes serían los buenos y los malos de semejante película sino en comprender la complejidad de las cuestiones que hay que abordar si se quiere comprender realmente cuál es el problema al que nos enfrentamos. Una complejidad que tiene mucho que ver, sin ir más lejos, con la dificultad de imaginar lo que significan las cifras inmensas que debe barajar la climatología.

La realidad física de nuestro planeta, cubierto de agua en un 70 por 100 de su superficie (ya es sabido, lo hemos bautizado mal, debió llamarse planeta Agua, no Tierra), es de lo más singular: está rodeado de una atmósfera gaseosa, una de cuyas características básicas consiste en almacenar en poca cantidad —relativa— ciertos gases que a su vez contribuyen a la acumulación de mucho más calor del que habría sin ellos. Este «efecto invernadero» ha sido sumamente afortunado para la vida porque hace que nuestro planeta sea habitable.

Todo ello ocurre en nuestro planeta, gigantesco a escala humana pero muy pequeño a escala cósmica. Y cuando se trata de abarcarlo en su totalidad, nuestra mente muestra pronto sus limitaciones porque la escala de dimensiones que hay que abarcar se aleja mucho de lo que nos es familiar en la vida cotidiana. Y eso ocurre con el peso o el tamaño, pero también con el tiempo cronológico, que se remonta a siglos, milenios, incluso millones de años. La razón es obvia: nuestros patrones de comparación desaparecen con esas grandes cifras: sabemos medir distancias en centímetros, en metros, en kilómetros... pero no en años luz, ni tampoco en micrómetros. Sabemos lo que es un segundo, una hora, un día, un año... pero no lo que es un milenio o un millón de años, ni tampoco lo que es una millonésima de segundo. Sabemos que la velocidad de un peatón es de pocos kilómetros por hora, que un avión vuela a mil kilómetros por hora..., pero no sabemos realmente lo que significa la velocidad de la luz, que se mide en cientos de miles de kilómetros por segundo.

Incluso cuando nos referimos a la revolución industrial como origen de la actual preocupación por las relaciones entre el progreso y el conflicto ambiental —y como responsable, todo hay que decirlo, de la calidad y cantidad de vida alcanzada por los países desarrollados—, estamos abarcando períodos ya bastante largos para los seres humanos: Watt ideó su máquina de vapor en la segunda mitad del siglo XVIII. De entonces acá han transcurrido sólo dos siglos y pico, un intervalo de tiempo relativamente corto para cuestiones climáticas, pero aun así muy superior a la vida humana. Las pelucas que llevaban Bach y Händel en la primera mitad de aquel mismo siglo XVIII nos parecen muchísimo más antiguas que la enorme calidad de su música...

Eso sí, con la ayuda de los documentos históricos sabemos bien quiénes fueron Julio César o Jesucristo, hace poco más de veinte siglos. Pero nos parecen tiempos muy remotos, incompatibles con lo que conocemos y vivimos en la actualidad. Y cuando nos lo enseña el cine, casi nos parece estar viendo a seres de otro planeta... que hablan como nosotros aunque seguro que no lo hacían así.

Nuestra mente tiende, inevitablemente, a asimilar —incluso a confundir— los larguísimos períodos de tiempo del pasado con los mucho más breves períodos de nuestra vida cotidiana. De hecho, la confusión alcanza incluso a los gráficos elaborados por científicos cualificados, cuando muestran, por ejemplo, la evolución de las temperaturas o de las concentraciones de CO2 en los últimos cientos de miles de años. Esos gráficos adoptan el mismo formato que los mapas y gráficos de las variaciones durante los últimos decenios, año a año. Es más, suelen incluso mezclar ambos datos en un mismo esquema, a pesar de que la diferencia de escala temporal entre una parte (la antigua) y la otra (la reciente) es de... ¡cientos de veces!

En todo caso, de manera patente o solapada, la dificultad del cerebro humano para imaginar fechas, distancias, tamaños, masas... que se salen de lo usual en la vida cotidiana está detrás de todas estas cuestiones. Y ello explica que el cambio climático, que tiene mucho de real, sea también bastante más mítico de lo que debiera, aunque sólo sea porque apela a unas cifras que nuestra imaginación no es capaz de procesar.

El mero hecho de medir el dióxido de carbono en ppm, es decir, en partes por millón, resulta ya problemático para la mayoría de las personas. Cuando se le explica a alguien que es lo mismo que los porcentajes, pero en lugar de partes por cien son partes por millón, o sea diez mil veces más pequeñas, siempre hay algún despistado que piensa que los ppm son grandísimos. Y cuando le sacas del error, y que 400 ppm equivalen a un 0,04 por 100, entonces pone cara de asombro al comentar: «¿Y por esa nimiedad nos dan tanto la lata?».

Suena a broma; pero no hay que engañarse, ante este tipo de cifras pequeñas o grandes —tan corrientes para los científicos—, la inmensa mayoría de la población permanece inerme. Es decir, no entiende realmente lo que significan. ¿Qué importancia tiene un aumento de 2 ppm de CO2 en un año? ¿No es, acaso, muy poco? Sí, en cuanto a partes por millón, o porcentajes. Pero... Si en la atmósfera hay, en un determinado volumen de aire, un millón de litros, de ellos unos 780.000 serán de nitrógeno, unos 209.500 de oxígeno, otros 9.300 de argón... y unos 398 de dióxido de carbono. Y si un año después hay 400, sigue siendo muy poco. Salvo que lo cifremos en valores absolutos; porque supone nada menos que varios petagramos, o sea varios miles de millones de toneladas... Produce mareo pensar que esa enorme masa, inimaginable en su cuantía (¿sabe alguien de verdad lo que son miles de millones de toneladas de cualquier cosa?), sea sólo un 0,04 por 100 de algo que, obviamente, es muchísimo más grande; 2.500 veces más grande, para ser exactos.

En suma, las cifras que cuantifican los gases atmosféricos, o bien las de las fechas que se barajan para los climas que cambiaron en el pasado —en el apartado de los modelos veremos que también hay fechas grandes que tienen que ver con los posibles cambios futuros—, no son ni sencillas de comprender ni fácilmente abarcables por la imaginación.

Y eso lleva a conductas absurdas: como querer poner medidores de CO2 en casa por si el «peligroso» gas aumenta en exceso. Porque, claro, el mito extendido es que el dióxido de carbono es malo. Aunque sea el gas de la vida. Aunque sea inocuo respirarlo, como ocurre con el nitrógeno, del que hay en el aire no un 0,04 por 100 sino nada menos que un 78 por 100... Y el aire que espiramos al respirar contiene más CO2 que el que inspiramos. Aunque, por mucho CO2 que exhalen los asistentes a una fiesta dentro de una casa, incluso si la concentración llegara a 500 ppm, que ya es suponer, eso sólo supondría un 0,05 por 100 del volumen de aire. Basta recordar que el oxígeno ocupa algo más del 20 por 100 de ese mismo aire, o sea, 400 veces más... Eso sí, si alguien fuma, la combustión del tabaco sí que contribuiría a empeorar el asunto, empobreciendo en oxígeno la atmósfera de la fiesta, es decir, «viciando» el aire. O sea que, puestos a poner medidores de algo, lo ideal sería en tal caso controlar el oxígeno, o, aún mejor, los gases residuales —venenosos y cancerígenos— del tabaco y del papel del cigarrillo cuando arden, incluido el radón, radiactivo, que aunque en ínfima cantidad también está en el humo del tabaco y nos daña a todos, fumadores activos o pasivos. Pero, medir el CO2, que es inocuo, resulta sencillamente ridículo.

Bien, el caso es que estas cuestiones climáticas a gran escala —grandes regiones, incluso el planeta entero— y a largo plazo —millones de datos diarios, mensuales, anuales... tomados en miles de observatorios— presentan una complejidad numérica extraordinaria, propia de la diversidad de los fenómenos estudiados, muchos de ellos mal conocidos, a pesar de todo. Tanto, que a veces tomamos por asombrosas y altamente preocupantes cifras que suena alarmantes y que en realidad encierran muy escasa gravedad.

Por ejemplo, al hablar del nivel del mar, cuya altura media puede estar subiendo por el calentamiento global. Los datos que se aportan como indicadores de una situación alarmante cifran esa subida media de los mares del mundo en unos 3 milímetros por año, es decir 30 centímetros por siglo. Como la cifra parecía realmente baja, a pesar de la alarma que se intentó difundir en torno a ella, ahora se está revisando al alza debido a que en el Ártico, en los últimos cinco años, se han dado las temperaturas más altas desde... 1980. O sea, desde hace apenas treinta años. Lo que ha hecho suponer a los expertos del Consejo Ártico —agrupación política de Canadá, Estados Unidos, Dinamarca, Finlandia, Islandia, Noruega, Suecia y Rusia—, en un informe hecho público en febrero de 2013, que el ritmo de calentamiento en el entorno del Polo Norte en estos cinco últimos años se va a mantener así, lo que está por ver, hasta finales del siglo XXI, y que eso elevará el nivel del mar cuatro o cinco veces más que los 30 centímetros inicialmente previstos. Es decir, entre 80 centímetros y un metro y medio dentro de un siglo.

Por supuesto, los periódicos de mediados de febrero de 2013 no sólo han hecho pública la noticia, como deben, sino que por su cuenta se atreven a afirmar en futuro afirmativo, y no en condicional como debieran: «Esa subida inundará dentro de un siglo ciudades muy pobladas como Nueva York o Shanghai». O sea, se da por hecho que algo así va a ocurrir... ¡dentro de 87 años! Lo sorprendente es que se extrapola una tendencia de los últimos cinco años a todo un siglo, y se afirma con seguridad que va a ocurrir... cuando ninguno de nosotros esté ya aquí.

No importa. ¿Sabe algo el lector del periódico acerca de estas sutilezas? No, lo que retiene es que el mar está subiendo muy deprisa y que va a anegar en breve —total, ¿qué son 87 años?— las grandes ciudades costeras. O sea, que esto es un desastre... Pero nadie reparará en que entre los integrantes de ese Consejo Ártico están Estados Unidos y Rusia, que son el segundo y el cuarto máximos emisores de contaminación, y también de CO2, del mundo (el primero es ya China; el tercero, India), y que en 2012 batieron sus récords de emisiones. ¿De verdad están tan preocupados?

Y, aun así, si dentro de casi un siglo sube el nivel medio del mar un metro, hemos de tener presente que las mareas en muchas zonas costeras atlánticas de Europa, por ejemplo, alcanzan diferencias de muchos metros dos veces al día. Allí es difícil creer que unos cuantos centímetros, incluso un metro, dentro de un siglo sea algo que vaya a cambiar mucho el panorama. Las mareas altas subirán un poco más, las bajamares descenderán de nivel un poco menos...

A la subida de la marea al menos 10 o 15 metros dos veces al día se acostumbra uno porque no hay más remedio; es más, hay quien le saca alguna ventaja. Por ejemplo, hay unos corderos, de sabor especial, muy reputados gastronómicamente, que se llaman en Bretaña y Normandía pré salé, prado salado, porque comen hierba salada de praderas a las que afecta de vez en cuando la marea. A una subida lenta, y se supone que progresiva, que cambie dentro de un siglo el nivel medio del mar un metro —en unos sitios más, en otros menos, por cierto—, será difícil que se le pueda llamar tragedia. Sobre todo porque nadie parece saber cómo ponerle remedio a esa situación, si es que de verdad llega a producirse. Eso sí, los países pobres que están casi al nivel del mar, como algunas islas del Índico y del Pacífico, o las costas bengalíes, les vendría muy bien ahora y siempre una ayuda económica de los países ricos; pero no para evitar el cambio climático, que no saben cómo hacerlo, sino para mejorar su bajo nivel de vida actual y combatir su pobreza secular.

Además, por si todo esto fuera poco, resulta que las zonas continentales costeras están elevándose en unas regiones, y en otras descendiendo de nivel, por razones estrictamente geológicas, o incluso inducidas por la mano del hombre. No a corto plazo, pero si estimamos períodos de un siglo las elevaciones de ciertos continentes se acercan al metro en costas afectadas por movimientos tectónicos —el sur de España, sin ir más lejos—, o a descensos de unas cuantas decenas de centímetros también en un siglo en zonas de delta de ríos cuyo curso está parcialmente interrumpido —por ejemplo, también en España, el delta del Ebro, y, en Francia, el delta del Ródano.

Y, por cierto, ¿tenemos aparatos numerosos y precisos en todos los océanos del mundo, y desde cuándo, para medir, con esa extraordinaria exactitud, al margen de olas y mareas, las variaciones del nivel del mar... en milímetros por año? La respuesta es categórica: no. Ni los tenemos ni las medidas indirectas que se hacen son fiables, al menos hasta hace un par de decenios, cuando por fin hemos dispuesto de satélites especializados. Entonces, ¿de qué estamos hablando? Simplemente, de datos sumamente aproximados y con unas enormes incertidumbres en su medida. Lo del Consejo Ártico ni siquiera es una medida, sino una suposición a raíz de los cinco últimos años cálidos en la región; ni siquiera ha sido corroborado por las medidas, que en todo caso tardarán en mostrar, o no, ese efecto.

Aquí también, para más inri, la estadística resulta de nuevo engañosa. Si el mar llegara a subir ese metro dentro de un siglo, lo cierto es que ese aumento no sería uniforme. Es más, como sería consecuencia de un calentamiento del aire, dentro de esos cien años ni siquiera sabemos si dicho calentamiento no evaporará más agua de los mares, eliminando en parte o en todo los efectos de ese ascenso. El asunto es muy sustancial, por ejemplo, en el Mediterráneo; en verano, que en la región suele ser seco y caluroso, desciende su nivel medio de forma notable.

¡Cuántas cosas ignoramos... que se supone que conocemos bien! Lo veremos de una forma más general en el apartado de lo mucho que ignoramos.

La dificultad de cuantificar y valorar tal cantidad de cifras no tiene que ver en este caso con el hecho de que sean magnitudes inabarcables para la imaginación humana, sino que el problema estriba en el inmenso número de datos que, además, son promedios estadísticos durante períodos muy largos de tiempo. Todo ello contribuye a que el mensaje se quede sólo en el significado aterrador que se le quiera dar, de manera a menudo intencionada: el nivel del mar sube alarmantemente, y aún subirá más, lo que va a causar enormes calamidades. Cuanto más simple y dramático, más efectivo. Aunque sea falso.

Las cifras en cuestiones climáticas globales suelen ser, al contrario que en el caso de la elevación del nivel del mar, sencillamente inimaginables: ya no son milímetros sino muchos millones de millones... Por ejemplo, recordemos que el carbón actual fue secuestrado del aire por las enormes plantas verdes existentes en la época en que comenzaron a almacenarse bajo tierra los residuos de esos vegetales muertos. Era el Carbonífero, que duró unos 60 millones de años (hace 360 a 300 millones de años). Por su parte, los diversos hidrocarburos que extraemos son más recientes ya que se formaron en el Cretácico tardío, desde hace unos 100 millones de años hasta hace 65; una época muy cálida con enorme proliferación de la vida submarina, cuyos restos orgánicos en el fondo oceánico acabaron descomponiéndose en eso que hoy llamamos hidrocarburos por estar formados esencialmente por hidrógeno y carbono.

De nuevo hablamos de muchos millones de años, manejándolos como si fueran períodos de tiempo tan usuales para nosotros como las horas o los meses... Pero son cifras mareantes, así sin más. Porque, ¿cuál es la cuantía real de todas esas magnitudes?

Veámoslo en el caso del carbono, el átomo orgánico por excelencia; conocemos algunas cifras, con cierta aproximación. Antes de la revolución industrial se estima que había en la atmósfera terrestre menos de 600.000 millones de toneladas de carbono; es decir, 600 petagramos (Pg). Hoy la cifra debe estar cerca de 900 Pg. Es muy probable que la inmensa mayoría de este incremento —del orden del 45 por 100 en siglo y medio— se deba a la industrialización de los países ricos, a los que se vienen añadiendo en los últimos años los países asiáticos en desarrollo, esencialmente China, y después India. Eso ha requerido masivas cantidades de energía, obtenida en un 80 por 100 quemando hidrocarburos fósiles.

En 2010, la energía que utilizó el mundo entero (o sea, sólo el mundo desarrollado más China e India) implicó la emisión anual de 30,6 Pg de dióxido de carbono; como la química nos enseña que una unidad de masa de carbono supone 3,67 unidades de masa de CO2, eso supuso unos 8,5 Pg de carbono. A finales de 2012, pudimos conocer las cifras de 2011: las emisiones de carbono fueron levemente superiores a los 9 Pg. Y se teme que en 2012 acabemos estando en los 10 Pg, o muy cerca. Se sabrá en el verano de 2013...

Por cierto, cada 2,12 Pg de carbono (o bien cada 7,8 Pg de CO2) equivalen a una parte por millón en volumen (1 ppm). O sea, que los 30,6 Pg de CO2 emitidos en 2010 equivalen a unos 4 ppm (exactamente, 3,92). Por supuesto, no todo se queda en la atmósfera; se calcula que lo que permanece en el aire es entre la mitad y un tercio de esa cantidad porque el resto es absorbido por el ciclo natural del carbono —un ciclo que implica un sector biológico, animales y plantas, y otro sector inerte, el geológico.

Hemos de subrayar lo aproximado de estas estimaciones. Que, sin embargo, forman parte esencial de los datos de base que sirven para modelizar los climas futuros. En casi todas las cuestiones referidas al cambio climático aparecen, cuando se analizan las cosas con detalle, notables incertidumbres de este calibre en cada uno de los datos que son los componentes de base de los cálculos para los modelos matemáticos de predicción. O sea, que no cabe otorgarle demasiada fiabilidad a esas predicciones... digan lo que digan los medios de comunicación o los informes científicos que se basan en tales cálculos.

Bien, pues esa enorme cantidad de carbono —¡los petagramos son billones de kilos!— emitida anualmente por nuestra actividad industrial es, proporcionalmente hablando, una cantidad muy pequeña (unas 4 partes por millón, o sea 0,0004 por 100) respecto al conjunto de los gases atmosféricos. Un porcentaje minúsculo, sí, aunque en valor absoluto se trata de una cantidad gigantesca.

Bueno, pues si todo esto produce mareo, lo que ahora viene lo deja chico. Porque para relativizar lo que esta locura de cifras significa respecto al total del carbono que se mueve en el ciclo planetario global, no hay más que remitirse a los siguientes datos: todos los organismos vivientes de la biosfera almacenan en su biomasa un total de más de 800 Pg de carbono. La materia orgánica muerta, tanto en tierra como sobre todo en los océanos, supone unos 2.800 Pg (2,8 exagramos, Eg). El permafrost —los suelos permanentemente helados de las zonas polares y subpolares— acumula por sí solo bastante más de 1.000 Pg (1 Eg). Además, en los océanos está disuelto otro tanto, 1.000 Pg, y las turberas y otras zonas pantanosas acumulan 500 Pg. En el dióxido de carbono atmosférico ya vimos que hay casi 900 Pg de carbono (y la actividad industrial humana incrementa esa cifra en casi 10 Pg cada año). En cuanto a los carbonatos disueltos en los océanos, se calcula que suponen unos 37.000 Pg (37 exagramos). Y los combustibles fósiles aún no extraídos ni quemados suponen, según unos u otros cálculos, entre 5.000 y 10.000 Pg, de los que algo más de las tres cuartas partes están en forma de carbón (ya va quedando menos petróleo y gas natural, pero aún existe muchísimo carbón). Pues aun así, la máxima cantidad de carbono la acumulan los sedimentos calcáreos: nada menos que 20.000.000 Pg de carbono, o sea, 20 zetagramos (Zg). Un zetagramo equivale a un millón de petagramos o 1.000 exagramos.

Este apartado lo hemos titulado «Dificultades numéricas de nuestra mente». ¿Estaba o no justificado semejante título?

Claro, nadie utiliza múltiplos tan elevados en la vida diaria. Es más, probablemente muchas personas ignoren incluso esos prefijos que estamos utilizando: peta-, exa- y zeta-, que equivalen a 1015, 1018 y 1021. O sea, un 1 seguido de 15 (y de 18 y 21 ceros). Incluso existe un prefijo aún mayor, yotta-, 1024, es decir, un 1 seguido de 24 ceros. Y si no fuera por la informática, ni siquiera estaríamos familiarizados con los prefijos inferiores, como mega-, giga- y tera- (106, 109 y 1012, respectivamente). Y aunque todo esto suena muy científico, en realidad el tema de los prefijos y sufijos, como los múltiplos y submúltiplos, es más bien un asunto gramatical. Otra cosa es que se utilicen poco.

¿Qué proporción existe entre unas y otras magnitudes gigantescas? ¿Cómo englobarlas en una teoría que resulte luego comprensible no ya para los científicos, que saben más o menos cómo abordar estos problemas, sino para la ciudadanía en general?

En cuanto al tiempo, siempre podemos obviar las cifras y acabar deduciendo, más o menos explícitamente, que miles de millones de años o cientos de miles de años suenan más o menos a lo mismo: a muchísimo tiempo. Eso sí, lo que se nos cuenta de aquellas épocas remotas nos acaba pareciendo similar a lo que hoy sabemos de los últimos años o decenios. Pero, claro, la desproporción es enorme: los cientos de millones de años del Eón Proterozoico, por ejemplo, es un tiempo mil veces mayor que los cientos de miles de años de las «recientes» glaciaciones del Cuaternario. Y estos períodos gélidos del Cuaternario —recientes, y relativamente breves desde el punto de vista geológico— son cientos de veces más extensos que los pocos milenios del Holoceno. Que a su vez suponen mucho tiempo si se comparan con los tres o cuatro siglos de duración del Óptimo Climático Medieval o de la Pequeña Edad del Hielo. Y no digamos si nuestra referencia es sólo el siglo XX, o lo que llevamos del XXI, un decenio largo desde el año 2001.

4.1.3.1.2. ¿Cómo medir el CO2?

Hemos aludido en páginas anteriores a los petagramos de carbono que, en forma de dióxido de carbono, existen en la atmósfera. Recordando que un petagramo son mil millones de toneladas, no estaría de más preguntarse de qué forma se mide esa magnitud global tan considerable, que aun así sólo supone una concentración media de CO2 en el aire del planeta de 0,04 por 100, que aumenta imparablemente desde hace casi un siglo.

Quizá este asunto esté en el corazón mismo del debate sobre el calentamiento global: ¿es realmente trascendente para el cambio climático ese incremento del CO2, o existen otros factores igual de importantes, si no más?

Ante todo, digamos que hoy, la mayor parte de los expertos acepta que las medidas de CO2 que se toman actualmente —y desde 1957— en Mauna Loa son plenamente representativas de la concentración media de dicho gas en el conjunto de la atmósfera. Nada que objetar a la forma en que se obtienen esos datos, mediante métodos sofisticados y bien verificados; eso sí, no son comparables a los métodos anteriores, basados en análisis químicos más complejos y menos representativos del conjunto.

Lo que en cambio quizá quepa preguntarse es por qué se presupone casi de forma automática que esos datos representan realmente a la atmósfera planetaria en su conjunto. Se trata de unas medidas puntuales, tomadas en la cima de un volcán activo, a casi 3.500 metros de altitud, en una zona subtropical del hemisferio norte. ¿Qué se mide exactamente en Mauna Loa?

A esa altitud, con más de un tercio de la atmósfera real por debajo, ¿es el CO2 medido realmente significativo de lo que ocurre en todo el planeta? Las capas bajas de la atmósfera son las más activas, las que muestran más intercambios y mayor irregularidad en todos sus fenómenos, y las que engendran la mayor parte de los intercambios airesuelo-agua-hielo-seres vivos... ¿Pueden ser los datos de Mauna Loa, medidos a esa altitud, suficientemente representativos de todo eso que ocurre aquí abajo, y en todas las latitudes? ¿Se puede afirmar sin la menor duda que la influencia de ese gas, a esa altitud, sobre el efecto invernadero global refleja bien la influencia global de todo el CO2 atmosférico, incluyendo el de las capas bajas de la atmósfera?

Muchos científicos piensan que sí, en parte porque probablemente sea así, y en parte, también, porque resulta mucho más cómodo lidiar con esas cifras que sabemos cómo obtener y calibrar día a día, mes a mes, año tras año, que intentar integrar la variadísima influencia de los distintos niveles de CO2 que se dan en unas u otras latitudes por todo el mundo.

Pero sabemos que los intercambios biológicos y geológicos en las zonas de frontera aire-agua-tierra desempeñan un importante papel en las cifras de dióxido de carbono del aire. Y eso sólo ocurre en las capas más bajas de la atmósfera, no a tres mil quinientos metros de altitud. Y aunque casi nadie duda de que los datos de Mauna Loa puedan ser excelentes, no hay duda de que lo son... en aquel lugar, en esa latitud y a esa altitud. Pero puede que no sean extrapolables a toda la atmósfera en su conjunto.

Es ésta una más de las incertidumbres que afectan a los modelos matemáticos de predicción a largo plazo; el dato de Mauna Loa se considera como indiscutible a la hora de representar el nivel de CO2del conjunto de la atmósfera.

Con todo, numerosos científicos defienden la tesis según la cual, precisamente por estar alejado Mauna Loa de cualquier influencia industrial o de las capas bajas del aire (aunque sin olvidar la presencia misma del volcán en actividad sobre el que se asienta), sus medidas reflejan bien lo que ocurre, en promedio, en todo el planeta. Pero lo malo es que el entorno del IPCC ha convertido esa idea en una especie de dogma intocable...

Dicho lo cual, a nadie se le escapa que la tendencia de incremento continuo de la concentración de dióxido de carbono medido en el volcán hawaiano desde hace medio siglo resulta, obviamente, más que sospechosa. Aunque lo cierto es que si el CO2 crecía de manera continua, en cambio las temperaturas se han comportado de forma mucho más aleatoria. Por ejemplo, no deja de ser curioso que cuando comenzaron los registros en Mauna Loa era cuando la temperatura no subía sino que más bien bajaba. Aquel descenso duró, como hemos visto, desde 1940 hasta 1978, durante casi cuatro decenios; mientras, en Mauna Loa el CO2 subía en flecha desde 1957 y, probablemente, desde bastantes años antes.

Luego la temperatura y el CO2 subieron en paralelo entre finales de los setenta y finales de los noventa. Pero las temperaturas se han estabilizado desde 1998 hasta la actualidad (escribimos esto en febrero de 2012), mientras que el CO2 ha seguido subiendo de forma sostenida.

Es obvio que las temperaturas no subieron sólo a finales del siglo XX sino que ya hemos visto que llevan haciéndolo, con altibajos, desde finales del siglo XVII... ¿Qué pasaba con el CO2 antes de 1957? No lo sabemos bien; las medidas antiguas de CO2 no se hacían en el volcán hawaiano sino en muchísimas otras localizaciones de todo el mundo, al menos del mundo más desarrollado, y mediante metodologías químicas más complejas, pero no por ello deficientes. De hecho, las mejores medidas por métodos químicos, durante el siglo XIX y buena parte del XX, tenían una precisión bastante alta. Pero lo que querían los científicos era confirmar o no esa relación a más largo plazo entre ascenso de CO2 y ascenso térmico.

Una idea que no era nueva porque ya a finales del siglo XIX los científicos suecos Svante Arrhenius (1859-1927) y Nils Gustaf Ekholm (1848-1923), con los conocimientos todavía rudimentarios sobre climatología que se tenía en aquella época, habían alertado sobre la posibilidad de que el CO2 derivado de la creciente industrialización (¡de finales del siglo XIX!) alterase los climas.

En el siglo XIX se habían registrado ya miles de medidas químicas del contenido de CO2 en la atmósfera; muchos de aquellos datos eran de muy buena calidad. Pero Arrhenius y Ekholm no tuvieron acceso a ellos. En cambio, después de la primera guerra mundial, otro pionero de la tesis del calentamiento global por CO2 antropogénico, el ingeniero e inventor británico (por cierto, nacido en Canadá) Guy Stewart Callendar (1898-1964), retomó las tesis emitidas años antes por los suecos y se puso a recopilar en sus ratos libres, en plan aficionado (él era en realidad experto en máquinas de vapor), datos medidos en el siglo XIX. No accedió a todos los disponibles probablemente por imposibilidad física, y se quedó con los que le parecieron más interesantes, aquellos que confirmaban la idea de que el CO2 tenía que mostrar algún tipo de subida.

Fue un trabajo asombroso para aquella época, a finales de los años treinta. Pero años más tarde, un meteorólogo del Servicio Oficial Norteamericano (US Weather Bureau) llamado Giles Slocum publicó, 17 años después de Callendar (o sea en 1955), un trabajo en la revista científica Monthly Weather Review, que curiosamente pasó desapercibido, incluso ignorado posteriormente por los expertos del IPCC, que en cambio habían aceptado sin el más mínimo reparo las cifras sesgadas de Callendar. No obstante, Slocum demostraba en su trabajo, con datos y pruebas contundentes, que la selección de estaciones de Callendar —por cierto, todas en el hemisferio norte y por encima del paralelo 45º— era arbitraria y que, por tanto, sus conclusiones en torno al nivel de CO2 en el siglo XIX no parecían fiables.

De hecho, Slocum afirmó (en 1955, no lo olvidemos) que al haber dejado de subir las temperaturas —subieron durante los primeros cuarenta años del siglo XX, pero no en los cuarenta años siguientes—, eso invalidaba la tesis de Callendar y, por ende, de Arrhenius y Ekholm, según la cual la subida del gas engendraría una subida paralela y acelerada de las temperaturas.

Slocum opinaba, además, que la enorme variabilidad del CO2 a lo largo y ancho del planeta impedía adivinar siquiera si había o no subida total de este gas. Hay que añadir que el trabajo de Slocum muestra un respeto notable hacia el anterior trabajo de Callendar, y su disensión es puramente científica y abiertamente dubitativa.

Muy poco después de aquel trabajo de Slocum, es decir, a mediados de 1957, se iniciarían las medidas en Mauna Loa mediante el entonces novedoso método de espectroscopia infrarroja, y se dio «oficialmente» por cerrado el episodio de medidas de CO2 de épocas pasadas, aunque, eso sí, luego se vería que los expertos del IPCC en sus informes seguían aceptando los datos de Callendar, «olvidando» la posterior revisión de esos datos realizada por el meteorólogo Slocum. Curioso «olvido», sin duda...

Hubo que esperar bastantes años para que algunos críticos con las tesis de los primeros informes del IPCC recomenzaran aquella tediosa labor de recopilación de datos antiguos de CO2, disponibles en los anales químicos de muchos laboratorios del mundo desarrollado. Quizá el más representativo de dichos estudios fuera el de Ernst Georg Beck, un científico alemán fallecido en 2010. Beck tampoco era especialista en temas climáticos, como Callendar (Slocum sí lo era, recuérdese), pero era un biólogo que daba clases en un instituto de enseñanza superior, lo que en alemán se denomina Gymnasium. Siempre mostró interés por la relación de los vegetales con el aire, especialmente el proceso de asimilación del carbono atmosférico por las plantas verdes gracias a la fotosíntesis y la clorofila.

Beck tenía gran experiencia de laboratorio, conocía bien los trabajos de Callendar y de Slocum, y estaba intrigado por la forma en que se puede medir ese componente de la atmósfera, realmente minúsculo en proporción (se mide en partes por millón, y no en partes por cien como el oxígeno o el nitrógeno) pero inmensamente importante para la existencia de la vida. Beck recopiló a su vez una enorme cantidad de datos en bruto tomados desde finales del siglo XVIII hasta buena parte del siglo XX. Y creyó encontrar en el trabajo de Callendar numerosas lagunas e incluso errores de apreciación, en parte ya señaladas por Slocum en 1955; emitió algunas hipótesis acerca del devenir del CO2 en el siglo XIX y primera mitad del siglo XX que mostraban una evolución ciertamente sorprendente, con altibajos difícilmente comprensibles.

Beck publicó su trabajo en 2007 en una revista seria —sometida a arbitraje por otros científicos (peer review dicen en inglés), pero mirada con desconfianza, e incluso desacreditada por los expertos del IPCC, porque daba cobijo a trabajos críticos con algunos de sus «dogmas» supuestamente intocables—. En su informe, el biólogo alemán criticaba la curva de evolución del dióxido de carbono que había presentado el primer informe del IPCC, curva que prolongaba hacia atrás en el tiempo la línea ascendente que medía Mauna Loa desde 1957, de modo que si en ese año el gas alcanzaba una concentración de algo menos de 320 ppm, la cifra en los inicios del siglo XIX estaría en torno a los 280 ppm; basándose, claro, en los datos de Callendar. La curva final de evolución del gas presentada por el IPCC era de notable estabilidad durante buena parte del siglo XIX, con posterior ascenso suave hasta mediados del siglo XX, que es cuando, ya según Mauna Loa, se iniciaría la subida más empinada.

Los datos de Callendar permitían apoyar en gran parte esa hipótesis, pero ya hemos visto que la revisión inicial de Slocum y luego las críticas de Beck le quitaban mucha fiabilidad a aquel estudio pionero. No le importó al IPCC, que se mantuvo fiel a su curva porque «tenía» que ser la buena, aunque los datos del pasado no lo corroborasen. Y, en efecto, nuevos datos, esta vez indirectos —a través del análisis de los anillos de los árboles antiguos en múltiples localidades—, vinieron a aportar la que se consideró prueba definitiva, luego corroborada aparentemente por los datos procedentes de testigos de hielo antárticos. Lo malo es que también esos datos, sometidos como es de rigor a la crítica científica, tampoco fueron luego tan irreprochables como inicialmente se pensó. Más bien al contrario... Total, que ahora resulta que no parece nada seguro que las cifras de CO2 anteriores a 1957 hayan sido las que afirma el IPCC que fueron.

4.1.3.3. Un pasado difícil de conocer

La afirmación según la cual «en los últimos cientos de miles de años nunca hubo niveles tan elevados de CO2 ni una temperatura media tan alta como la actual» suele ser tomada por una verdad absoluta en todas las informaciones más o menos oficiales que aluden al cambio climático. No sólo en los medios de comunicación, sino en múltiples informes científicos de diversas especialidades. Lástima. Las verdades que son absolutas por dogma pertenecen a cosas que nada tienen que ver con la ciencia; básicamente, las creencias.

Pero eso es lo que traslucen los informes del IPCC, supuestamente basados en una ciencia «robusta» asentada en muy diversos trabajos científicos que sugieren muchas cosas por distintas vías, pero nunca afirman con certeza que eso sea verdad absoluta.

Pero acabamos de ver que una cosa es conocer con detalle —y aun así con una precisión muy relativa cuando se desciende a escalas cada vez menores y en lugares concretos— algunos elementos del clima y del efecto invernadero actuales o recientes, y otra cosa muy distinta es poder comparar esos datos con los valores estimados del pasado remoto mediante muy diversas metodologías de tipo histórico-geográfico, que no ofrecen obviamente valores numéricos como los que proporcionan hoy los instrumentos de medida.

Hoy disponemos de numerosas series de datos bastante fiables pero en un período de sólo algunos decenios; con ellas podemos efectuar cálculos estadísticos con cierta seriedad. Pero, qué contrariedad, esos datos sólo están concentrados en Europa y, de forma mucho más dispersa, en algunas zonas aisladas de América del Norte y del Sur, en algunas regiones aún más aisladas de Asia y en puntos muy localizados y en escaso número de Oceanía y África.

Hasta la llegada de los satélites, es decir, hasta hace poco más de treinta años, eso es lo único que tenemos. Con los sensores remotos embarcados en los satélites hemos ido progresando en nuestro conocimiento global de la atmósfera, sondeándola en vertical, e incluso detectando la enorme variabilidad de la temperatura de los diversos climas del planeta. Pero de poco nos vale todo eso para la investigación climatológica, incluso para el conocimiento del clima de épocas tan próximas a nosotros como los siglos XVII a XIX, cuando se acababa la Pequeña Edad del Hielo. Los datos remotos directos van escaseando más y más según nos remontamos hacia atrás en el tiempo, partiendo de esos decenios finales del siglo XX. De hecho, desde hace apenas siglo y medio, simplemente no existen.

Un departamento de la NASA, el GISS (Goddard Institute for Space Studies), se ha especializado en intentar conciliar los datos actuales medidos por satélite con los datos de unos cuantos observatorios terrestres escogidos y con series mucho más antiguas, con el fin de intentar extrapolar numéricamente hacia el pasado cómo fueron los datos globales anteriores. Un índice calculado que puede ser criticado no por ser resultado de una mala ciencia, que no lo es, sino porque se usan los datos actuales para establecer unas correlaciones que, proyectadas hacia el pasado, muy bien podrían ser diferentes de lo que se calcula. La atmósfera se distingue desde siempre por muchas cosas, pero una muy importante es precisamente la irregularidad de su comportamiento. Por cierto, esos índices climáticos del GISS —que son calculados, no medidos— que pretenden integrar registros espaciales y datos terrestres, muestran la enorme disparidad existente a veces entre ellos —los del satélite y los de los observatorios del suelo—, aunque en otros casos coinciden de forma casi exacta... Por si hacía falta demostrar la enorme dificultad a la que se enfrenta la ciencia a la hora de comprender y calcular cómo serían los índices globales a partir de todo ese conglomerado de datos.

Ya vimos que los datos anteriores a la era de los observatorios modernos, en esencia, antes del siglo XX, son estimaciones de tipo histórico y geográfico, complementadas por metodologías más modernas, como la datación radiactiva. Y hay que recordar que al analizar los paleoclimas —hace millones de años— la precisión temporal era de unos cientos de miles de años, cuando no millones de años... Aquí la labor la ejercen los geólogos, que saben descifrar en los hielos y, sobre todo, en las rocas antiguas —que suelen ser las más profundas en las excavaciones— las señales que indican cómo fue el pasado climático del planeta; a grandes rasgos, claro, con un enorme error relativo.

Lo de los hielos profundos, básicamente en Groenlandia y la Antártida, donde alcanzan espesores de hasta dos o tres kilómetros, merece mención aparte. Los hielos del Polo Sur existen desde hace al menos una treintena de millones de años, los de Groenlandia son algo más recientes. En sus capas más profundas (como ocurre con el estudio geológico de las rocas, a mayor profundidad mayor antigüedad) quedaron atrapadas en el hielo pequeñas burbujas de aire, incluso granitos de polen y hasta microfósiles de aquellas épocas primeras de ese hielo permanente. El análisis de los isótopos de los elementos que forman los gases atmosféricos (el carbono, el hidrógeno, el oxígeno y otros), e incluso del agua «fósil» en la que se encuentran disueltos esos gases, puede proporcionar datos de enorme interés para el estudio de la composición atmosférica de entonces, lo que sugiere pistas muy valiosas para entender cómo era el clima.

Eso sí, la dificultad de esos análisis —en la recogida del hielo, en su posterior tratamiento, en la pequeñez de las muestras a analizar, en la escasa precisión de las fechas, etc.— hace que el método sea sólo indicativo, lleve implícito numerosos errores involuntarios en la manipulación de las muestras y presente, por tanto, notables incertidumbres muy difíciles de acotar.

Un último elemento para el estudio indirecto de los climas del pasado son los propios seres vivos: si algunas plantas, incluso animales, se adaptan casi a cualquier cosa, la mayor parte de las especies tienen establecidos sus propios «nichos ecológicos», caracterizados por unas condiciones de contorno bastante precisas de tipo físico, como el clima, pero también el suelo o el tipo de agua, o de tipo biológico, como la posibilidad de obtener alimento apropiado, reproducción garantizada, etc. Si varían de golpe, o al menos muy deprisa, esas condiciones de los nichos ecológicos, las especies concernidas pueden acabar desapareciendo. En ocasiones, más infrecuentes, podrían sobrevivir adaptándose quizá gracias a algún tipo de mutación al azar, y esa evolución le permite iniciar una readaptación a las condiciones del nuevo nicho ecológico. Pues bien, el estudio de los fósiles de animales y plantas permite comprender, aunque sea de manera indirecta y muy aproximada, cómo vivían, cómo evolucionaron y, sobre todo, cómo pudo cambiar su entorno; incluido, claro, su clima.

Todos estos métodos se siguen empleando hoy día, a pesar de su alto coste; ofrecen resultados no siempre fáciles de interpretar, y por eso no abundan los datos así obtenidos. La datación radiactiva de isótopos de elementos orgánicos —por ejemplo, el famoso carbono 14— se sigue empleando también, obviamente, para determinar fechas antiguas; así pudimos saber que la famosa Sábana Santa de Turín no es de la época de Jesucristo, como algunos se empeñan en seguir afirmando, sino de bastantes siglos después. Pero esa datación no tiene excesiva utilidad en el estudio de los climas remotos; sólo vale para obtener indicios de los climas que hubo hace unos cuantos siglos, como mucho, pocos milenios... Y lo mismo ocurre con los demás métodos puramente históricos. Los métodos geológicos, en cambio, nos informan de épocas mucho más remotas aunque, claro, con un nivel de precisión muy deficiente, al menos si se compara con los datos que medimos hoy.

En todo caso, y como antes veíamos, las cifras mareantes que hay que barajar en estos temas no arredran a los científicos. De hecho, pareciera como si sólo se fiaran de los números y, sobre todo, de los cálculos que pueden hacer con ellos con nuestros modernos y cada vez más potentes ordenadores. Lo malo es cuando esos números de partida son débiles en sí mismos, por diversas razones ya esbozadas anteriormente; desde la escasa fiabilidad de los datos que los sustentan y la forma en que fueron obtenidos, hasta la poca antigüedad de esos datos, o la deficiente representatividad respecto al conjunto de los diferentes climas terrestres, incluyendo las frecuentes depuraciones de las series numéricas dudosas que acaban por desdeñar o incluso inventar por extrapolación ciertos datos.

Tanto es así que los mejores centros de investigación sobre cambio climático tienen que acudir a unos índices de temperatura o precipitación casi completamente teóricos, que «corrigen» los datos realmente observados. Por ejemplo, a la hora de deducir datos globales que pudieran representar a todo el planeta, al teórico Sistema Climático Global, a partir de un número obviamente insuficiente de datos locales. Es más, ya no suelen hablar de datos reales sino de desviaciones de los índices (anomalías positivas o negativas) respecto a un índice teórico medio para un determinado período.

Suelen aducir los expertos de otros campos de investigación —no todos los especialistas lo son en todas las áreas del problema, claro— que hay muchos datos, obtenidos a partir de los testigos de hielo, los anillos de árboles y otros sistemas indirectos. Pero en realidad son más bien pocos, y no sabemos manejarlos del todo bien; al menos no con la precisión que sería necesaria para obtener conclusiones definitivas o con muy escaso error. Si tuviéramos miles y miles de testigos de hielo, obtenidos además en todos los lugares del mundo, o miles y miles de árboles, reales o fosilizados, procedentes igualmente de todas partes, quizá... Pero esos lugares susceptibles de conservar hoy un hielo muy antiguo son muy pocos, y los árboles, por ejemplo, no crecen en el mar, que ocupa el 70 por 100 de la superficie del planeta, ni en los desiertos o las zonas heladas... Y así sucesivamente. ¿Son esas muestras, en número obligadamente reducido, representativas del clima que hubo en toda la atmósfera y en todas las latitudes? La duda cabe; y no es pequeña...

Existen, además, muchos otros problemas complementarios, bastante técnicos bien es verdad. Por dar un solo ejemplo, referido a los testigos de hielo profundo (podríamos hablar de anillos de árboles u otros indicios), veamos algunos aspectos realmente apasionantes pero que alimentan el escepticismo.

Uno imagina las burbujitas de aire atrapadas bajo cientos de metros de hielo como minúsculas gotitas aéreas, prisioneras y conservadas en condiciones de absoluta estanqueidad para que nosotros lleguemos ahora a analizarlas sin problemas. En realidad no es así: a esas colosales presiones, el aire deja de ser aire y se convierte en una mezcla de cristales de hielo que contienen alguno de los gases componentes de la atmósfera. Esos raros cristales comprimidos a altísimas presiones se llaman clatratos, y son hoy conocidos debido a que existe mucho metano atrapado en el fondo de los mares en esos clatratos, a muchas atmósferas de presión. Pues bien, como el aire es una mezcla de gases, vamos a interesarnos sólo por los dos más abundantes, nitrógeno y oxígeno, y un tercero, que es el que nos importa aquí, el dióxido de carbono. Este tema resulta crucial, porque de esos testigos de hielo dependen, si no todas, muchas conclusiones que obtienen los científicos del IPCC acerca de los climas pasados.

Los clatratos son fascinantes: comienzan a formarse para cada uno de esos gases a diferentes presiones y profundidades en el hielo. La disociación del aire como mezcla requiere, a una temperatura de 15 ºC bajo cero, una presión de unas 100 atmósferas para el nitrógeno, de unas 75 atmósferas para el oxígeno y de sólo 5 atmósferas para el CO2. Esto significa que encontramos clatratos con CO2 a partir de 200 metros de profundidad en el hielo, con oxígeno a partir de 600 metros y con nitrógeno a partir de mil metros de profundidad en el hielo. En esas condiciones las muestras profundas de hielo muy antiguo presentan probablemente menos CO2 del que sin duda había, y desde luego menos del que ahora podemos medir. Y eso ocurría incluso cuando las temperaturas eran altas; lo que significa que nuestras medidas del CO2 de tiempos antiguos son mucho menos fiables y seguras de lo que se suele dar por hecho.

Pregunta obvia: ¿ignoran acaso los expertos esto de los clatratos? Evidentemente no, claro. Y aún hay más: la perforación misma calienta enormemente el hielo profundo y lo somete a tensiones enormes, que pueden alterar gravemente las condiciones fisicoquímicas de un hielo que ha estado sometido a presiones increíblemente elevadas: por ejemplo, aparecen innumerables grietas microscópicas por las que se puede producir algún tipo de contaminación o de fuga en las muestras que luego se van a analizar...

¿Puede alguien ser lo bastante presuntuoso como para afirmar que estos métodos tan complejos no tienen fallo alguno y proporcionan datos casi irrefutables? Puede que existan científicos así; pero entienden que nuestra tecnología actual no sabe cómo evitar esos problemas. Es lo que hay; y no es que sea malo, sino sólo muy impreciso.

Conviene recordar que ya Slocum decía, cuando revisó críticamente los datos de Callendar, que en el siglo XIX no hubo en promedio 292 ppm como publicó éste en 1938, sino una cifra superior, en torno a los 335 ppm. Y esto, por lo que respecta al siglo XIX; pero para períodos muy anteriores, un estudio aparecido en 2002 en una revista norteamericana reputada (Proceedings of the National Academy of Science), firmado por Wagner, Aaby y Visscher, sobre la frecuencia de estomas en hojas fósiles en el fondo de un lago danés, mostraba que hace 7.700 años el nivel de CO2 era del orden de 330 ppm (en lugar de los 260-279 ppm estables en esos 2.000 años que citan los trabajos del IPCC basados, con notable incertidumbre, sólo en un trabajo con datos de sondeos en el hielo antártico de Taylor Dome). Ese estudio de 2002 también mostraba que en los 2.000 años entre 8.700 años y 6.800 años antes de ahora, la proporción de CO2 mostraba variaciones seculares apreciables, entre mínimos en torno a 280 y máximos en torno a 340 ppm.

Este estudio, y otros aparecidos posteriormente, contradicen la idea —aun así mantenida contra viento y marea por los informes del IPCC— de que nunca hubo en el pasado variaciones tan importantes del CO2como las que se producen en la actualidad. Lo que no quiere decir que unos tengan razón y los otros no; simplemente lo que hay es un debate científico, una controversia; y no el famoso consenso del que siempre se habla a pesar de que hay pruebas contundentes de que eso no existe.

Esa complejidad a la hora de medir los climas pasados ya había sido puesta de manifiesto por otros estudios anteriores como, por ejemplo, el que apareció en la revista Science en 1998, firmado por varios científicos liderados por la danesa Dorthe Dahl-Jensen (dirige algunos de los más importantes sondeos en el hielo de Groenlandia). Demostraba que en aquella zona, que suele ser tomada como referencia para estudiar los paleoclimas, las temperaturas en buena parte del Holoceno fueron muy superiores a las actuales. Todo lo contrario de lo que siguen afirmando insistentemente los dos últimos informes del IPCC, que pasan por alto excelentes trabajos como éste porque, se supone, contradicen el dogma.

4.1.3.4. Fotoquímica del invernadero: espectros de absorción

El llamado efecto invernadero es una apelación periodística con escaso valor científico, porque lo que ocurre realmente en la atmósfera sólo recuerda lejanamente a lo que ocurre en un invernadero real. Eso sí, consigue que la atmósfera esté mucho más caliente de lo que le correspondería por su distancia al Sol. Y los principales responsables de ese beneficioso efecto para la vida en la Tierra son el vapor de agua —el que más influye, aunque el IPCC no lo considera— y el dióxido de carbono, que influye cuatro veces menos pero al que han convertido en el enemigo público número uno.

El efecto invernadero no es un fenómeno exclusivo de nuestro planeta; de hecho, es muchísimo más intenso en Venus, cuya temperatura y condiciones atmosféricas lo asemejan más al infierno que a la diosa del amor cuyo nombre porta. Pero el efecto invernadero terrestre tiene peculiaridades muy sui géneris porque en él influyen no sólo los factores astronómicos y geológicos sino también, y de manera esencial, los biológicos. De ahí la trascendencia del dióxido de carbono y del vapor de agua; dos compuestos esenciales para la existencia de vida en la Tierra. Decir que el CO2 es un gas contaminante, por ejemplo, es una solemne aberración.

Pero ¿qué tienen esos gases de especial, sobre todo si se considera su muy débil concentración en el aire? ¿Por qué su sola presencia, en cantidad tan reducida, aporta tan notable calentamiento del aire?

La energía que nos llega desde el Sol no penetra en su totalidad hasta la superficie de la Tierra, sino que es en parte reflejada por las capas altas de la atmósfera y por las nubes, además de ser absorbida también parcialmente por los diversos componentes del aire. Esa energía solar incidente puede contener inicialmente fotones de prácticamente todo el espectro electromagnético, es decir, de casi todas las longitudes de onda posibles: desde las más cortas (los rayos cósmicos y gamma, los rayos X y los ultravioleta) hasta las más largas (infrarrojos —o sea, calor—, microondas y ondas de radio). En el centro quedan las longitudes de onda que corresponden al espectro visible, que van de 0,4 a 0,7 micrómetros (millonésimas de metro). También contiene partículas cargadas, el viento solar, que en su mayoría son canalizadas por el campo magnético terrestre, que actúa en cierto modo como una especie de escudo.

En realidad, el Sol no produce absolutamente todas esas radiaciones ni emite con la misma intensidad unas u otras. De hecho, la inmensa mayoría de lo que nos llega a la Tierra lo hace como luz visible e infrarroja (o sea, calor luminoso), con algo de ultravioleta: un 48 por 100 de la energía solar es infrarroja, un 43 por 100 visible y un 9 por 100 ultravioleta. De las demás radiaciones y partículas nos llegan cantidades energéticamente pequeñas, y una parte de ellas procede del resto del cosmos (el llamado viento galáctico).

Toda esta energía que llega al exterior del planeta presenta luego un balance en la superficie de la Tierra bastante peculiar: del 100 por 100 de la radiación que llega, un 30 por 100 es directamente reflejado de nuevo hacia el espacio por la atmósfera exterior y las nubes; son radiaciones que no llegan al suelo y que, al ser reflejadas, hacen que nuestro planeta sea brillantemente azul, visto desde el espacio.

Por otra parte, el aire absorbe directamente, a su vez, un 20 por 100. O sea, que lo que llega al suelo finalmente es más o menos la mitad de la energía que llegaba al exterior.

Luego, la superficie del planeta (mares y continentes) reexpide hacia arriba un 105 por 100 del total de esa energía, bajo la forma casi exclusiva de calor infrarrojo. De ese calor, un 35 por 100 es absorbido por el aire o reenviado de nuevo hacia el suelo, y el resto se escapa al exterior, sumándose al 30 por 100 inicialmente reflejado por las capas altas atmosféricas.

Todo ello arroja finalmente un saldo total cero: el 100 por 100 de lo que llega acaba saliendo. Es lógico; si no, el planeta no mantendría una temperatura uniforme porque si saliese menos energía de la que entra, el planeta se iría calentando poco a poco, y si saliese más, se iría enfriando.

Llama la atención ese 105 por 100 de energía que reemiten el suelo y las aguas del planeta. Se debe a que la Tierra es un planeta cálido y, por tanto, irradia calor. Cuando es de día, medio planeta es calentado por el Sol, pero la mitad opuesta, donde es de noche, se enfrenta al espacio sideral extremadamente frío; como el planeta es un cuerpo cálido —en promedio, está a 15 grados mientras que el espacio está a unos 270 ºC bajo cero—, emite mucho calor durante la noche.

Lo esencial, no obstante, es que el 35 por 100 de la radiación que se reemite desde el suelo —a descontar, pues, de ese 105 por 100 reemitido— se queda atrapado en la atmósfera. En eso consiste precisamente el efecto invernadero; y su consecuencia son los 33 grados de más que tiene nuestra atmósfera en comparación con la que tendría en las mismas condiciones, pero sin efecto invernadero.

La temperatura del espacio interplanetario por el que la Tierra se desplaza alrededor del Sol, acabamos de decir que es de unos 270 grados Celsius bajo cero o, lo que es lo mismo, unos 3 Kelvin. El calor que desprendería el planeta por sí mismo, derivado esencialmente de la radiactividad natural de sus rocas, haría subir la temperatura unos 30 grados sobre la temperatura ambiente en el espacio; pero aún estaría el planeta a 240 ºC bajo cero. Sin embargo, claro, también recibimos radiación solar; con ella el planeta podría estar a unos 6 grados sobre cero. Pero como esa Tierra recalentada perdería parte de esa energía durante la noche (siempre es de noche en la mitad del planeta que no mira al Sol), la temperatura media acabaría equilibrándose en torno a unos 18 grados bajo cero.

Afortunadamente, el dióxido de carbono y el agua en forma de gas no sólo posibilitan la existencia de vida en la Tierra sino que absorben parcialmente los infrarrojos que emite el planeta, lo que origina una temperatura de 15 grados en promedio. Por eso la Tierra es un planeta habitable, y acabó siendo colonizado, primero en el mar, y luego en el aire y en tierra firme, por los seres vivos.

Esos 15 grados de temperatura media del planeta corresponden más o menos a la segunda mitad del siglo XX. Pero las emisiones de gases invernadero no han parado de crecer desde hace más o menos un siglo. ¿Cuáles podrían ser las causas de ese incesante aumento?

Parece bastante obvio que eso tiene alguna relación con la transformación de energía a partir de unas fuentes constituidas por combustibles fósiles. La revolución industrial utilizó inicialmente la máquina de vapor para transformar la energía química del carbón, oxidado mediante combustión, en energía calorífica con la que llevar a ebullición el agua cuyo vapor movería los mecanismos asociados. O sea, transformar energía química en calor, y éste en movimiento. La fuente inicial fue, durante mucho tiempo, sólo el carbón. Más tarde, ya en el siglo XX, llegarían los hidrocarburos para los motores de combustión interna, y luego la electricidad, una nueva forma de energía secundaria para usos muy diversos.

En conjunto, algo menos del 80 por 100 de la energía que necesitamos se obtiene de los combustibles fósiles no renovables: carbón e hidrocarburos. Que son finitos; o sea, algún día se terminarán; los hidrocarburos mucho antes que el carbón, por cierto. Todos los expertos coinciden en que a finales de este siglo XXI, y a pesar de las nuevas formas de explotación a través de fracking y otras técnicas, el petróleo y el gas natural serán tan escasos, y por tanto tan caros, que será absurdo quemarlos. Lo que significa que quizá nuestros nietos y bisnietos habiten un mundo en el que el transporte no podrá seguir consumiendo gasolina ni gasóleo a los niveles actuales, y en el que ya casi no quedará gas natural para quemar.

Pero el aspecto químico de estos recursos fósiles, y por tanto no renovables, es el que realmente más nos importa aquí: al quemarlos se convierten en óxido de carbono e hidrógeno (esencialmente dióxido de carbono y vapor de agua), además de producir muchos otros residuos, tanto gaseosos como incluso líquidos y sólidos, como moléculas orgánicas e inorgánicas de todo tipo. Algunos de estos residuos son muy contaminantes, es decir, perjudiciales para los seres vivos en general: es la contaminación atmosférica que ya hemos analizado anteriormente.

Si nos detenemos en el CO2, que es el gas de efecto invernadero mejor conocido, lo primero que podemos hacer es calcular, con aceptable precisión, la cantidad que emitimos anualmente al quemar combustibles fósiles con fines energéticos. También creemos conocer, con los reparos que ya hemos comentado anteriormente, cuál es su proporción media en la atmósfera, medida en Mauna Loa, que aumenta en paralelo con el incremento de emisiones industriales.

Con todo, las cifras en las que intervienen la industria y los combustibles fósiles, respecto al reparto del CO2 entre aire, suelo y agua, son relativamente reducidas, como vimos en comparación con el ciclo total del carbono en el planeta. Y, por añadidura, ese reparto es muy complejo, como lo son igualmente las interacciones puramente químicas (básicamente geológicas) y fotoquímicas (la fotosíntesis de los seres vivos con clorofila) que se producen a largo plazo.

En cuanto al vapor de agua, muchos expertos opinan que es irrelevante su influencia sobre el conjunto del efecto invernadero. Lo cierto es que se trata de una postura sospechosamente cómoda, lo que no prefigura que sea del todo errónea. Pero resulta ciertamente curioso que se afirme que el vapor de agua no se considera porque se compensan los efectos positivos y los negativos (de cara al posible incremento del efecto invernadero y, por tanto, al posible calentamiento de la atmósfera). ¿Cómo saben eso? Porque, además, el vapor de agua es mucho más importante para el efecto invernadero que el encausado CO2, y cuando quemamos hidrocarburos, por cada molécula de CO2 producida aparecen dos moléculas de H2O.

Creemos saber —con reservas— muchas cosas sobre el CO2, pero no tenemos ni idea de la cuantía y la influencia del vapor de agua. Richard Lindzen afirmó hace ya años, en 1992, que aunque los demás gases invernadero (incluyendo el metano y el dióxido de carbono) desapareciesen, todavía quedaría cerca del 98 por 100 del efecto invernadero actual debido exclusivamente al vapor de agua, añadiendo a continuación: «Sin la adecuada comprensión del comportamiento del vapor de agua es claramente inútil pelearse con el cambio climático; nuestro conocimiento actual al respecto es inadecuado para esa tarea».

Aunque puede pensarse que Lindzen exageraba, bastante menos defendible es la postura opuesta que afirma, como una especie de dogma de fe, que el vapor de agua no tiene influencia apreciable alguna. ¿Cómo son posibles opiniones expertas tan dispares? ¿Qué ocurre realmente con el vapor de agua?

Quizá convenga explicar, ante todo, que el vapor de agua es muy importante de cara al efecto invernadero terrestre debido a su espectro de absorción, mucho más extenso que el de los otros gases invernadero. Por otra parte, cabe la sospecha no muy descabellada de que los expertos del IPCC dejan de lado al vapor de agua, aun sabiendo de su importancia, sencillamente porque no consiguen entender con una mínima precisión su comportamiento. Y eso es un problema muy peliagudo para los modernos climatólogos, porque no se deja modelizar con un mínimo de fiabilidad a la hora de incluirlo en los modelos de predicción del clima. Algo que, en cambio, sí ocurre si se toma la concentración de fondo del CO2 medida en Mauna Loa, cuando se le atribuye un alcance global.

Y es que ya hemos visto que el vapor de agua tiene una concentración sumamente dispar según los distintos lugares del planeta, que varía entre prácticamente cero hasta alcanzar en atmósferas al borde de la saturación y en climas tórridos los 40.000 ppm, es decir, en esos momentos un 4 por 100 de la atmósfera allí reinante. Y lo malo es que esas condiciones varían constantemente según los lugares, y según el momento del día y la época del año. ¿Cómo establecer un patrón medio en todo el planeta de tan importante factor de efecto invernadero? No parece sencillo, no.

Antes aludíamos a los espectros de absorción, cubiertos en mayor proporción por el vapor de agua que por el CO2 y otros gases invernadero. Veámoslo un poco más despacio: la superficie del Sol está a unos 6.000 Kelvin (recuérdese que 6.000 K es lo mismo que 5.727 grados Celsius, despreciando los decimales). La potencia de emisión de nuestro astro es del orden de 63 megavatios (millones de vatios) por metro cuadrado; como el Sol tiene una superficie enorme, del orden de 6 billones de kilómetros cuadrados (6 trillones de metros cuadrados), eso implica que la potencia de emisión del Sol se podría cifrar en torno a 380 trillones de megavatios (o 380 cuatrillones de vatios).

Un trillón tiene 18 ceros y un cuatrillón 24 ceros, recuérdese. Pero existen diversos prefijos para múltiplos tan enormes sin tener que echar mano de trillones y cuatrillones. Por ejemplo, si mega es un millón y tera un billón, exa es un trillón y yotta un cuatrillón; o sea, la emisión total de energía del Sol tiene una potencia de 380 yottavatios.

El Sol emite, sin duda, muchísima energía; una vez más nos enfrentamos a cifras mareantes. Pero, por supuesto, como está a unos 150 millones de kilómetros de distancia, y teniendo en cuenta que nuestro planeta tiene un tamaño minúsculo comparado con el del astro, eso significa que sólo una ínfima parte de esa energía llega a la Tierra. Recibimos exactamente la dos mil millonésima parte del total emitido; o sea, que hay que dividir esa enorme cantidad de vatios por 2.000 millones. Aun así, eso supone nada menos que 190 petavatios (peta es mil billones, quince ceros). Energía de sobra como para mantener en activo la maquinaria atmosférica terrestre y para garantizar la supervivencia de la biosfera.

En conjunto, la emisión total del Sol se extiende por casi toda la gama de frecuencias electromagnéticas; es su espectro de emisión, que pasa por un máximo en el espectro visible e infrarrojo próximo. Así, el ultravioleta (por debajo de 0,4 micrómetros) suma apenas un 7 por 100. Viene luego la luz visible (desde 0,36 a 0,76 micrómetros), que abarca un 44 por 100 de la potencia. Más allá se sitúa el infrarrojo próximo (entre 0,76 y unos 1,5 micrómetros); supone un 37 por 100 del total. Luego, el infrarrojo lejano (entre 1,5 micrómetros y hasta los 1.000, o sea 1 mm) supone el 11 por 100. Y a partir de ahí las demás radiaciones de mayor longitud de onda (microondas, ondas de televisión y radio) apenas suponen el 1 por 100 del total. Todo ello explica por qué vemos al Sol como algo muy luminoso (luz visible) y cálido (infrarrojos). La figura siguiente muestra la forma teórica del espectro de emisión del Sol (línea negra), la forma real de ese espectro (en gris claro) y la radiación real que se observa al nivel del mar (en gris oscuro).

Se puede observar igualmente qué gases de efecto invernadero absorben unas u otras partes de ese espectro de emisión. Y también reviste interés determinar en qué cuantía actúa esa absorción en la atmósfera. Y ahí es donde se aprecia la enorme importancia del vapor de agua: su espectro de absorción es muy superior al del resto de gases invernadero, y además se ejerce en muy diferentes longitudes de onda.

Combinando las zonas de absorción de unos y otros gases, con la potencia absorbida según la longitud de onda, y teniendo en cuenta la proporción en que se encuentran unos y otros gases en el aire, se puede calcular con cierta facilidad que el vapor de agua es como mínimo cuatro veces más eficaz que el CO2 como gas invernadero (o sea, que el 98 por 100 de Lindzen podría parecer exagerado, aunque ninguna de estas cifras es del todo segura). Por eso suele decirse que de los 33 grados que supone la existencia del efecto invernadero en la Tierra sobre un planeta sin esos gases, al menos 23 o 24 grados se deben al vapor de agua, unos 6 grados al CO2, y el resto —entre 3 y 4 ºC— se lo repartirían los demás gases invernadero.

El balance energético global tampoco es fácil de comprender, ni aún menos de medir. Pero es esencial porque tiene que ver con los cambios climáticos, ya que muestra la diferencia entre la radiación que entra y la que sale. Lamentablemente todo ello es muy difícil de medir con un mínimo de precisión; además, esos cambios que acaban produciéndose no sólo son muy reducidos, sino que ocurren en períodos muy prolongados. En estos momentos, sólo disponemos de satélites que midan de forma global aproximada la radiación infrarroja saliente (OLR en inglés, Outgoing Longwave Radiation).

Véase el gráfico que acompaña a estas líneas; muestra las variaciones en promedio de esa OLR, medida en vatios por metro cuadrado, desde 1974, cuando se iniciaron las medidas aproximadas desde satélite. Las zonas amarillas —anomalías positivas— se alternan de forma irregular con las zonas azules —anomalías negativas—. Fue en este período, conviene recordarlo, cuando se produjo el máximo calentamiento global, según el IPCC, especialmente entre 1978 y 1998.

No parece que haya tendencia alguna en primera aproximación; o sea, que el balance de radiación no parece crecer como debería ser si la atmósfera comenzara a acumular más calor por el incremento de los gases invernadero. No es un dato definitivo, desde luego, y puede haber otras explicaciones; pero como mínimo introduce una sombra de duda acerca de ese recalentamiento global del planeta sobre el que se afirma que existe un consenso prácticamente total. El gráfico que mostramos procede nada menos que de la NOAA, la Administración Americana para la Atmósfera y el océano. El IPCC no puede ignorar este tipo de informes, elaborados por centros oficiales que participan activamente en sus trabajos...

Pero aún hay más. Un estudio publicado en 2011 en la importante revista Remote Sensing («On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance», escrito por R.W. Spencer y W.D. Braswell), y que considera datos medidos por satélite desde 2000 hasta la primavera de 2011 (once años), demuestra que en ese período la Tierra emitió algo más de energía global de la que recibió. Lo cual, por otra parte, parece coherente con el hecho de que las temperaturas dejaron de subir en 1998 y se mantengan estables, en promedio, desde entonces.

Los autores de este artículo, liderados por Roy Spencer (del Earth System Science Center, Universidad de Alabama, Huntsville), señalan que el diagnóstico de los modelos matemáticos acerca de la realimentación de temperaturas debido al incremento del balance de radiación de la Tierra se basa en la suposición errónea de que dicho balance estaría acumulando calor en el planeta, cuando resulta que es al revés. Y el error es bastante considerable para los océanos, de los que sabemos bastante poco aunque ocupen el 70 por 100 del planeta.

Por cierto, para los más susceptibles conviene añadir que, en su trabajo, los expertos de Alabama usaron los modelos matemáticos del centro científico más activo —y quizá el más alarmista de todos— en temas de cambio climático, el Centro Hadley sobre Investigaciones del Clima, asociado a la Universidad británica de East Anglia. Estos modelos fueron también los que eligió el IPCC en su último informe. En cuanto a los datos de satélite, procedían del sofisticado sistema CERES (Clouds and Earth’s Radiant Energy System), instalado a bordo del satélite Terra, de la NASA.

4.2. Sabemos poco, ignoramos mucho

4.2.1. Lo poco que sabemos

4.2.1.1. No estamos del todo seguros...

En general, cuanto más genérica sea una predicción, menos se equivocará. Eso vale para la meteorología y para cualquier otra cosa, seria o disparatada. Por ejemplo, los geofísicos suelen decir, con mucha razón, que «donde la Tierra tembló, volverá a temblar». Significa que allí donde ha habido alguna vez uno o varios terremotos, seguirá habiéndolos; y donde no los ha habido nunca, pues lo más probable es que siga sin haberlos. Es una predicción que se cumple prácticamente siempre, claro; pero que nos informa de bien poco aunque, al menos, tiene una utilidad práctica en cuanto a las medidas de defensa pasiva, como por ejemplo la arquitectura parasísmica.

En cuanto a la temperie, ya vimos que en el CEPPM están bastante satisfechos con la fiabilidad del 60 por 100 a más de ocho días que están obteniendo actualmente, cuando antes sólo podían predecir a cinco días con esa misma fiabilidad. Aun así, eso significa que más allá de esos ocho días la fiabilidad es menor del 60 por 100 y, por tanto, ya no resulta útil. Aunque, ¿qué significa útil? ¿Cómo definir la «utilidad» aplicada a una predicción meteorológica? En realidad, el concepto de utilidad es mucho más individual que colectivo. En la vida cotidiana, puede a uno importarle poco que llueva o no; pero si va a emprender una excursión por el monte, ahí si resulta útil saber si va a llover o no. De hecho, la inmensa mayoría de las personas suele considerar que una predicción debe depender de un evento concreto; lo acabamos de hacer al hablar de si llueve o no el día que vamos a ir de excursión.

Entonces, ¿de qué podemos estar seguros? Porque parece claro que la fiabilidad de una predicción depende en gran medida de los métodos y criterios que adoptemos para su verificación. Y, desde luego, el ciudadano medio es muy mal verificador, sencillamente porque suele hacer mil cosas en su vida cotidiana que nada tienen que ver con el tiempo, y como mucho se fija en si llueve, hace frío o lo que sea durante algún momento al salir de casa, o en la hora de la comida, o mirando un instante por la ventana... Pero nunca lo hace mientras trabaja, duerme o está ocupado en cualquier otra cosa. Y, claro, así no hay forma de verificar nada, al menos de manera mínimamente consecuente.

En cuanto al clima y sus eventuales cambios, las cosas son más o menos similares. Nadie sabe realmente cuál es el clima normal, o sea, el promedio de muchos años. Como mucho recordamos sucesos llamativos del pasado, y aun así, siempre que nos hubiéramos dado cuenta de ellos.

Dicho lo cual, parece claro que hay unas pocas cosas que casi todo el mundo cree saber. Recalcamos el «casi todo el mundo», y también lo de «cree saber». La certeza no pertenece a este mundo... Veámoslas con algo de detalle:

1. Incremento de los gases invernadero

Parece más que probable que esté aumentando muy deprisa la concentración de los gases de efecto invernadero. Esta idea general es probablemente cierta. Tenemos datos que así lo indican respecto al dióxido de carbono y el metano, pero no tenemos mucha idea de lo que ocurre con el más importante de todos esos gases, el vapor de agua. No obstante, el desarrollo industrial utiliza de forma tan masiva los combustibles fósiles que es seguro que los gases residuales de esas combustiones —en esencia dióxido de carbono y vapor de agua— están siendo emitidos a la atmósfera en dosis crecientes.

El aumento del dióxido de carbono se puede cifrar con aceptable aproximación: del orden del 30 por 100 a lo largo del siglo XX. Así se deduce de las medidas tomadas en la cima del volcán hawaiano Mauna Loa desde 1958. Antes de ese año la certeza es mucho menos pronunciada, como hemos visto anteriormente. Incluso hay discusión acerca de si los niveles de CO2 en el siglo XIX fueron muy inferiores o no a los del siglo XX, aunque los expertos del IPCC —basándose, eso sí, en muy pocos datos y escasamente precisos— opinan que los niveles actuales son los más elevados desde hace muchísimo tiempo.

En todo caso, ese incremento del dióxido de carbono parece coherente: el mundo quema muchísimos combustibles fósiles desde finales del siglo XIX, y sobre todo cuando se generalizan los automóviles y las industrias, ya bien entrado el siglo XX. Y ese proceso emite dióxido de carbono y vapor de agua, cuyos átomos de carbono e hidrógeno estuvieron bajo tierra como carbón e hidrocarburos durante muchos millones de años.

2. Ascenso térmico desde la Pequeña Edad del Hielo del siglo XVII Se estima que la temperatura media del planeta está creciendo deprisa desde los años setenta del siglo XIX, y que ese ascenso se inició ya a finales del siglo XVIII, al final de la Pequeña Edad del Hielo. Pero, claro, aunque la afirmación es difícil de rebatir, lo que en realidad significa este dato sigue siendo objeto de discusión. Porque, ¿cómo se sabe eso? ¿Disponemos de medidas fiables en absolutamente todo el mundo —montañas, valles, zonas desérticas, océanos, mares, zonas polares y ecuatoriales—, suficientemente precisas, en número suficiente y desde hace al menos un par de siglos? ¿Ha sido, es y será dicho incremento igual en todas partes?

De todos modos, en la Edad Media hacía calor, en el siglo XVII mucho frío, y ahora de nuevo calor. Lo que no sabemos muy bien, aunque hay estudios para todos los gustos, es cuánto calor y cuánto frío.

3. Los hielos disminuyen, salvo en la Antártida

Los hielos flotantes del Ártico y también los glaciares de alta montaña en todos los continentes —excepto en el continente antártico y los hielos flotantes que le rodean— están disminuyendo al menos desde hace algo más de treinta años, que es cuando se inicia la observación por satélite. Se piensa, mediante indicios indirectos, que esta disminución se inició bastante antes, pero no se sabe con precisión; sí sabemos que los glaciares alpinos alcanzaron un máximo en el siglo XVII y desde entonces van retrocediendo. Algo similar parece haber ocurrido en América y en el Himalaya. En la Antártida, donde se concentra más del 90 por 100 de todo el hielo del planeta, las cosas son más complicadas: una pequeña porción del continente helado, en la península Antártica que mira hacia América del Sur, parece estar perdiendo hielo, especialmente el hielo flotante. En cambio, en todo el resto del continente podría estar aumentando el hielo total.

4. Leve subida del nivel del mar, al límite de lo indetectable

El nivel del mar parece haber subido en promedio, pero de forma muy ligera y con retrocesos difícilmente explicables. El factor de incertidumbre de esta afirmación es muy alto porque las medidas por satélite son recientes (apenas veinte años), y antes sólo disponemos de un puñado de boyas costeras de registros no muy fiables. Sobre todo porque los datos que se hacen públicos hablan de tres milímetros por año, cuando las mareas en muchos sitios suben muchos metros, dos veces al día. Por otra parte, nada más falso que hablar de esa «elevación media del nivel del mar en el mundo». ¿Cómo puede llegarse a semejante dato? Sobre todo cuando sabemos que en unos sitios sube y en otros baja, y sin que haya explicación alguna que lo justifique.

5. Influencia importante, pero desconocida, de los mares

Los mares siguen siendo una incógnita más que notable: medimos mal su temperatura (los satélites son recientes, y antes era imposible conocer ese dato para todos los mares del mundo) y no sabemos cómo distribuye su calor a través de las corrientes tanto superficiales como en profundidad.

6. La precipitación total no parece haber variado en un siglo o más En cuanto a la precipitación, parece deducirse de la mayoría de los estudios que ésta no ha variado en promedio a lo largo del último siglo; si acaso, se ha incrementado en promedio entre un 5 y un 10 por 100. Aquí eso de «en promedio» cobra una relevancia más que notable, porque si hay regiones del planeta en las que llueve o nieva de forma bastante estable en las distintas épocas del año, y en muchas otras es tal la irregularidad de las precipitaciones, espacial y temporalmente, los promedios estadísticos dicen en realidad muy poco. Pero haciendo una media abusivamente grande —muchos años y muchos lugares del mundo muy diferentes entre sí—, lo cierto es que llueve en esencia lo mismo o algo más que hace un siglo.

7. Dudas en cuanto a la intensificación de los fenómenos extremos Finalmente, algunos autores sugieren la existencia de indicios —no verificados de manera general ni definitiva por la dificultad de encontrar datos fiables que sirvan de elemento de comparación con lo que ocurría en el pasado— de que los fenómenos meteorológicos extremos, es decir, las desviaciones respecto a los promedios, pudieran estar agudizándose, tanto en más como en menos. En cuanto a las catástrofes más extremas, ya vimos que el peor período reciente fue el del leve enfriamiento a mediados del siglo XX, no los últimos treinta años, que han sido menos horribles.

En suma, sabemos con seguridad muy pocas cosas. Digan lo que digan todos los informes del IPCC. Y todo lo que no hemos citado en las líneas precedentes lo conocemos mal o, simplemente, lo ignoramos. Y eso genera una notable incertidumbre en cuanto a las causas y las consecuencias, ligada a las incertidumbres que rodean a los datos pasados o actuales, y a las que son inherentes a los modelos de predicción.

4.2.1.2. Calentamiento

Lo esencial del supuesto cambio climático global viene recogido en la expresión Calentamiento Global Antropogénico (en inglés, AGW, Anthropogenic Global Warming). Se da por hecho, pues, que dicho calentamiento afecta a todo el mundo más o menos por igual y tiene su origen en la mano del hombre desarrollado. Pero ¿es eso realmente así o hay incertidumbres? Y si las hay, ¿son grandes o más bien reducidas? ¿Sabemos de verdad que los climas han cambiado tanto y en tan poco tiempo como se nos dice? ¿Depende todo ello del incremento del CO2 y los demás gases invernadero?

Son preguntas pertinentes. Y ponen el dedo en la llaga. Aunque se supone que ya están contestadas contundentemente por los informes del IPCC, el famoso aunque inexistente consenso...

Ante todo, sería imprescindible —ya lo vimos al hablar del planeta con fiebre, según Al Gore— definir cuál es el punto de partida del actual calentamiento, aceptando su existencia. O sea, si el planeta se calienta, ¿desde cuándo está haciéndolo? No es lo mismo que eso se esté produciendo —aunque sea lo más probable— desde la Pequeña Edad del Hielo del siglo XVII, o bien que sólo haya calentamiento «de verdad» desde hace treinta años, o medio siglo, como parece sugerir el IPCC con la famosa gráfica en palo de hockey. Porque ¿cómo podríamos ser capaces de comparar los datos actuales, medidos incluso con satélites aunque todavía insuficientes, con los datos del pasado, estimados muy por encima?

Como hablamos de clima, no de tiempo, deberíamos tomar un período de treinta años; no el último, 1981-2010, porque se supone que incluye ya los años del calentamiento que queremos poner de manifiesto. Podríamos tomar el treintenio precedente (1951-1980) como modelo del clima anterior al actual calentamiento; pero eso supondría aceptar que en períodos anteriores a ése no hubo cambios, lo que no es cierto (desde el final de la Pequeña Edad del Hielo los climas vienen calentándose más o menos regularmente). De hecho, recordemos que sólo en el siglo XX hubo calentamiento rápido hasta 1940, luego leve enfriamiento hasta 1978, para volver al calentamiento entre 1978 y 1998, y estancamiento posterior hasta hoy. En todo ese recorrido, ¿cuál debiera ser el punto de partida para nuestro proceso de calentamiento global antropogénico?

Eso en cuanto a lo que consideramos temperatura global; o sea, un promedio mundial que probablemente no se cumple en casi ningún sitio. Sin ir más lejos, España, donde, por cierto, tampoco podemos hablar de un clima español, porque en realidad hay muchos climas bien diferentes. Pero podemos jugar con los números y promediar los datos de un conjunto de estaciones de las que tenemos series muy largas, con el fin de obtener una aproximación a eso que podríamos llamar clima medio del país.

AEMET considera de forma preferente el medio siglo transcurrido desde 1961 como período suficientemente fiable para establecer promedios climatológicos; quizá porque es cuando existe ya una densidad aceptable de observatorios con series de datos lo bastante largas. Con todo, es un período climatológicamente breve porque no llega a cubrir ni dos períodos de treinta años, lo que impide la obtención de tendencias a largo plazo.

El gráfico muestra la serie de datos de temperatura media anual para todo el país. El año más cálido ha sido 2011, con una temperatura media de prácticamente 16 ºC, superando por muy poco a 2006, que tuvo 15,9 ºC. En cambio, 2012 tuvo una temperatura media de 15,3 ºC. Exactamente la temperatura media de los últimos veinte años, 1993-2012, que ha sido de 15,3 ºC.

Resulta bastante curiosa la alternancia frío-calor de esos últimos veinte años, que muestra contrastes a veces llamativos de un año para otro:

El año más frío del período 1961-2012 fue 1972, con 13,3 ºC, seguido de 1971 con 13,6 ºC. Aunque es seguro que los años más fríos de todo el siglo XX fueran anteriores, durante el decenio de los cincuenta (1956 y 1957 fueron años gélidos, por ejemplo). En todo caso, los años cincuenta, sesenta y parte de los setenta fueron sin duda los más fríos desde que acabó la Pequeña Edad del Hielo, hace tres siglos.

El gráfico de AEMET muestra cómo la temperatura media anual comenzó a subir en España después de 1972 (en el promedio mundial eso ocurrió en 1978), pero dicho calentamiento se detuvo en 1989 (en el promedio mundial siguió calentándose hasta 1998). Luego bajó mucho en nuestro país durante los cuatro años siguientes, un grado y medio; eso es muchísimo, sobre todo en contraste con lo que ocurría en el resto del mundo, donde la temperatura subía. Y a partir de 1994 la temperatura media anual ha vuelto a subir y bajar de manera muy irregular hasta nuestros días.

A la vista de estos datos oficiales, que ofrecen a veces diferencias muy considerables entre la temperatura media de un año y el siguiente, cabe preguntarse por el sentido que se le da, popularmente al menos, al sustantivo «calentamiento». Por ejemplo, en los años 1991, 1992 y 1993 la temperatura media anual fue entre medio y un grado inferior a la media de su período de treinta años; fueron años mucho más fríos que los anteriores en nuestro país, a pesar de que en Río de Janeiro se daba la voz de alarma en 1992 sobre el calentamiento catastrófico del mundo. Claro, en España todo el mundo creyó estar viviendo un calor horrible, a pesar de estar en una época de temperaturas mucho más bajas (y, por cierto, con precipitaciones muy reducidas).

De esos datos se deduce que, en nuestro país, las diferencias de temperatura media —y también las de precipitación anual— entre unos años y otros son enormes; no hay que olvidar que estamos hablando de promedios anuales y para toda España. Por ejemplo, entre 1993 y 1995, con sólo dos años de intervalo, la temperatura media subió más de un grado y medio; es una enorme diferencia para dos años tan seguidos. Y si considerásemos la lluvia, conviene recordar que en esos años fríos hubo en España una sequía espantosa, pero en 1995, justo cuando la temperatura subía mucho, llovió de forma considerable...

Volviendo a lo que decíamos en un anterior apartado sobre climas buenos o malos, ¿qué deberíamos preferir? ¿Climas fríos y secos, o bien calurosos y lluviosos? Es sólo un ejemplo, sin duda, y un grano no hace granero; aunque en este caso el grano sea nada menos que España, que al fin y al cabo se extiende por un territorio de más de medio millón de kilómetros cuadrados. Lo que ocurre es que éste no es un caso aislado sino que responde bastante bien al patrón de algo que ya hemos constatado en páginas precedentes: las épocas de climas enfriándose o ya fríos han tenido siempre consecuencias muchísimo peores para la humanidad que las épocas en las que los climas mostraban una tendencia al calentamiento.

En cuanto al mundo, considerado globalmente, conviene recordar una vez más que la historia del efecto invernadero de nuestro planeta y los cambios de clima que en él se han venido produciendo no tienen nada que ver con una supuesta película de gases buenos y malos. Se trata tan sólo de una sucesión de acontecimientos, algunos muy convulsos y súbitos, otros mucho más lentos y progresivos, que han condicionado geológica y biológicamente el devenir de nuestra atmósfera, de nuestras aguas, de nuestros suelos, de toda la biosfera en suma.

El CO2 no es ningún malo de ninguna película; es un gas vital. El calentamiento global no es ningún enemigo mortal sino que ha sido siempre el mejor aliado de la vida. Desde siempre, en la historia del planeta. Pero es que incluso hoy podríamos decir, con cierto desenfado, que los jubilados de los países ricos se van a vivir a zonas muy cálidas, pero a nadie se le ocurre cuando se jubila retirarse a Siberia o Groenlandia...

Nunca hubo tantos seres vivos ni con tanta diversidad —en formas, tamaños, colores...— como en la transición hacia el Cámbrico, o en el Carbonífero o el Cretácico, por ejemplo. Períodos de intensos cambios climáticos... hacia el calor.

¿De qué nos asustamos, pues? Quizá la explicación sea bastante más sencilla: la alarma procede de los países ricos, a los que nos va muy bien el mundo tal y como está ahora. Por eso no queremos que cambie: somos los que más tenemos que perder. El mundo actual y los climas que venimos teniendo en el siglo XX y el actual han sido muy propicios, sí, pero sólo para la humanidad rica.

Pero, en valor absoluto, nada indica que un clima más cálido sea peor que otro más frío, sino todo lo contrario. ¿Alguien cree que si se atenúan en promedio los rigores invernales de buena parte del norte de América y Eurasia las cosas iban a irles peor a los países allí asentados? En cuanto a los países más pobres, curiosamente casi todos ellos agrupados en zonas de clima tropical o subtropical —en otros climas jamás hubieran sobrevivido en las condiciones de pobreza que les caracteriza—, ya están hoy y estaban ayer demasiado mal, sin que en ello tenga nada que ver el famoso calentamiento global. A esos países sólo les preocupa, y desde hace mucho tiempo, el hambre... Si hay calentamiento —y aún peor si hubiera enfriamiento— seguramente seguirían igual de mal, pero difícilmente peor.

Poner a los países pobres como excusa para luchar contra el cambio climático es una falacia de los países ricos. El calentamiento global es una película de terror inventada por los países ricos para asustar a todos, ricos y pobres, y conseguir que esa lucha pase por delante de la igualdad entre los hombres, la solidaridad con los pobres y el combate contra la pobreza y el subdesarrollo.

La hipocresía del mundo rico capitalista no tiene límites aunque, todo hay que decirlo, no sólo en esto del calentamiento. Todos nos volcamos con ayudas a Haití o Indonesia cuando se produjeron los recientes terremotos y tsunamis —que nada tienen que ver con el calentamiento global—, pero da la sensación de que hasta ese momento nunca hubiéramos sabido que se trataba de países cuya pobreza bordeaba, bordea y bordeará la miseria pura y dura. Y hoy aquello se acabó, dejó de ser noticia. Y las ayudas y la supuesta solidaridad cesaron en gran parte... Pero ellos siguen siendo igual de pobres, aunque no haya terremotos.

¿Hablaron de la necesidad perentoria y acuciante de este tipo de ayudas —una necesidad que es real hoy, que lo era ayer, pero todavía no sabemos si lo será mañana— los más de 30.000 delegados que fueron a Durban en diciembre de 2011, a criminalizar al carbono oxidado sin tomar decisión alguna, como ya se sabía que iba a ocurrir? No, claro. Sólo gastaron el dinero de los contribuyentes de una forma tan inútil como condenable...

Por cierto, donde menos parece haberse detectado calentamiento es precisamente en las zonas más cálidas —y más pobres— del planeta. ¡Oh, paradoja! La coartada del mundo rico para hablar de la gravedad del cambio climático planetario se esfuma; nada justifica ya que sigamos ignorando la pobreza y el hambre del Tercer Mundo. Pero de esto no se habla en los grandes centros de decisión climática.

En cuanto al CO2, se estima que las medidas de Mauna Loa son representativas de todo el CO2 mundial; o sea, del efecto invernadero global. Presunción simplificadora y aparentemente ambiciosa que quizá no tenga excesivo fundamento. Porque aunque puede que el «fondo» de CO2 aparezca bien representado por los datos del volcán hawaiano —y, por tanto, puede que su incremento sea un indicio fiable del CO2 mundial—, conviene no olvidar que esos datos sólo sirven para conformar matemáticamente índices sencillos destinados a las ecuaciones de predicción climatológica. Y con ello se prescinde de la variadísima complejidad de los numerosos climas diferentes que hay en el planeta, en cada uno de los cuales la concentración del CO2 y demás gases invernadero es también muy variable, y puede tener muy poco que ver con el índice medio de Mauna Loa.

Es decir, lo que afecta al calentamiento de los climas por causa del incremento en promedio del CO2 no es el dato de Mauna Loa sino el CO2 —y los demás gases—, en particular, el que se acumula en cada porción de atmósfera, en horizontal y en vertical, a lo largo y ancho de esa misma atmósfera. Y ese CO2 real, medido en cada región —bosques, mares y desiertos, a miles de metros de altitud o al nivel del mar, en los polos, el Ecuador, los océanos fríos y cálidos, zonas industriales, urbanas, montes o valles...—, es el que propiciará que aumenten o no las temperaturas en cada uno de dichos lugares.

Aunque no es esto lo que defienden los adalides del Sistema Climático Global: es el CO2 global, el de Mauna Loa, el que define todo lo que luego vaya a ocurrir en cada lugar del ancho mundo. Pero lo que vale para el todo (el planeta), vale para sus partes (las regiones del planeta). Si no, ¿qué sentido tienen los modelos de predicción regional?

También conviene decir que los promedios que identifican los cambios de clima a largo plazo son, en realidad, un reflejo de fenómenos a largo plazo y a gran escala —por ejemplo, readaptación de especies animales y vegetales, cambios en el paisaje, influencia sobre las formas de vida de los humanos en unas u otras regiones, etc.—, pero en cambio representan muy mal lo que, en el día a día del tiempo, pueden suponer los valores más extremos, por puntuales que puedan llegar a ser. Algo que no es fácil de entender a primera vista; veamos un ejemplo concreto.

En 2005 —quizá todavía lo recuerde alguien— tuvimos en España a finales de enero varios días extremadamente fríos, especialmente en la mitad este del país; llegó a helar incluso en Valencia, donde no hiela más que unas pocas veces cada siglo. Precisamente la localidad valenciana de Utiel, conocida por sus viñedos y la calidad de sus cada vez más apreciados caldos de la denominación Utiel-Requena (una región con un clima más bien suave, propio del cultivo de la vid), registró el 28 de enero de 2005 una temperatura mínima de 17,4 grados bajo cero. Sólo en 1945 había tenido Utiel una temperatura similar, 18 ºC bajo cero. Los 17,4 ºC bajo cero de 2005 se dieron en un período en el que se supone que las temperaturas no han dejado de subir. Precisamente ese año sería posteriormente declarado por la NASA como el segundo más caluroso, en promedio, de la historia reciente... en todo el planeta. Pero no lo fue en España.

La pregunta es obvia: ¿es compatible el calentamiento con los 17,4 ºC bajo cero a finales de enero de 2005 en una zona templada y vinícola de España? Pues por supuesto que sí. Dentro de una tendencia de subida progresiva media pueden darse fenómenos de bajadas espectaculares pero aisladas de la temperatura; eso es temperie. Lo otro, el clima, es... un promedio a largo plazo. Lo mismo, pero al revés, ocurrió en el verano de 2003, en conjunto el más caluroso desde que se recogen datos en España. Y ya vimos que 2003 no fue un año récord de calor en España (le superaron 2006, 2009 y 2011) y tampoco en el mundo (fue el séptimo más cálido de los últimos treinta años).

¿Calentamiento? Podemos estar razonablemente seguros de que, dentro de un cierto margen de incertidumbre, sí que existe un calentamiento global desde hace unos tres siglos. Pero no sabemos bien, en cambio, si en esa escala de tiempo (siglos) dicho calentamiento ha sido excepcional, muy diferente a lo acontecido anteriormente.

4.2.1.3. La lluvia no disminuye

En general, se suele asumir que los cambios climáticos son esencialmente cambios de temperatura. Es más, quizá inducido, involuntariamente, por los informes del IPCC, casi todo el mundo asume que eso conlleva, además, una reducción de la precipitación. O sea, menos lluvia, menos nieve... Como si calentamiento y desertización fueran hermanos siameses.

No obstante, ya hemos visto que la historia del planeta muestra exactamente lo contrario: las épocas frías fueron mucho más pobres en precipitaciones que las épocas cálidas, cuando las condiciones globales eran más próximas en promedio a lo que hoy llamamos clima tropical. Y suena lógico, al menos en primera aproximación: si el aire está más caliente, en los mares que cubren la mayor parte del planeta habrá más evaporación y, al final, más nubes y más precipitaciones.

De todos modos, todo eso suena impreciso; y las épocas remotas tienen interés académico pero poco más. Lo que realmente importa hoy es saber lo que ha ocurrido durante el pasado más reciente y lo que está ocurriendo ahora; es la única forma de poder vislumbrar, hasta donde sea posible, lo que pudiera ocurrir en un futuro próximo.

Pues bien, en lo referente a las lluvias lo cierto es que sabemos más bien poco, al menos si se compara con el caso del dióxido de carbono o la evolución de las temperaturas. Y aún sabemos menos del vapor de agua porque no lo podemos medir con cierta garantía debido a su extrema variabilidad, ni tampoco poseemos datos numéricos fiables acerca de la evolución de la nubosidad en el pasado. Eso sí, conocemos relativamente bien cómo evolucionó la precipitación en tiempos recientes, pero sólo en determinados lugares, no a escala planetaria. Por eso, estos datos pluviométricos, realmente detallados y con series históricas interesantes —a menudo, más extensas y numerosas que las series termométricas—, no resultan con todo suficientemente representativos de los cambios de clima a escala planetaria. Las precipitaciones se producen con una extrema irregularidad, tanto espacial como temporalmente; sobre todo cuando el régimen predominante es el convectivo —tormentas, chaparrones—, que suele producir aguaceros muy intensos y, unos cuantos kilómetros más allá, apenas cuatro gotas. Algo característico, por ejemplo, de las regiones ecuatoriales —donde llueve mucho— o de nuestros climas mediterráneos —donde llueve poco.

Quizá por eso la climatología se apoya mucho en la geografía para determinar la pluviosidad de una región; sabe bien que se trata de una característica esencial para la supervivencia de los seres vivos y los paisajes. Y los bioindicadores climáticos funcionan bastante mejor con la lluvia —mucha o poca— que con la temperatura.

Aun así, no tenemos mucha idea acerca de cómo evolucionó la lluvia en el pasado. Por fijarnos sólo en el Holoceno (los últimos 10 a 12.000 años), hay que tener en cuenta ante todo que es muy difícil de sintetizar de forma global un fenómeno que tiene una incidencia y una variabilidad tan locales. La lluvia, además, sólo se consignaba históricamente cuando afectaba por exceso o por defecto a zonas muy pobladas o de notable interés por sus cultivos. Es obvio que nadie supo nunca, ni le preocupó lo más mínimo, cuánto llovía en el centro del océano Índico, o en pleno Atlántico, durante la época de los griegos, o en la Edad Media...

La revolución agrícola, introducida por los ingleses y llevada a otros países europeos y luego americanos a partir del siglo XVIII, ayudó, junto al final de la Pequeña Edad del Hielo, a que la alimentación de las gentes fuera mejorando sustancialmente de forma gradual. Toda una revolución, sí; basada no sólo en las nuevas tecnologías —máquina de vapor y ulteriores desarrollos—, sino en la progresiva generalización del riego en ciertos cultivos para regularizar los caprichos pluviométricos en las regiones más sensibles. Pensemos en la importancia estratégica del regadío en países mediterráneos pobres en agua pero ricos en asoleo. A escala local, es algo que los árabes ya habían impuesto en buena parte de las regiones mediterráneas españolas, pero no existían aún las máquinas necesarias para bombear agua, o para cosechar, sembrar o empacar, como las que comenzaban a aparecer en el siglo XIX.

Muchas personas no muy bien informadas defienden que los ríos debieran desembocar en el mar sin agua porque ésta es demasiado valiosa para que «se pierda» de ese modo. Una visión miope y, sin duda, errónea. Es evidente que el agua dulce es indispensable para el mar para reponer lo que éste pierde por evaporación; no sólo rebaja su salinidad cuando es excesiva (por ejemplo, al subir las temperaturas en verano) sino que aporta nutrientes a las especies marinas. Cuando se restringe la llegada de los ríos al mar, ocurren tragedias como la del mar de Aral, contiguo al Caspio.

Hace sólo medio siglo, Aral era un gigantesco lago de 68.000 kilómetros cuadrados —el cuarto más grande del mundo— que almacenaba más de mil kilómetros cúbicos de agua dulce. Se capturaban anualmente 40.000 toneladas de pescado y en su entorno existían al menos 6.000 kilómetros cuadrados de zonas húmedas parcialmente inundadas, refugio de aves y biodiversidad de extraordinario valor ecológico. Durante los años sesenta del pasado siglo el gobierno soviético de entonces construyó un canal de 500 kilómetros para desviar un tercio del caudal del enorme río Amur Daria, que desembocaba en el lago, con el fin de regar inmensos campos de algodón para autoabastecer a la Unión Soviética de esa fibra textil. En 1980, se cultivaba ya el doble de hectáreas de algodón, y la población de la región había pasado de 14 a 25 millones de personas.

Entonces, ¿cuál era el problema? Todo parecía ir sobre ruedas... excepto por un detalle mucho más relevante de lo que parecía al principio: para mantener aquel desarrollo no bastaba el caudal del canal iniciado en 1960, por lo que se fue captando cada vez más agua, a través de otros canales menores, y no sólo del Amur Daria sino del otro río gigante tributario del lago, el Sir Daria. Con lo que en 1980, que parecía el año triunfal, el agua dulce que finalmente llegaba al mar de Aral era apenas el 10 por 100 de la que llegaba veinte años antes; se veía venir el declive del gigantesco lago...

La superficie del Aral era en 1990 la mitad de sus iniciales 68.000 km2 pero en 2010 no llegaba ni a 15.000 km2, ¡casi el 20 por 100 de la superficie inicial! En cuanto al volumen, la cosa es aún peor: hoy es de apenas un 15 por 100 del de hace medio siglo.

Además, el 95 por 100 de los fértiles humedales es ahora un desierto y el microclima de las regiones adyacentes ha cambiado a peor, porque el lago ejercía, en cierto modo, de amortiguador de un clima de por sí muy extremado. Hoy, los inviernos son más crudos y los veranos más secos. Y de las treinta especies de pescado de alto valor comercial que se obtenían en el Aral, hoy apenas quedan dos o tres, con capturas casi simbólicas.

Lo angustioso de este ejemplo es su rapidez: en unos cuantos decenios, el abuso del regadío con aguas fluviales ha herido de muerte a todo un mar interior de enorme importancia, e incluso va a acabar con los cultivos que se querían propiciar. Ya no son tan rentables, el régimen de los ríos que los alimentan ha cambiado debido a las muchas presas construidas aguas arriba desde el Himalaya, donde nacen, e incluso el clima de la zona ha empeorado notablemente.

¿Por el cambio climático, como dirían algunos? Obviamente, no. Es muchísimo más insensata la mano del hombre cuando se aplica directamente sobre determinados ecosistemas, aunque sean de gran tamaño. Eso sí que ha engendrado un poderoso, y negativo, cambio de clima; pero en ello nada tiene que ver el CO2 sino la insensatez de una planificación agrícola mal estudiada y peor realizada.

Volviendo a la lluvia, que, por cierto, en la zona del mar de Aral no ha variado gran cosa, la tónica general parece haber sido de mantenimiento en sus valores medios, e incluso está documentado un leve incremento, no gradual sino con altibajos, en la mayor parte de las zonas templadas del hemisferio norte. El incremento puede cifrarse a lo largo del siglo XX entre un 5 y un 10 por 100.

También sabemos que las precipitaciones han aumentado levemente en las regiones ecuatoriales de las que tenemos datos, que son pocas, y que no parecen haber cambiado en las zonas tropicales, aunque en el Sahel y en el Cuerno de África —Etiopía, Somalia— podrían haber disminuido en la segunda mitad del siglo XX en torno al 5 por 100. No es muy significativo, porque llueve muy poco en esas zonas desérticas; pero obviamente por poco que sea, siempre es mala cualquier reducción de la lluvia.

En cuanto a los océanos, se ignora prácticamente todo acerca del reparto de las precipitaciones; se supone que la tendencia será más o menos la misma que en los continentes. Pero nadie lo sabe realmente.

Y si conocemos mal las estadísticas de precipitación total, aún conocemos peor lo que podríamos llamar «calidad» de las lluvias. Porque, en efecto, no siempre es bueno que llueva más, si las lluvias son torrenciales o erosivas. En ese sentido los datos disponibles no indican tendencia alguna que tenga algún significado mínimamente relevante.

Finalmente, por lo que respecta a la intensidad y la frecuencia de las tormentas y ciclones tropicales, ya vimos que no parece que haya tampoco ningún tipo de tendencia significativa a lo largo del siglo XX. Lo mismo ocurre con los tornados y el número medio de días de tormenta y granizo, globalmente considerados. No obstante, todos estos datos son dispersos y afectan a fenómenos tan localizados que resulta casi imposible hacer una estimación promediada que sea válida para todo el planeta.

En cuanto a la fase sólida del agua, o sea el hielo, ante todo conviene recordar que la inmensa mayoría (cerca del 90 por 100) está en la Antártida, algo menos de un 10 por 100 en Groenlandia, y el 2-4 por 100 restante está en los hielos flotantes del Polo Norte y en los glaciares de montañas no polares. A pesar de todo lo que se dice, el balance total de ese hielo mundial no parece haber variado sustancialmente en el último siglo. Desde luego, el retroceso de los glaciares continentales no polares es bastante claro desde hace un par de siglos, al menos en la mayoría de ellos. Muchísimo menos de lo que dijo el IPCC (lo que causó el famoso «Himalayagate», una estimación sobre la desaparición de los glaciares en Asia en apenas treinta años que luego resultó desprovista de fundamento), pero aun así bastante patente. Lo cual suena congruente con el incremento de la temperatura tras la Pequeña Edad del Hielo de finales del siglo XVII. También parece que los hielos flotantes de agua dulce situados en torno al Polo Norte podrían estar deshaciéndose en verano más deprisa que antes, aunque en invierno recobran extensiones similares a las de hace tres decenios, cuando comenzaron las medidas, aunque también a la baja.

Se cree que, de seguir así, el océano Glacial Ártico podría quedar libre de hielos durante algunos días de verano hacia el año 2030. Aunque esto es algo que con toda probabilidad ya ocurrió anteriormente, por ejemplo, cuando los vikingos descubrieron la por entonces Tierra Verde (Groenlandia) hace diez siglos, o incluso más recientemente, cuando a finales del siglo XIX llegó a oídos de un escritor francés la noticia de pescadores noruegos que afirmaban haber encontrado un paso libre de hielos hacia el Polo Norte. Aquel escritor era Julio Verne, y escribió una novela sobre este asunto, Las aventuras del capitán Hatteras, un hombre con una obsesión enfermiza por encontrar el Polo y llegar a él a través del mítico paso libre de hielos, lo que le llevaría a la destrucción. Al margen de la trama novelesca, es obvio que hace poco más de un siglo ya se hablaba de un polo septentrional parcialmente libre de hielos.

Pero casi todo el hielo existente en la Tierra, un 97 por 100 en promedio —fluctúa con las estaciones y los años—, se encuentra en el continente antártico (casi un 90 por 100 del hielo total) y en Groenlandia (unos 3 millones de kilómetros cúbicos de hielo, en torno al 8-9 por 100 del total). Curiosamente, parece que está disminuyendo en estas dos regiones el hielo costero pero en cambio está aumentando en el interior. De hecho, en la Antártida aumenta la cuantía de hielo acumulado incluso en las zonas costeras, excepto en las proximidades de la península Antártica, en la zona occidental, donde ese hielo costero y la banquisa flotante están en claro retroceso.

El balance global del hielo en todo el planeta parece, pues, bastante estabilizado desde hace decenios, e incluso se calcula que podría estar creciendo levemente debido al hecho de que parece que las precipitaciones son algo más intensas en el Polo Sur, lo que no es decir mucho: el continente antártico es en su inmensa mayoría un desierto helado.

4.2.2. Lo mucho que ignoramos

4.2.2.1. Promedios sin detalles, detalles sin promedios

Son numerosos los temas que podrían ser incluidos en un apartado dedicado a lo que ignoramos respecto a los climas y sus cambios. De los cambios climáticos del pasado tenemos muy pocos detalles, tantos menos cuanto más hacia atrás nos vayamos en el tiempo. Apenas tenemos ideas de las grandes líneas de tendencia a muy largo plazo, sin la más mínima noción acerca de cómo era el tiempo de cada día, de cada año, de cada siglo dentro de ese período... El Carbonífero seguro que fue una época de calor y humedad elevados, con gigantesca vegetación arbustiva. Pero desconocemos el día a día de la temperie en las distintas latitudes —polares, templadas, tropicales— y no podemos más que especular acerca de las diferencias entre unas u otras regiones del planeta, en función del reparto de mares y continentes, por ejemplo.

También resulta curioso que —al menos hasta el momento— no hayamos observado ningún tipo de redistribución de los climas zonales. Ése sí que sería un cambio climático espectacular. Por ejemplo, que en algunas zonas tropicales acabara haciendo menos calor que en las zonas templadas. Pero no, lo que hemos observado es si acaso una mayor frecuencia de años, o ciclos de varios años, más o menos cálidos que los anteriores, más o menos secos o lluviosos... Pero siempre dentro de los mismos climas zonales que se estudiaban hace unos siglos: fríos en las zonas polares, templados en las zonas intermedias, tropicales y ecuatoriales, con distinciones entre continentes y océanos. Lógico, por otra parte, puesto que esa distribución depende de factores astronómicos; aunque no deja de ser curioso que en unos pocos miles de años el Sahara pasara de ser un desierto a una zona con ríos y una fauna y flora variadas, y en otro corto número de milenios haya vuelto a ser el desierto que hoy conocemos. Fue un fenómeno local, que tuvo lugar a mediados del Holoceno, pero como cambio climático resulta sin duda llamativo y no poco trascendente para los seres vivos.

O sea que, por lo que sabemos, el calentamiento global no ha producido, ni parece que vaya a producir, ningún cambio climático «subversivo» capaz de hacer, por ejemplo, que los climas tropicales lluviosos se hagan secos y desérticos —es un decir—, o que los climas templados mediterráneos se conviertan en climas tropicales muy húmedos...

Además, lo que sí hemos podido constatar es que incluso en períodos de aumento bastante regular de las temperaturas medias anuales, nunca nos hemos visto privados, sino todo lo contrario, de inviernos muy rigurosos y veranos más bien templados, alternando con otros inaguantables. Como ejemplo de ambos extremos no hay más que recordar el gélido mes de enero de 2005 y el tórrido verano de 2003, que ya hemos comentado: un máximo y un mínimo que ocurrieron en un plazo menor de año y medio.

En suma: tenemos tendencias muy antiguas del clima remoto, sin detalles, y en cambio hoy podemos determinar numerosos pormenores pero que no permiten obtener conclusiones globales porque no abarcan a todo el planeta y tienen una antigüedad más bien escasa. Podemos verlo algo más despacio.

De forma meramente intuitiva, todos tenemos clara la idea de que la atmósfera es muy extensa y que sus manifestaciones —los meteoros— son variadas e irregulares. Esta diversidad de comportamientos del aire terrestre según los lugares y a lo largo del tiempo es lo que los humanos nos estamos empeñando en conocer, describir, agrupar y, eventualmente, predecir.

Era inevitable que, en paralelo con los conocimientos que ya en el siglo XX daban fin a la prehistoria de la meteorología y de la climatología, surgiera el anhelo de la predicción científica; que nada tenía ya que ver, por supuesto, con la adivinación por métodos mágicos o religiosos. En la meteorología, esas predicciones no han dejado de mejorar en el último siglo transcurrido desde aquellas primeras cartas noruegas de Bjerknes y los suyos, y estos progresos han recibido un impulso inmenso gracias a la ayuda impagable de las modernas telecomunicaciones, la observación global por satélites y el cálculo numérico por ordenador. Y por eso las predicciones meteorológicas a corto plazo y en un lugar concreto tienen aciertos superiores al 90 por 100...

Pero la climatología lo tiene mucho más difícil en el terreno predictivo porque no puede ceñirse al cortísimo plazo que hoy persiguen los pronósticos meteorológicos: los climas se definen en plazos de tiempo mucho más largos, como mínimo treinta años. Las predicciones climatológicas no suelen describir, además, lo que ocurre en lugares concretos sino que pretenden abarcar áreas extensas; es cierto que se puede hablar del clima de una ciudad, por ejemplo, pero eso sólo es posible cuando se dispone de datos numéricos, de tipo meteorológico, con los que poder realizar los correspondientes cálculos estadísticos a largo plazo. Lo que ocurre con unos pocos lugares del mundo, que tienen además una antigüedad de los datos de poco más de un siglo; todo es demasiado poco representativo.

Ante este panorama, a nadie extrañará que en cuestión de cambios de climas futuros sólo podamos apelar a los modelos numéricos, que hoy podemos usar gracias a la potencia de los modernos computadores. Lo malo es que son todavía insuficientes por sus carencias matemáticas, sus simplificaciones y numerosas incertidumbres, que siguen siendo quizá excesivas, caos incluido.

Aun así, los científicos del IPCC creen —y pretenden que lo creamos todos— que son capaces de predecir cómo se van a comportar los climas dentro de cien años. Y, claro, si los gobiernos creen eso —el IPCC es gubernamental—, acaban adoptando decisiones políticas, generalmente restrictivas de cara a las emisiones de CO2, puesto que este gas de la vida es acusado de ser el máximo culpable del asunto... Unas medidas que luego, curiosamente, casi todo el mundo incumple.

Cabe preguntarse si este comportamiento del mundo político no se basa en una especie de presunción, por no decir soberbia, científica, que les sirve a los dirigentes de los países ricos sobre todo para intentar no perder parte de su poderío. ¿O se trata más bien de la adopción de medidas prudentes, adecuadas a la posible gravedad del asunto, sobre la base del famoso principio de precaución? También es cierto que no son pocos los que afirman que, en este caso, podría ser peor el remedio que la enfermedad... Sin descartar la posibilidad de que estemos ante una necesidad realmente urgente de tomar medidas cuanto antes, para que el problema no se nos vaya de las manos.

El problema esencial es que no estamos seguros, diga lo que diga el IPCC, de que estas alternativas sean demostrables, o tengan al menos suficiente respaldo como para adoptar decisiones económicamente traumáticas en el mundo rico, que enseguida acabarán incidiendo negativamente en el mundo pobre, cada vez más condenado a seguir siéndolo.

La realidad de las cosas es que buena parte de las aparentes certezas esgrimidas por los defensores del calentamiento acelerado y catastrófico... no lo son tanto. Lo que sabemos, y hasta donde lo sabemos, es muy imperfecto porque ignoramos muchas más cosas de las que quisiéramos. Y lo que predecimos lo hacemos basándonos en ecuaciones y modelos que presentan muchos defectos, tanto en las matemáticas utilizadas como en la metodología misma del sistema empleado.

Veamos el ejemplo de las temperaturas, que ya analizábamos como un parámetro atmosférico que se suele dar por aceptablemente bien conocido. Los demás parámetros los conocemos aún peor...

Sabemos que hoy podemos medir las temperaturas de muchas maneras: con escasa fiabilidad, en casa, en los coches, en las calles..., y con gran precisión en observatorios que disponen de garitas normalizadas y termómetros precisos y de calidad; gracias a ellos hemos acumulado datos de forma continua y de gran exactitud. Sí, pero... ¿de qué lugares? Pues, lógicamente, sólo de los sitios donde existen esos observatorios meteorológicos. Por desgracia no son muy numerosos y por tanto no cubren ni muchísimo menos toda la superficie del planeta, ni en horizontal ni aún menos en vertical. De hecho, hasta que llegaron los satélites, carecíamos de datos reales en más del 90 por 100 de la superficie del planeta y de más del 95 por 100 de la atmósfera en sus distintos niveles.

Lo malo es que los datos por satélite no son equiparables a los de tierra —miden con menos precisión, y por capas de aire, no en lugares concretos—, y por eso las agencias espaciales especializadas, como el GISS de la NASA, elaboran unos índices que intentan conjugar esos datos medidos por satélite con los datos obtenidos en observatorios, corrigiendo todos ellos en función de diversos parámetros que intentan paliar posibles errores... que son estimados y sopesados por los expertos.

Un reproche que se le hace a estos especialistas es que no suelen aportar los datos en bruto de los que parten para calcular sus índices, ni aún menos la forma en que los calculan y estiman sus eventuales «desviaciones». Eso ha dado lugar a diversas sospechas de error —nadie sensato piensa que se hagan trampas sistemáticamente—, sospechas que luego se han confirmado en más de un caso por la sencilla razón de que errare humanum est, y que siempre ven más cuatro ojos, o cientos de ojos, que sólo los dos del especialista, por bueno que sea. Por eso la ciencia no es dogmática: lo que se afirma, hay que probarlo y permitir que sea verificado para saber si es falso o no.

Un buen ejemplo, y sonado —aunque curiosamente fue ignorado por los periodistas—, fue el de los datos que la propia NASA acabó corrigiendo a partir de una observación aportada por Steve McIntyre, un escéptico —denigrado, dicho sea de paso, por todos los científicos del IPCC— que, en este caso al menos, tenía más razón que un santo. Lo acabó reconociendo la propia NASA, un poco a regañadientes y casi a escondidas, tras muchos dimes y diretes.

Lo que denunciaban McIntyre, y con él Ross McKitrick, Anthony Watts y otros escépticos serios, eran errores sistemáticos de medida en las redes terrestres de Estados Unidos. Existe en Internet abundante literatura sobre este tema (no tanto en la NASA, que corrigió sus datos dándoles la razón pero sin argumentar el porqué) como para analizar el caso con algo más de detalle del que cabría en este libro; si lo citamos aquí es tan sólo para señalar que ni siquiera aquello que creemos conocer con exactitud, como la temperatura del aire, lo sabemos o podemos luego aplicar a la climatología global del planeta sin introducir un determinado margen de incertidumbre.

Por cierto, en este caso que comentamos, una vez corregida por la NASA en 2007 la serie de datos de temperatura del conjunto de Estados Unidos, gracias a las pruebas aportadas por McIntyre, el año más cálido de la historia en Estados Unidos ya no resultaba ser 1998 sino 1934. Y entre los diez años más cálidos de la historia hay cinco anteriores a la segunda guerra mundial; no, como se decía, todos ellos en los últimos dos decenios. Todo un mito del IPCC derrumbado... por un error de medida de unos termómetros cuyos datos estaban mal tomados. El año más cálido del siglo XX ya no estaba entre los últimos años del siglo sino... ¡en 1934! Por cierto, en Estados Unidos (sin contar Alaska) el año 2012 ha sido el más cálido de todos, levísimamente más cálido que 1934. Pero si aquel año 1934 no fue ni de lejos el más caluroso en el resto del mundo —que es algo que proclamó a los cuatro vientos la NASA, con razón—, ¿por qué ahora, cuando proclaman que el caluroso 2012 es el mejor síntoma de calentamiento global, no dicen que este año reciente tampoco fue, ni de lejos, el más caluroso a escala mundial sino el noveno de los últimos 35 años? Y, por cierto, sin salir de Estados Unidos, 2012 ha sido un año récord en cuanto a tornados... En cuanto a pocos tornados, y poco destructivos. A lo mejor el calentamiento no es tan malo como se empeñan en decirnos.

Lo esencial de este ejemplo es que no constituye polémica alguna entre escépticos y creyentes. Se le señaló a la NASA un error sistemático que luego le costó corregir —los científicos son orgullosos—, sin reconocerlo explícitamente y tardando mucho en realizar esa corrección, que atribuyeron a sus propias revisiones internas y citando, sólo de pasada, la colaboración de algunos científicos externos... En realidad, sólo uno: Stephen McIntyre, que fue quien puso el dedo en la llaga.

En todo caso, este ejemplo de las temperaturas, aplicado a épocas recientes que parecen bien conocidas, ilustra bien lo que aquí queríamos poner de manifiesto: incluso los valores y datos que solemos dar por casi absolutamente seguros están sujetos a incertidumbres notables cuando a partir de ellos intentamos sintetizar —¿significa eso generalizar abusivamente?— los climas de todo el planeta en un único «clima global».

Y que conste que no estamos diciendo que no podamos conocer de ningún modo lo que rodea a la enorme complejidad de los climas del planeta y su evolución en el tiempo; pero cuando se pretende abarcar todo el planeta, con todo detalle y en períodos largos de tiempo, es obvio que también son numerosas las cosas que simplemente ignoramos o que conocemos muy mal.

Podemos predecir con una precisión incluso asombrosa los vientos, la temperatura, el engelamiento y muchas otras magnitudes para un vuelo transoceánico de nueve horas; eso funciona muy bien, y aporta hoy una increíble seguridad y economía a la aviación comercial. La meteorología es una ciencia muy precisa cuando estudia en detalle el presente en determinados lugares, o bien cuando realiza predicciones a corto plazo. Pero si lo que pretendemos es hacer con la climatología lo mismo que con la meteorología, pero para plazos enormes —muchos decenios, un siglo—, y para todo el planeta, entonces forzoso es reconocer que la precisión se diluye en una incertidumbre creciente conforme aumenta el plazo de tiempo considerado.

O sea, como decíamos anteriormente, muchos detalles pero malos promedios a largo plazo, o buenos promedios sin muchos detalles.

Claro que los climatólogos, o muchos de ellos, pueden ignorar lo que ignoran, valga la paradoja. Es decir, no hablar de lo que no conocen; ni siquiera pensar en ello aunque pudiera tener su importancia.

Por ejemplo, da la impresión de que eso es lo que hace el IPCC con el vapor de agua y las nubes. Ignora el tema, o casi; y eso no es muy científico que digamos. Podemos minimizar, o reducir a un simple parámetro numérico, un proceso complejo como el de la oscilación del Pacífico Sur asociada al Niño, ENSO, o la más recientemente estudiada oscilación del Atlántico Norte, NEO. Pero esa reducción simplificadora de un fenómeno extenso e intenso, que afecta directamente a muchas regiones, e indirectamente a muchas otras, añade notables incertidumbres a los cálculos. Y, aunque no se reconozca así, hace dudar mucho de esas notas de fiabilidad elevada que suelen atribuirse...

Son muchos los factores y parámetros del clima que conocemos con una más que notable incertidumbre. No sólo en los datos antiguos de temperatura, de los que hemos visto ya algunos ejemplos, e incluso en los datos recientes, como lo de 1934 y la NASA que acabamos de resumir. También respecto al Sol, el agua y las nubes, las corrientes marinas, los volcanes, los sumideros de carbono... A pesar de lo cual, en muchos de estos temas se da por bien establecido lo que en realidad se conoce imperfectamente.

Por cierto, eso es algo que nunca ocurre —ni debe ocurrir— en las ciencias experimentales: las afirmaciones que huelen a dogmáticas no tienen nada que hacer en este asunto. En ciencia no hay verdades absolutas, incómodas o no, sino verdades científicas, o sea, sometidas a crítica racional y asentadas sobre elementos de desconocimiento, total o parcial, a menudo considerables; y, por tanto, en constante revisión. Algo que, aplicado al conjunto de la atmósfera, pasada, presente y futura, no puede ser más acertado.

4.2.2.2. Datos dudosos y escasos

Del remoto pasado del planeta tenemos una idea global muy aproximada gracias al testimonio de los estratos geológicos y, eventualmente, de los fósiles encontrados a diversas profundidades. Todo ello nos ilustra, aunque sea de forma incompleta y muy aproximada, acerca de lo que ocurrió hace muchos millones de años. Para conocer el pasado algo más reciente disponemos, además de los datos geológicos, de algunos sondeos en los hielos más profundos de Groenlandia y la Antártida. Y ya en épocas históricas podemos acudir a los anillos de los árboles, a vestigios arqueológicos y a diversos testimonios y documentos del devenir de la humanidad que, en conjunto, aportan una información un poco más precisa, aunque no completa ni de alcance planetario. En todo este recorrido temporal resulta imposible llegar a establecer dato numérico alguno; como mucho, podemos hacer estimaciones o suposiciones, imposibles de verificar.

A partir del Renacimiento tuvimos a nuestra disposición los primeros instrumentos de medida que, junto a la generalización de las crónicas históricas y otros datos directos o indirectos, nos permiten conocer algo mejor el pasado más inmediato, sobre todo los siglos XVIII y XIX.

Todo ello podría valer para conocer la historia del planeta, de los seres vivos, de la humanidad, en suma. Y sirve igualmente, como es obvio, para conocer de forma aproximada cómo evolucionaron los climas, de manera algo más precisa según nos vamos aproximando a la época actual. Ya vimos que las primeras redes de observación con aparatos se iniciaron en unas pocas localidades de Europa y en un aún menos número de sitios en América del Norte, a lo largo del siglo XIX. Y más recientemente, ya en plena era espacial, hemos podido por fin obtener informaciones globales mediante medidas tomadas desde los satélites, aunque estos datos sólo están disponibles desde hace unos treinta años o poco más.

¿Es suficiente información? Obviamente, depende de para qué. Los historiadores siempre piensan que saben poco acerca del pasado, y no dejan de investigar nuevas fuentes de conocimiento, directo o indirecto; aunque da la sensación de que lo esencial de lo que podemos saber, ya lo sabemos.

Con todo, imaginación y ganas de investigar son virtudes que los científicos poseen a raudales. Y a partir de múltiples métodos indirectos, a veces sólo indicios no siempre consistentes, han conseguido elaborar teorías sobre los cambios de clima del pasado que suenan interesantes y que se basan, aunque sólo sea parcialmente, en justificaciones racionales y aceptablemente coherentes. Son eso, teorías, hipótesis, elucubraciones... racionales, basadas en lo mucho que ahora sabemos (aunque todavía ignoramos demasiadas cosas) sobre el comportamiento del planeta y su biosfera. Pero lamentablemente, no son más que eso.

Sin tener que irnos a épocas muy remotas, para un climatólogo actual resultan de interés las variaciones de los climas durante el Pleistoceno, con su predominio de glaciaciones prolongadas y generalizadas. Y en especial la última de ellas, hace de 10.000 a 12.000 años. Su final fue brusco, al menos en la escala de tiempos que barajamos para esas épocas. Porque en apenas un milenio las temperaturas subieron, según los sitios, entre 5 y 7 u 8 grados.

¿Qué fue lo que provocó aquel notable cambio climático? Recordemos que los cálculos del IPCC cifran el aumento global de temperaturas durante el último siglo del orden de 0,6 ºC, fenómeno que atribuye de forma casi exclusiva a la mano del hombre. Asumiendo que esto último sea cierto, y sabiendo que los humanos no pudieron influir de ese modo hace 10.000 años, ¿cómo explicar aquella brusca transición del Pleistoceno al Holoceno? Porque su ritmo, y durante muchos siglos, fue similar al observado ahora en un solo siglo...

Un fenómeno relativamente reciente como aquél, ¿sería posible hoy? ¿Se superpondría al calentamiento de origen humano? ¿O quizá este calentamiento global no es tan antropogénico como se asume que es y pudiera tener un componente natural mayor de lo que establece el IPCC? Esto era algo que el propio IPCC decía en sus dos primeros informes antes de que aparecieran, qué casualidad, unos pocos trabajos para demostrar por fin que la mano del hombre era con mucha probabilidad la que estaba detrás del calentamiento global. Claro que, sin ser demasiado suspicaz, conviene recordar que el IPCC fue creado precisamente para demostrar eso; y no había hecho bien los deberes en aquellos dos primeros informes.

Volviendo al período de las glaciaciones del Cuaternario, encontramos en esa época elementos enormemente intrigantes para los científicos. Su estudio ha aportado numerosas hipótesis acerca de las posibles causas de esa alternancia entre un clima mayoritariamente gélido durante muchos miles de años y los breves períodos en que el clima parecía recalentarse de forma muy patente. La hipótesis que enseguida cobró fuerza, y que hoy sigue siendo generalmente admitida para explicar aquellas alternancias climáticas en períodos de miles de años, tenía y tiene que ver con ciertos parámetros astronómicos cuyas variaciones parecen explicar esos cambios de clima.

La emitió un astrónomo serbio, Milutin Milankovich (1879-1958), en los primeros años del siglo XX, y fue inicialmente recibida con enorme escepticismo por la comunidad científica. Pero el científico había calculado en su cátedra de la Universidad de Belgrado cómo podrían afectar a los climas las variaciones de diversos parámetros astronómicos relacionados con el movimiento de la Tierra alrededor del Sol, y observó que el resultado final de su combinación de series matemáticas se ajustaba bien a las oscilaciones de las glaciaciones e interglaciaciones del último millón de años.

La cosa tenía su mérito, porque en aquella época no había ordenadores para calcular aquellos complejos parámetros. El caso es que, desde entonces, nadie ha encontrado una mejor explicación del ciclo climático del Cuaternario a grandes rasgos, aunque no es del todo satisfactoria cuando se adentra uno en detalles de menor período temporal. Milankovich incluyó en sus cálculos las variaciones producidas en la precesión de los equinoccios, la excentricidad de la órbita terrestre, la inclinación del eje del planeta y la oscilación del plano de la eclíptica. No nos adentraremos en esos temas astronómicos; basta decir que, combinándolos, Milankovich encontró una serie temporal que se ajustaba bien a lo que creían saber los geólogos acerca de las cuatro últimas grandes glaciaciones del Pleistoceno.

De todos modos, y a pesar de los esfuerzos muy meritorios del científico serbio, sus cálculos servían para períodos de muchos miles de años, pero no daban cuenta de muchos detalles trascendentales; por ejemplo, el porqué de los tránsitos, a veces bastante abruptos, entre glaciaciones y períodos interglaciales, ni cuál es la causa por la que son mucho más largas las glaciaciones que los intermedios templados.

Y, claro, sin nos fijamos en períodos mucho más breves, como por ejemplo los últimos 12.000 años, entonces los parámetros de Milankovich no sirven para explicar los pequeños, pero significativos, cambios de clima ocurridos durante el actual Holoceno. Incluyendo algo que nos interesa especialmente, por su proximidad temporal: los cambios más recientes habidos desde el Óptimo Climático Medieval (siglos IX al XIV), incluyendo la Pequeña Edad del Hielo del siglo XVII, y el posterior calentamiento hasta hoy.

Todo aquello ocurrió sin intervención alguna, ni directa ni indirecta, de la mano del hombre. Exceptuando, claro, el siglo XX, cuando el consumo masivo de combustibles fósiles podría estar alterando el efecto invernadero mediante la emisión masiva de gases invernadero, esencialmente vapor de agua y CO2 de origen fósil.

Sí, son muchas las cosas que desconocemos. Por ejemplo, si las causas astronómicas fueron las responsables remotas de esas glaciaciones, ¿cómo se manifestaron dichas causas para producir en la atmósfera aquellos enfriamientos y calentamientos? ¿Pudieron ser suficientes las variaciones de la radiación solar incidente, debida a los cambios en los cuatro parámetros de Milankovich, como para explicar esos cambios? Y, ya puestos, ¿existe alguna explicación, aunque sea en forma de mera hipótesis, del porqué de las prolongadas glaciaciones y la brevedad de los interglaciales? ¿Y por qué, tras un último período gélido terriblemente intenso, quizá el más intenso en varios millones de años, se detuvo esa glaciación casi de golpe (a esa escala de tiempo, claro) y tomó el camino del calentamiento acelerado y progresivo que dio lugar al inicio del Holoceno al terminar el glacial Dryas Reciente?

Bien, pues no lo sabemos. Pero sería interesante saberlo porque, aun con toda la industrialización actual y sus abundantes emisiones de gases invernadero, no conocemos los fenómenos naturales que pudieran superponerse a los eventuales cambios inducidos por la mano del hombre, fenómenos quizá difíciles de desenmascarar porque forman parte del fondo climático natural que asumimos como permanente... y quizá no lo sea.

Del mismo modo que sabemos —aproximadamente, desde luego— cómo fue aquel cambio de clima que llevó de la última glaciación al actual interglacial, el Holoceno, también conocemos, igual de aproximadamente, la evolución de la temperatura a lo largo de los últimos cien siglos. Pero aquí aparecen ya controversias bastante más notables; algo lógico debido a la imprecisión con la que se estiman los datos indirectos.

El IPCC afirma contundentemente que las temperaturas más altas se han dado y se siguen dando al final del siglo XX y comienzos del XXI, minimizando la importancia de los períodos cálidos que pudiera haber habido en los últimos 10.000 años. Por ejemplo la Edad Media, cuando los vikingos colonizaron las costas de la entonces verde Grønland (en danés, Groenlandia). Pero eso es algo que en realidad no sabemos; es más, suena contradictorio con todo lo que los documentos históricos parecen apuntar (ya lo vimos en el análisis de los climas pasados).

Si el IPCC lo da por hecho es porque se basa en un único trabajo —luego rehecho por sus autores o por otros colegas, que utilizaron las mismas fuentes y llegaron obviamente a las mismas conclusiones, para mostrar que tenían razón— que llegó convenientemente a punto para convertirse en la estrella del Tercer informe. No es mucha demostración —un solo trabajo, sin haber dado tiempo a que surgiera eventualmente el inevitable debate científico— y suena más bien a verdad revelada que a partir de entonces, por resultar conveniente, se convierte en dogma.

Por supuesto, ese estudio fue luego discutido exhaustivamente, y con argumentos que como mínimo cuestionan la seriedad del estudio inicial y de sus posteriores secuelas; en realidad, todo ello suena a «sostenella y no enmendalla». Lo dicho, diríase una especie de dogma. Estamos aludiendo al polémico estudio que popularizó el famoso gráfico en palo de hockey.

Resulta inevitable explicar, aunque sea someramente, en qué consistió esa polémica, quizá una de las más virulentas habidas entre científicos del entorno del IPCC y científicos contrarios, críticos, escépticos o como se les quiera llamar. Lo del «palo de hockey» viene dado por la forma final de la gráfica que mostraba, en aquel Tercer informe del IPCC, la evolución de la temperatura en los últimos milenios: más o menos plana (con pequeños altibajos) durante muchos siglos hasta subir casi en flecha al final del gráfico, ya en el siglo XX. Como un palo de hockey puesto en horizontal...

El Primer informe del IPCC de 1990 ya había establecido un gráfico de esa evolución de temperatura en el último milenio, pero en él aparecía un potente calentamiento durante varios siglos en la Edad Media, un posterior enfriamiento también llamativo entre los siglos XIV y XVII, y un posterior calentamiento desde el siglo XVIII hasta hoy. O sea, época cálida (Óptimo Climático Medieval), época fría (Pequeña Edad del Hielo, que incluye al Mínimo de Maunder), y de nuevo época cálida (la actual), con sucesivos enfriamientos y calentamientos intermedios. Todo ello era coherente con los datos históricos disponibles, que siguen siendo válidos, por cierto, también ahora.

¡Menudo escándalo! Porque la cosa tenía... bemoles: resulta que el IPCC, creado para confirmar la idea de un calentamiento extraordinario actual debido a la mano del hombre, lo que exigiría una acción política mundial de envergadura para estigmatizar al CO2 como máximo responsable, cometía el «error» de decir que hubo en los siglos recientes calentamientos y enfriamientos similares a los actuales, y que incluso hizo más calor en la Edad Media que a finales del siglo XX. Todo un torpedo bajo la línea de flotación del buque del cambio climático antropogénico y de la decisión política misma que llevó a crear precisamente ese IPCC que ahora osaba decir algo así. Véase la cita literal, tomada de aquel Primer informe de 1990:

We conclude that despite great limitations in the quantity and quality of the available historical temperature data, the evidence points consistently to a real but irregular warming over the last century. A global warming of larger size has almost certainly occurred at least once since the end of the last glaciation without any appreciable increase in greenhouse gases. Because we do not understand the reasons for these past warming events it is not yet possible to attribute a specific proportion of the recent, smaller warming to an increase of greenhouse gases.

Concluimos que, a pesar de las grandes limitaciones en la cantidad y calidad de los datos disponibles de temperaturas históricas, la evidencia apunta consistentemente a un calentamiento real, aunque irregular, durante el último siglo. Es casi seguro que un calentamiento global de mayor amplitud ha ocurrido al menos una vez desde el final de la última glaciación sin aumento apreciable de los gases invernadero. Como no comprendemos las razones de esos acontecimientos de calentamiento del pasado no es posible atribuir el calentamiento reciente, de menor amplitud, a un determinado aumento de los gases invernadero.

¡Menudo fiasco! Al margen de otras consideraciones que se pudieran hacer —y que de hecho se hacen en el propio Primer informe—, lo cierto es que sólo cabía la siguiente disyuntiva: o se cerraba el IPCC —por inútil, por ignorante, por inservible, por no decir lo que se suponía que tenía que decir...—, o bien se le hacía seguir calculando, estudiando e investigando —cosa excelente, desde el punto de vista científico— para deshacer, si fuera posible, las incertidumbres subyacentes a lo largo y ancho de aquel informe, y, eventualmente, para remediar el fiasco inicial.

Lo de deshacer, si es posible, incertidumbres es una actitud muy loable, científicamente hablando. Lo de remediar a toda costa el fiasco inicial no lo es tanto, porque es suponer que se trata de que diga lo que no dice, a toda costa...

¿Cuál de las dos adoptó el IPCC? Bueno, la primera de las alternativas —cerrar el IPCC por inútil— era inconcebible, aunque sólo fuera por el escándalo mundial que pudiera originar; así pues se optó, como es obvio, por la segunda. Con perentoria recomendación bajo cuerda para evitar que se volviese a repetir la jugada: el IPCC estaba ahí para confirmar la extrema gravedad del famoso calentamiento global antropogénico, no para ponerle trabas en forma de incertidumbres varias de grueso calibre.

En el Segundo informe (1995) ya se inicia un claro cambio de rumbo en el informe final, pero es más gramatical que científico. Y así, casi como por arte de magia, aquellas «grandes limitaciones de datos históricos» de repente ya no existían; aparecieron como de la nada muchos nuevos datos. Tampoco aquella «evidencia consistente de que hubo calentamientos mayores en la Edad Media» fue sostenida en ese Segundo informe:

Ice core data from several sites around the world suggest that 20th century temperatures are at least as warm as any century since at least about 1400, and at some sites the 20th century appears to have been warmer than any century for some thousands of years... Temperatures have been far less variable during the last 10,000 years (the Holocene), relative to the previous 100,000 years. Based on the incomplete observational and palaeoclimatic evidence available, it seems unlikely that global mean temperatures have increased by 1° C or more in a century at any time during the last 10,000 years.

Los datos de testigos de hielo tomados en diferentes lugares del mundo sugieren que las temperaturas del siglo XX son al menos tan cálidas como las de cualquier otro siglo al menos desde el año 1400, y que en algunos lugares el siglo XX parece haber sido más cálido que cualquier otro siglo en varios milenios antes ... Las temperaturas han sido muchísimo menos variables en los últimos 10.000 años (el Holoceno) que en los anteriores 100.000 años. A partir de la evidencia observacional y paleoclimática incompleta de la que disponemos, parece poco probable que las temperaturas medias globales hayan subido un grado o más por siglo en ningún otro momento durante los últimos 10.000 años.

Pero si uno se fija bien, viene a decir más o menos lo mismo que el Primer informe: obsérvese lo de «sugieren», y lo de «evidencia observacional y paleoclimática incompleta...», pero redactado de forma completamente diferente, de modo que hace pensar en algo claramente distinto. La «consistente evidencia» de 1990 es ahora «sugieren que...», «parece haber sido...», «evidencia incompleta...». De hecho, fijémonos en la última frase; hubiera bastado con que se hubiese reemplazado el «Based on...» por algo así como «Despite...». Es decir, sustituir «A partir de la evidencia... incompleta de la que disponemos» por algo así como «A pesar de la evidencia... incompleta de la que disponemos». La frase cambiaría sin duda de sentido, y en cierto modo, perdería casi toda su fuerza, aun diciendo lo mismo.

Está claro que los redactores son políticos. Es decir, bastante hábiles en lo de decir o sugerir casi lo contrario de lo que se sabe o se cree saber.

Lo que ha de quedar claro es que este nuevo punto de vista mucho más matizado que el del Primer informe no se justificaba por la aparición de una enorme cantidad de nuevos estudios, sino sólo por dos de ellos, que, basándose en indicadores muy indirectos de las temperaturas, habían trazado una nueva gráfica de la evolución de la temperatura en los últimos seis siglos, donde ya podía vislumbrarse que las temperaturas del siglo XX eran algo superiores a las de finales del Óptimo Climático Medieval. Los artículos citados (Bradley y Jones, y Hughes y Díaz, 1993) no fueron los únicos, pero sí fueron retenidos por el IPCC porque eran los que llegaban a esas conclusiones. Los demás insistían en la incertidumbre de los datos o insistían en la cautela ante los anillos de los árboles porque éstos reflejan mal lo que ocurre cuando las temperaturas suben o en períodos cálidos...

Cuando la cosa ya rozó el esperpento fue unos años después. El IPCC preparaba su Tercer informe, la maquinaria política pro calentamiento antropogénico catastrófico ya estaba en marcha; pero no bastaban los dos artículos citados en el Segundo informe, eran poco contundentes. Y de repente apareció un nuevo trabajo, uno solo, publicado en 1999 por la revista Nature, y luego el Geophysical Review Letters. Lo firmaban Mann, Bradley y Hughes, casi los mismos especialistas anteriores, a los que se había añadido Michael Mann, experto en anillos de árboles que aportó unos datos de unas zonas de Eurasia en climas subpolares que precisaban mucho más la evolución de la temperatura en el último milenio. Y así es como, por fin, apareció un enorme calentamiento en el siglo XX en contraste con una temperatura poco cambiante y mucho más baja en siglos anteriores: ni Óptimo Medieval ni Pequeña Edad del Hielo. La gráfica se asemejaba a un palo de hockey en horizontal: apreciablemente recto en la parte larga (temperatura de los nueve primeros siglos) y curvado en línea recta hacia arriba en el siglo XX.

Conclusión: las temperaturas estaban disparándose —disparatándose dijo algún periodista por entonces— de manera absolutamente alarmante. Quedaba plenamente justificado lo del efecto infernadero, la Tierra con fiebre de Al Gore, el catastrófico calentamiento antropogénico... Por fin el IPCC había cumplido con su misión, once años después de su primer fiasco.

Los mismos expertos, y algunos otros —esencialmente del CRU, como el prestigioso climatólogo Keith Briffa—, firmaron posteriormente nuevos artículos a partir del año 2000 donde corroboraban aquellos descubrimientos y confirmaban el desusado calentamiento del siglo XX. Y en el año 2003, Jones y Mann incluso firmaron un artículo yendo aún más lejos hacia atrás, en el que creían demostrar que el calentamiento actual no tuvo precedentes en los dos últimos milenios; el último milenio ya no bastaba y había que añadirle dramatismo al asunto sumando el milenio anterior, desde la época de Cristo.

¡Cuánta investigación inédita, y de tan enorme trascendencia, en apenas un par de años! ¿De dónde sacaron todos aquellos datos, hasta entonces ocultos, acerca de un pasado tan remoto que de repente quedaba aclarado con semejante certeza? ¿Cómo llegaron a esa poderosa certeza con tan poco tiempo de investigación?

Michael Mann se integró en el reducido grupo de autores principales del Tercer informe del IPCC de 2001, que incluyó (fue añadido de forma acelerada) el famoso gráfico del palo de hockey. ¡La prueba definitiva del extraordinario calentamiento del clima que sufríamos, la evidencia de sus potenciales consecuencias dramáticas!

Véase a continuación el famoso gráfico. Es probable que esto fuera lo que se esperaba del IPCC ya desde el Primer informe, pero los expertos tardaron en aprenderse la lección política, y sólo fue posible once años después, gracias a un solo estudio, realizado de forma apresurada y rápidamente publicado en 1999, dado por cierto sin matización alguna por el IPCC en 2001.

En azul, estimación de la temperatura a partir de anillos de árboles, testigos de hielo y datos históricos. En rojo, temperaturas medidas con instrumentos. Culmina en 1998, considerado como el más cálido del milenio.

En este gráfico desaparecen el Óptimo Climático Medieval y la Pequeña Edad del Hielo; sólo hay unos cuantos años fríos a finales del siglo XV... Y, curiosamente, aunque los datos globales no apuntan a eso, se añade al final de la curva azul de los anillos de árboles un calentamiento brusco y continuado hasta el final del siglo XX, que luego se supo que no era tal, al menos por lo que a los anillos respecta. De hecho, los datos medidos muestran que los años cuarenta del siglo pasado fueron en muchos sitios tan cálidos como los noventa... Pero lo interesante es la parte final de la curva roja; ahí ya no hay curva azul de anillos: si la hubiera no marcaría ese aumento medido por los termómetros. Es probable que la curva roja sea más correcta, porque los anillos marcan mal las épocas cálidas. Pero entonces ese argumento también podría aplicarse al Óptimo Medieval, que no debería haber quedado difuminado tal y como aparece en el gráfico.

Pero la cosa podía parecer aún más dramática —y mucho más acusadora— si se superponía a esta gráfica del palo de hockey otra que mostrara la evolución del CO2 atmosférico. Pero, claro, los datos de Mauna Loa sólo estaban disponibles desde 1957. No importa; los autores usaron, como si fueran datos similares a los medidos, unas concentraciones del gas estimadas desde el año 1000 por métodos muy indirectos y notoriamente criticables y criticados. Aquel alarmante esquema era el siguiente:

En rojo, estimación de la temperatura según el gráfico del palo de hockey. En azul, estimación de la evolución del CO2 hasta 1958, y luego datos obtenidos en Mauna Loa; esta línea azul no discrimina los datos antiguos estimados y los datos medidos en Hawái (parece como si fueran los mismos).

En aquel año 2001, las dos gráficas —por una parte, en rojo, la temperatura en palo de hockey, y por otra, en azul, la del CO2 creciendo en paralelo, también en forma de palo de hockey— suponían un doble argumento donde ambas partes se refuerzan la una a la otra. Y gracias al Tercer informe del IPCC por fin el mundo entero pudo sobrecogerse de espanto, y los países firmantes del Protocolo de Kioto tuvieron un argumento de peso para imponer sus políticas restrictivas del CO2 y, sobre todo, para poner en marcha el mucho más criticable negocio —bien sustancioso— del mercado de emisiones. Un mercado de miles de millones de dólares al año. Con el apoyo, declarado o no, de las empresas fabricantes de equipamientos nucleares —ahora mismo hay en construcción en todo el mundo casi un centenar de centrales, que se iniciaron hace unos años quizá a causa de todo esto, y que no han parado a pesar del desastre de Fukushima en 2011—. Lo cual, por cierto, le plantea a los ecologistas un curioso dilema: la mejor coartada para luchar contra el cambio climático la tienen... los pro nucleares. Si abandonamos el carbón y los hidrocarburos, y cerramos las nucleares, ¿qué nos quedaría? Respuesta ecologista: las renovables. Pero éstas son irregulares, dispersas y muy costosas; en cambio, las nucleares ofrecen una regularidad de funcionamiento que nunca podrán tener el viento o el Sol. Y en cuanto a seguridad de gestión, por mucho que se diga de Chernóbil o Fukushima, los muertos en todo el mundo por la minería del carbón o los accidentes de tráfico son incomparablemente superiores a los muertos por radiaciones nucleares, y para el medio ambiente, globalmente hablando, son mucho peores las amenazas que proceden del petróleo y el gas natural que las relacionadas con el mundo nuclear con fines pacíficos.

Porque, claro, si hablamos de bombas atómicas, en ese caso la prioridad del mundo entero debería ser, mucho antes que la lucha contra el cambio climático, la abolición absoluta de esas armas. Es curioso, pero de eso precisamente no dice ni una palabra Al Gore. Pero, claro, fue vicepresidente del país que dispone de más bombas nucleares.

En todo caso, aquel Tercer informe del IPCC propició la aceleración de la lucha contra los excesos del CO2, convirtiendo el gas de la vida en algo así como el contaminante supremo y enemigo público número uno mundial. Se puso de moda defender el Protocolo de Kioto, el IPCC alcanzó una enorme notoriedad —acabarían dándole el Nobel de la Paz...

Hoy, con la aguda crisis económica, el Protocolo de Kioto ha retrasado el cumplimiento de sus objetivos de 2012 a 2020: de repente, el cambio climático no es tan dramático como decían... Claro que, con esto de la crisis, hay que recordar a Quevedo y su «Poderoso caballero don Dinero»; ante eso, no hay cambio climático, ni hambre en el mundo, ni... que valga.

Lo curioso es que todas las críticas al famoso gráfico en palo de hockey que fueron apareciendo, muchas de ellas basadas en estudios científicos tan rigurosos, si no más, que los de Mann, Jones y otros, en nada hicieron tambalearse la creencia (ya hemos dicho que aquello acabó siendo un elemento dogmático cada vez más alejado de la ciencia) de que las temperaturas se habían disparado en el siglo XX en paralelo con un crecimiento igualmente alarmante del CO2. El famoso gráfico aparecía en el Tercer informe del IPCC a página entera, y era incluido de forma muy destacada en el resumen para los responsables de políticas. Y desde su aparición, a pesar de las revisiones que se han hecho e incluso aceptado (que 1934 haya sido un año más cálido en Estados Unidos que 1998 sería la menor de ellas, aunque significativa por ser el país más poderoso del mundo), ha sido difundido como verdad revelada en toda clase de informes, artículos periodísticos, revistas y libros, sin el más leve asomo de crítica o la más mínima curiosidad acerca de cómo se obtuvieron esos gráficos.

Más tarde, el Cuarto informe de 2007 no sólo no asumió ninguna de esas críticas al gráfico en forma de palo de hockey —muchas de ellas publicadas en revistas revisadas por pares, a pesar de que los expertos del IPCC controlan casi todas ellas (ellos son sus propios pares, una endogamia que ha sido duramente criticada sin éxito por muchos científicos que han acabado por abandonar las filas del IPCC...)— sino que, por el contrario, se reafirmó en sus conclusiones. Eso sí, le dio al asunto mucha menos importancia que el Tercer informe; como si fuera un tema ya zanjado. O sea, juzgado y ejecutado. Dogma establecido, y a callar.

Sería prolijo detallar más el problema de esos datos aproximados, los famosos proxies basados en los anillos de los árboles, con los que se reconstruyen las temperaturas que supuestamente hubo en los últimos diez siglos. Lo esencial del asunto tiene que ver con la ocultación de esos datos originales. La polémica alcanzó pronto caracteres virulentos; en esencia, es difícil de comprender que se mantengan en secreto esos datos reales si nadie tiene nada que ocultar. Pero los expertos que defendían el famoso gráfico aducían que no podían poner en manos de simples aficionados unos datos muy difíciles de comprender y de elaborar, destinados sólo a los especialistas.

La suspicacia de Steve McIntyre, que fue quien más insistió en este asunto a partir de 2003, probablemente estaba justificada: cuando por fin hubo un acceso parcial a esos datos, pudo comprobar que lo menos que se podía decir de ellos es que eran parciales, incompletos y, sobre todo, se basaban en unos pocos árboles previamente seleccionados porque corroboraban la tesis que se defendía, excluyendo los datos de otros árboles cuyos anillos la contradecían. También habían tomado datos ajenos aparecidos en otras publicaciones que iban a favor de sus tesis, dejando de lado otros de esas mismas publicaciones que, en cambio, iban en la otra dirección. En suma, un sesgo deliberado. Los otros replicaron aceptando sólo algunos de los errores señalados —los más inocuos para sus conclusiones—, pero pasando por alto los más sustanciales. Nueva réplica posterior de McIntyre y otros expertos cada vez más críticos...

Y así hasta hoy. El tema sigue coleando. Pero resulta inevitable observar, al menos en este caso, la mala fe de los supuestos «buenos» del asunto, es decir, los expertos ingleses y americanos, que siguen siendo en esencia los más firmes puntales del IPCC. Por ejemplo, en lugar de aportar argumentos al debate, suelen afirmar que McIntyre no es un experto en climas y que, por tanto, es casi un ignorante, por lo que sus críticas no valen nada. Pero, entonces, ¿por qué Mann y los suyos han tenido que aceptar en más de una ocasión, y muy a su pesar, al menos parte de sus críticas hasta el punto de corregir sus propios datos? ¿Por qué el GISS de la NASA tuvo que aceptar la crítica acerca de las temperaturas más altas medidas en el siglo XX en Estados Unidos, que acabaron devolviéndole el dudoso honor del año más cálido a 1934 en lugar de 1998? No debían ser tan insustanciales las observaciones de este crítico supuestamente ignorante...

Por cierto, McIntyre no es un académico, sino un ingeniero experto en minería; eso sí, posee un muy sólido bagaje matemático y estadístico, algo que no suele sobrar entre los físicos del clima.

Hasta hoy los grandes centros de investigación se han alineado de forma casi unánime con las tesis del IPCC, que en su Cuarto informe de 2007 confirmaba con leves matizaciones la gráfica en palo de hockey; eso sí, dándole mucha menos importancia que en el Tercer inform». Aunque aducía (mediante una gráfica que luego fue popularmente conocida como espagueti, porque las líneas de los diversos estudios formaban un entramado similar a la famosa pasta) que muchos otros estudios (Briffa 2000, Mann y Jones 2003, Jones y Mann 2004, Moberg et al. 2005, D’Arrigo et al. 2006, Osborn y Briffa 2006, Hegerl et al. 2007, y después también Briffa et al. 2008 y Kaufman et al. 2009) confirmaban la gráfica inicial de Mann. Pero, claro, lo que no dice el IPCC es que todos estos estudios del espagueti utilizaban la misma cronología de proxies de la región siberiana de Yamal, adecuadamente seleccionada por Mann, y no la que integra a todos los anillos de los árboles de aquella zona, que no apuntan en absoluto en la misma dirección. No es, pues, raro que todos esos estudios arrojen resultados muy parecidos: no son estudios nuevos sino réplicas del inicial de Mann, con algunos añadidos...

En todo caso, parece que el Quinto informe del IPCC, previsto para 2013-2014, quiere zanjar definitivamente la polémica; a favor del famoso palo de hockey, claro. A pesar de que algunos de los científicos más expertos en ese asunto, como la famosa climatóloga Judith Curry y varios colegas suyos, se han confesado «asqueados» (literalmente) por la forma en que se había producido la polémica en torno al palo de hockey y la forma casi religiosa y dogmática con la que el IPCC defendía algo que no estaba nada claro desde el punto de vista científico. Curry formó parte de los autores principales de los primeros informes del IPCC, como experta mundialmente reconocida que es.

O sea, hablando en plata: no estamos seguros de que el actual calentamiento sea extraordinario; pero casi nadie pone en duda que desde hace más de dos siglos hay una tendencia en ese sentido, que quizá se haya acelerado en el tercio final del siglo XX. Tendencia que probablemente también se dio hace ocho o nueve siglos, quizá antes...

Tampoco estamos seguros de que ese calentamiento se diera en toda la Tierra, o bien sólo afectara a algunas regiones... Y, ya puestos, no sabemos bien si los datos obtenidos indirectamente (los famosos proxies) a partir de los anillos de los árboles, los testigos de hielo, los pólenes atrapados en muestras geológicas o heladas, los sedimentos en el fondo de los lagos, lo que sea..., representan cambios globales de todos los climas de la Tierra o sólo cambios locales de las zonas donde se tomaron dichos proxies.

Bien, dejemos los temas del pasado y miremos al presente.

Si aceptamos que las temperaturas de finales del siglo XX y de los primeros años del siglo XXI son mucho más altas que las del siglo XVII, ¿es por la industrialización y sus emisiones de gases invernadero, o se trata de un calentamiento natural, como una especie de movimiento pendular que nos haga en un futuro próximo retornar más o menos a un calentamiento similar al de la Edad Media? En esa hipótesis, la Pequeña Edad del Hielo sería una fluctuación fría entre dos épocas cálidas...

Pues bien, la gráfica en forma de palo de hockey parecería demostrar, si estuviera sólidamente establecida, la tesis del calentamiento derivado de la industrialización; todo lo ocurrido anteriormente serían pequeñas fluctuaciones (el Óptimo Medieval, la Pequeña Edad del Hielo). Pero ya hemos visto que ni siquiera estamos seguros de que los datos en los que se basa sean correctos, al margen de que la precisión con la que estimamos las temperaturas globales del pasado, de forma muy indirecta, ya hemos visto que es bastante dudosa.

Conviene recordar que en 2007 el Cuarto informe del IPCC aducía que el calentamiento acelerado que llevamos observando desde los años setenta se debe, con muy escaso margen de duda, a la mano del hombre industrializado. Tomando cierta distancia temporal, y a partir de todo lo que hemos visto aquí, parece bastante probable, en efecto, que en esos tres decenios y pico más recientes la correspondencia entre emisiones industriales de gases invernadero y elevación de temperaturas sea bastante clara.

También es probable que, mucho antes de esto, las temperaturas medias comenzaran a bajar tras el Óptimo Climático Medieval, aquel que les permitió a los vikingos descubrir aquella tierra verde, hoy completamente helada, a la que llamaron así, Groenlandia, y que colonizaron hasta el siglo XIV. La controversia científica sigue abierta, como acabamos de ver, sobre si la temperatura del planeta en esa época era más elevada que ahora, o no. Es posible que lo fuera en algunos sitios —por ejemplo, Groenlandia y quizá otros lugares próximos—, y que no lo fuera en otras regiones. Pero no podemos saberlo con certeza. Lo indudable es que hubo calentamiento hace unos mil años en muchas zonas del mundo, porque eso está establecido documentalmente; lo que no sabemos es qué valor de temperatura significa eso. También es seguro que en casi todos los sitios de los que tenemos documentos y proxies de todo tipo hubo luego un enfriamiento, aunque de nuevo parece casi imposible establecer datos numéricos al respecto, a no ser que la horquilla en más y en menos que nos planteemos sea muy grande. Finalmente, sabemos —y esta vez hay algunos aparatos que ya comienzan a indicar eso, aunque sólo en muy pocos lugares de Europa— que en los siglos XIX y XX, con diversas alternativas al alza y a la baja, las temperaturas volvieron a subir tras los fríos que culminaron en el XVII.

Todo esto resulta, obviamente, un poco vago. Desearíamos tener datos algo más concretos del pasado reciente, sí, pero no los tenemos. Unos y otros pueden estar tentados de ponerle cifras a lo que ocurrió cuando los vikingos, por ejemplo. Pero a fuer de honestos habría que considerar un error relativo tan importante que lo haría muy poco válido para obtener comparaciones con lo que hoy ocurre.

Por tanto, fin de la polémica del palo de hockey: no tiene sentido realizar un gráfico en el que se junten datos numéricos de temperatura obtenidas a través solamente de los anillos de los árboles, con los datos numéricos medidos en Tierra.

En todo caso, hay un problema añadido bastante más sustancial, y que afecta a los datos actuales. Porque cuando se dice que la temperatura media global es de 15 ºC, por ejemplo, ¿qué se está diciendo realmente? Y, ya puestos, ¿cómo se llega a establecer que esa temperatura mundial está subiendo o bajando año a año? Y, más difícil todavía, ¿cómo podemos saber cuál era esa temperatura media antes de tener observatorios fiables para poder compararla con la actual?

En cuanto a hoy, lo que se hace es tomar los datos de unos cuantos observatorios que disponen de series largas, promediarlos y decir que eso representa la temperatura media del planeta. De hecho, eso es precisamente lo que hace el IPCC, lo que llevan a cabo los climatólogos, aunque obviamente saben bien que se trata de una especie de símbolo, un dato cuasi-inventado con el que poder sensibilizar a la sociedad.

Decimos cuasi-inventado, pero en realidad se calcula de algún modo. Lo que requiere ponerse de acuerdo en muchas cosas: qué observatorios se utilizan y cuáles no, qué datos de esas series se mantienen y cuáles se modifican mediante algún tipo de análisis estadístico, cómo se rellenan las lagunas que existen en los observatorios cuando por alguna razón se interrumpe su continuidad, cómo se compensa el efecto urbano de isla de calor existente en muchísimos observatorios antiguos enclavados en grandes ciudades, cómo se integran los datos que obtienen los satélites en los últimos decenios, y así sucesivamente. En eso el IPCC sí que ha llegado a un consenso, pero es un consenso por convención, no una verdad absoluta; el IPCC define unas reglas del juego, pero cualquier científico medianamente preparado podría discutirlas; como lo podría hacer con cualesquiera otras que pudieran establecerse sobre bases racionales.

Conviene no olvidar que estamos analizando el clima, que es un promedio a largo plazo del tiempo. Gracias a los testigos de hielo podemos tener algunos datos —más bien dispersos y no muy precisos, sometidos además a críticas metodológicas de diversos tipos— acerca del pasado remoto en esa enorme isla que es Groenlandia; en cambio, del Polo Norte y su extensión de hielo en tiempos pasados no tenemos apenas información, ni siquiera indirecta. Sólo podemos realizar suposiciones y, con suma dificultad, algunas extrapolaciones. Todo ello rodeado de notables incertidumbres.

Todos estos matices que estamos introduciendo y que comparten de forma más o menos velada la inmensa mayoría de los científicos, contrastan poderosamente con la contundencia que expresan los comunicados de los defensores del calentamiento global a ultranza cuando lanzan avisos apocalípticos, no sólo sobre la fusión de los hielos flotantes del Polo Norte en verano, por ejemplo, sino acerca de lo insólito de semejante situación «nunca antes vista». Esto último, ¿cómo pueden saberlo si sólo se dispone de datos reales de los últimos decenios? No hay que engañarse: éste es el principal problema del estudio de los cambios climáticos del pasado, antes de que tuviéramos redes de observación, o sea, hace poco más de un siglo. Es muy poco tiempo para afirmar eso de que «nunca antes ocurrió que...».

A lo mejor, con tantos modelos matemáticos que ofrecen promedios generales, nada menos que de todo el planeta en su conjunto, hemos acabado por olvidar que la naturaleza es muy diversa, incluso minuciosa en su enorme variedad de climas.

4.2.2.3. Vapor de agua, nubes, hielo

Ya hemos visto que el conocimiento que actualmente poseemos en torno al efecto invernadero demuestra que el vapor de agua es el principal gas responsable de dicho efecto invernadero; y con mucho... Si recordamos que en teoría el efecto invernadero es capaz de hacer pasar la temperatura media del planeta de 18 ºC bajo cero —sin gases invernadero— a los actuales 15 grados sobre cero, de esos 33 grados de aumento el vapor de agua es responsable de algo más de la tercera parte, o sea, unos 23 o 24 grados. El CO2, en cambio, acusado de ser «contaminante» y señalado como el culpable de todo lo que tiene que ver con los cambios climáticos, apenas contribuye con el 20 por 100 al calentamiento; es decir algo menos de 7 grados. El resto se lo reparten, como ya vimos, el metano, el óxido nitroso, el ozono troposférico y los CFC residuales...

Estas cifras son las que acepta la mayoría de científicos, sean o no partidarios del IPCC. Pero no son del todo seguras. Incluso hay expertos que consideran que la influencia del vapor del agua sobre el efecto invernadero es aún mayor, como por ejemplo Richard Lindzen. No es un científico cualquiera sino probablemente uno de los más cualificados desde cualquier punto de vista que se adopte. De él dice la Wikipedia: «... físico de la atmósfera y profesor de meteorología en el MIT, bien conocido por su trabajo sobre la dinámica de la atmósfera media, las mareas atmosféricas y la fotoquímica del ozono. Ha publicado más de 200 artículos científicos en revistas revisadas por pares, y diversos libros. Lideró el capítulo del IPCC sobre «Procesos físicos del clima y retroalimentaciones» en el Tercer informe. Es ahora bien conocido como escéptico del calentamiento global, y crítico de lo que él considera presiones políticas sobre los científicos para favorecer un alarmismo climático mundial». O sea, un científico eminente del IPCC que acaba denunciando lo que no le gusta en ese organismo híbrido político-científico. Pues bien, Lindzen ha publicado recientemente que «aunque los otros gases invernadero, como el dióxido de carbono y el metano, desapareciesen, aún quedaría casi un 98 por 100 del efecto invernadero actual... por el vapor de agua».

Muchos otros autores le discuten tan tajante afirmación, pero lo que escribe Lindzen posteriormente suena más que razonable, al margen de que el vapor de agua influya todo eso o algo menos: «... es claramente inútil estudiar los cambios climáticos sin el conocimiento y la comprensión apropiados del comportamiento de esa sustancia vital que es el vapor de agua. Y es igualmente claro que nuestro conocimiento actual sobre el comportamiento del vapor de agua es muy inadecuado para esa tarea».

Bien, lo indiscutible es que del vapor de agua sabemos muy poco. Y el propio IPCC, aunque luego actúa ignorando totalmente ese hecho, reconoce que al menos dos tercios del efecto invernadero se deben al agua como gas. Un reciente estudio del GISS-NASA, muy alineado con las tesis del IPCC, afirma —eso sí, de pasada y sin darle luego la menor importancia— que el vapor de agua supone el 75 por 100 del efecto invernadero, y el dióxido de carbono el 20 por 100. Lindzen no estaba tan loco, después de todo...

Volvamos a la famosa Wikipedia, cuyas referencias al cambio climático suelen basarse de forma casi exclusiva en los informes del IPCC. En ese apartado, uno de sus párrafos iniciales afirma, como de pasada, que el vapor de agua es el más importante gas invernadero; pero a partir de esa frase nunca más vuelve sobre la cuestión, como si se hubiese olvidado de ella, y en cambio le dedica páginas y páginas al CO2, al que a partir de entonces ya considera como el más importante, casi el único, gas invernadero. Algo que puede leerse sólo unas líneas más abajo de la cita sobre el vapor de agua, lo cual resulta bastante chusco.

¿Por qué esta fijación con la Wikipedia? Porque la «Wiki» no es la Biblia, y todos sabemos que tiene muchas imperfecciones; pero hay que reconocer que es quizá el instrumento informativo más utilizado hoy en todo el mundo, y por toda clase de personas. Por eso lo citamos como ejemplo obvio de información sesgada, por decirlo suavemente.

¿Significa todo esto que los expertos le tienen, en cierto modo, «simpatía» al vapor de agua y prefieren al CO2 como blanco de sus iras?

Curiosamente, esta pregunta —obviamente irónica— podría muy bien ser respondida de forma afirmativa. Sí, los expertos literalmente ignoran el vapor de agua... Y por una razón bien sencilla: no saben prácticamente nada de él. Hasta el punto que otro importante experto, igual de escéptico y crítico con las tesis del IPCC que Lindzen, el francés Marcel Leroux (falleció en 2008), doctor en climatología, que fue director del Laboratorio de Clima, Riesgos y Medio Ambiente de la Universidad Jean Moulin de Lyon, llegó a escribir en 2005: «¡La atmósfera del IPCC no contiene agua!».

Sin embargo, los científicos del IPCC son grandes expertos y, además, son muy numerosos. No puede ser que no sepan algo tan básico... ¿Dónde está el quid de la cuestión? Probablemente lo que ocurre es que no hay ninguna verdad absoluta con la que sentirse cómodo, debido al general desconocimiento existente al respecto. Y eso es algo que pone nerviosos a los científicos, que prefieren centrarse en lo que creen conocer mejor. Y así, los que siguen la línea del IPCC subvaloran el efecto del vapor de agua porque opinan que es un mecanismo que más o menos se compensa por sí mismo y que, por otra parte, nada tiene que ver con la mano del hombre; o sea, que es completamente natural. Lo primero puede que sí y puede que no; en realidad, no se sabe. Pero lo segundo no es cierto: al quemar hidrocarburos se emite CO2 y H2O, puesto que las moléculas de esos combustibles contienen átomos de carbono y de hidrógeno. El hidrocarburo más simple es el metano, componente esencial del gas natural; quemar una molécula de metano (CH4) significa combinarla con dos moléculas de oxígeno (2O2) para obtener una molécula de CO2 y dos moléculas de vapor de agua (2H2O). Y como la proporción en los hidrocarburos es similar (para moléculas con n átomos de carbono siempre hay 2n+2 átomos de hidrógeno), resulta que se emiten siempre dos veces más moléculas de vapor de agua que de dióxido de carbono... ¿Quién dijo que el vapor de agua sólo era natural y la mano del hombre no le afectaba? El hidrógeno de los hidrocarburos es tan fósil como el carbono, y su emisión masiva en forma de vapor de agua, debida a la industrialización, no se diferencia en nada de las emisiones de carbono oxidado igualmente fósil.

Otros expertos opinan que el enorme desconocimiento que tenemos acerca del vapor de agua debería hacernos muy cautelosos en todo lo que respecta al CO2 porque su importancia, como gas invernadero, resulta ser después de todo muy inferior a la del vapor. Pero, a cambio, las políticas restrictivas del consumo de combustibles fósiles pueden ser excelentes si apuntan a una mayor eficiencia de los procesos industriales y a un ahorro que evite parte del desperdicio de recursos que inducen el desarrollo y la riqueza. Lo malo es que esas mismas políticas podrían perjudicar a los países en vías de desarrollo, y no digamos a los países más pobres, que quedarían condenados a «vender» sus cuotas de emisión de CO2 a los ricos para que éstos sigan desperdiciando energía y, finalmente, perpetuando su privilegiada situación en el mundo.

En todo caso, lo que ahora interesa analizar, hasta donde podamos, es el conjunto de las incógnitas que aún existen en torno al agua, en su forma gaseosa, líquida y sólida, porque las tres fases intervienen en el efecto invernadero: el vapor de forma directa, y el agua y el hielo de forma indirecta.

No es difícil de entender: según la temperatura y la presión de cada lugar o de cada nivel de altitud, el agua pasa bastante fácilmente de una fase a otra, y en ese proceso absorbe o emite energía en forma de calor. Las grandes zonas heladas reflejan eficazmente la radiación solar y tienden a perpetuar su frialdad. Las nubes, formadas bien por gotitas de agua líquida, bien por cristalitos de hielo a partir de cierta altitud, tienden a reducir la radiación solar cuando es de día pero por la noche evitan que el calor terrestre se vaya hacia el espacio. Por su parte, el agua oceánica se evapora y proporciona vapor de agua al aire, un vapor que se queda en fase gaseosa, pero que, eventualmente, puede condensarse en nubes o niebla. Como gas, ese vapor (de concentración muy variable en el tiempo y en el espacio, pues pasa de casi cero en los grandes desiertos cálidos y ultrasecos, a casi un 4 por 100 en las atmósferas tropicales al borde de la saturación) es un potente gas invernadero. Pero si se condensa en nubes o precipitación, la cosa ya depende de muchos factores no fáciles de medir, ni siquiera de ser estimados con una mínima aproximación.

¿Complicado? Desde luego; y mucho. Por eso los expertos parece como si no quisieran abordar un tema que les resulta incómodo, a pesar de su obvia importancia. No nos resistimos a reproducir de nuevo unas líneas de la Wikipedia, que sintetizan bien las afirmaciones del IPCC en torno al agua; hay que observar que la «Wiki» comete errores de concepto que el IPCC jamás cometería, como por ejemplo decir que el vapor de agua es la humedad y las nubes...

Se debe tener en cuenta que existe una cantidad importante de vapor de agua (humedad y nubes) en la atmósfera terrestre, y que el vapor de agua es un gas de efecto invernadero. Si la adición de CO2 a la atmósfera aumenta levemente la temperatura, se espera que más vapor de agua se evapore desde la superficie de los océanos. El vapor de agua así liberado a la atmósfera aumenta a su vez el efecto invernadero (el vapor de agua es un gas de invernadero más eficiente que el CO2). A este proceso se le conoce como retroalimentación de vapor de agua (water vapor feedback, en inglés). Esta retroalimentación es la causante de la mayor parte del calentamiento que los modelos de la atmósfera predicen que ocurrirá durante las próximas décadas. La cantidad de vapor de agua, así como su distribución vertical, son claves en el cálculo de esta retroalimentación. El papel de las nubes es también crítico. Las nubes tienen efectos contradictorios en el clima: enfrían la superficie reflejando la luz del Sol de nuevo al espacio, pero también se sabe que las noches claras de invierno tienden a ser más frías que las noches con el cielo cubierto. Esto se debe a que las nubes también devuelven algo de calor a la superficie de la Tierra. Si el CO2 cambia la cantidad y distribución de las nubes, esto podría tener efectos complejos y variados en el clima, ya que una mayor evaporación de los océanos contribuiría también a la formación de una mayor cantidad de nubes.

La última frase es muy ilustrativa: «efectos complejos y variados en el clima». Sí, pero ¿qué tipo de efectos? Ni idea, claro. Quizá por eso, a partir de ahí se olvidan de lo dicho y de la existencia del vapor de agua. Ojos que no ven...

Pero todo el mundo sabe que el vapor de agua es responsable de como mínimo los dos tercios del efecto invernadero. Además, lo ignoramos casi todo acerca de cómo se comporta el sistema hielo-agua-vapor a escala planetaria, por lo que a los climas y sus cambios respecta. Ante estos dos hechos que nadie ignora, ¿cómo es posible que se realicen predicciones apocalípticas en torno al cambio climático basándose tan sólo en el CO2 y dejando de lado cuestiones tan esenciales como éstas?

No es una pregunta retórica, sino que revela la profunda y casi escandalizada extrañeza de muchos expertos ante semejante muestra de petulancia científica, que podría muy bien resumirse así: «Ignoramos buena parte del problema, pero no obstante, teniendo en cuenta el resto que conocemos un poco mejor, tenemos que dar la voz de alarma ante los estragos del inevitable cambio climático destructor, etc.».

¿Ignorando buena parte del problema se puede llegar a algún tipo de certeza? Este tipo de discursos, que es lo que finalmente le llega a la ciudadanía no informada, suena en realidad muy desafinado; y, de hecho, bordea lo dogmático. Y eso es algo que los críticos, escépticos o como se les quiera llamar no dejan de señalar, a veces contundentemente y con escasa amabilidad hacia los expertos del IPCC. Porque la mayor parte de las cosas, por no decir todas, relacionadas con el vapor las ignoramos; y si se aventura alguna respuesta, es con una precisión mínima y, en todo caso, absolutamente insuficiente como para elaborar algún tipo de índice matemático susceptible de ser usado en modelos numéricos con un mínimo de fiabilidad.

Puesto que estamos tratando de lo mucho que ignoramos, veamos algunos ejemplos de este tipo de incógnitas:

¿Cuánto vapor de agua se mantiene, como gas, en la atmósfera en promedio?

No lo sabemos, ni siquiera se puede aventurar una cifra, debido a las constantes transformaciones del agua en sus tres fases, sólida, líquida y gaseosa...

¿Cuánto de ese vapor aumenta por las emisiones derivadas de las combustiones de hidrocarburos, incluso del carbón, en los que hay hidrógeno y no sólo carbono?

No lo sabemos, básicamente por la misma razón anterior...

¿Cuánto vapor de agua se convierte en nubes o niebla por condensación, si la atmósfera se calienta o se enfría, por alguna razón?

No lo sabemos, ni resulta probable que lleguemos a saberlo debido a la complejidad de todos esos procesos a escala global...

¿Actúa el vapor de agua igual en zonas terrestres muy ricas en ese gas, como las zonas cálidas tropicales, que en zonas muy pobres en ese gas, como los grandes desiertos cálidos o gélidos?

No lo sabemos, aunque se supone que debiera ser así, al menos localmente, pero quizá no lo sea si se considera la atmósfera en su conjunto...

¿Cuántas nubes hay de noche, que favorecen el calentamiento, o de día, que favorecen el enfriamiento?

No lo sabemos con un mínimo de precisión, pero se intuye que sumados todos los efectos, a más nubes menos calentamiento...

¿Actúan del mismo modo unas nubes que otras, en zonas tropicales o polares, y en niveles altos o en niveles bajos de la atmósfera?

No lo sabemos con un mínimo de precisión, aunque alguna idea se empieza a tener respecto a nubes altas y bajas. Su eficacia para reducir o aumentar el calentamiento no es obviamente la misma, pero no se puede cuantificar, ni siquiera estimar...

Y así podríamos seguir con unas cuantas preguntas más, cuyas posibles respuestas carecen de esa mínima precisión que las haría operativas. Lo que creemos saber es muy incompleto y de escaso valor analítico; o sea, de nulo interés predictivo. Veámoslo en un caso concreto, el del tipo de nubes que pueden favorecer más o menos el calentamiento.

Se ha llegado a determinar, sobre todo gracias a recientes medidas de satélites, que no todos los tipos de nubes actúan igual en su efecto de pantalla —de día— o de manta protectora —de noche—. Por ejemplo, las nubes altas formadas por cristales diminutos de hielo, los cirros, son más eficaces bloqueando la radiación infrarroja que emite la Tierra (básicamente por la noche) de lo que lo son durante el día bloqueando el paso de la radiación solar. Esas nubes altas favorecen, pues, el calentamiento. Todas las demás nubes, y especialmente las más abundantes, las de niveles medios y bajos, actúan de forma contraria; lo que significa que globalmente el conjunto de la nubes debería favorecer el enfriamiento. Pero todo esto es muy teórico e impreciso, porque diversos experimentos, muy locales y cuyos resultados deberían ser confirmados por muchos otros estudios, parecen mostrar que incluso cuando las nubes son muy similares, su efecto puede ser diferente según como sean, por ejemplo, las gotas que la forman: las gotas muy pequeñas parecen ejercer un mayor efecto reflectante de la energía solar que las gotas grandes; lo malo es que hay muchas nubes que tienen todos los tamaños...

Los cálculos teóricos sobre la importancia de las nubes respecto al cambio climático muestran que si las nubes de la Tierra fueran responsables, por ejemplo, del 20 por 100 de albedo terrestre total (es decir, aumentaran la reflectividad del planeta en un 20 por 100 respecto a un planeta sin nubes, lo que significaría que debido a las nubes el planeta brillaría ese 20 por 100 más), al disminuir ese efecto hasta quedarse en el 19 por 100, lo que no parece un cambio muy excesivo, la incidencia sobre la temperatura global de la Tierra sería del orden de un grado. Una variación mínima de las nubes equivale, pues, a lo mismo que doblar las concentraciones de CO2. De ser cierto, como apuntan esos cálculos, ¡sería un efecto asombroso!

Y lo malo es que la cobertura total de nubes en el planeta es sólo uno de los muchos efectos que el vapor de agua o las nubes ejercen sobre la atmósfera y sus climas. Porque no hay que olvidar que, aunque sólo estamos hablando de temperaturas y calentamiento, muchas nubes producen precipitaciones, lo que constituye quizá el parámetro del clima más trascendente en muchos lugares. Si hay más nubes porque el clima se calienta, y si hay más evaporación de los mares y más emisiones de vapor de agua por la combustión de hidrocarburos, ¿significa eso que lloverá más? Globalmente, sí; de eso caben pocas dudas. Pero quizá en algunas regiones llueva menos, y en otras muchísimo más de lo que ya llueve... Eso no lo sabemos.

Hay algo que sí sabemos, en cambio: la lluvia, como la temperatura, se reparte de manera muy desigual a lo largo y ancho del planeta. Y eso no tiene por qué cambiar, porque esa variabilidad es consustancial al planeta mismo. Lo que significa que, por mucho que se puedan predecir cambios climáticos más o menos intensos, de temperatura o de lluvia, esos promedios para todo el planeta valdrán luego muy poco cuando se apliquen a lo que realmente ocurre en cada sitio concreto. Porque de los promedios a la realidad en cada sitio siempre puede haber diferencias, a veces enormes, en más y en menos. Que se compensan para dar el promedio que se estima o calcula.

Se estima que si las nubes incrementan la reflectividad del planeta en un 15 por 100 por ejemplo, eso supone el bloqueo de una cantidad de radiación solar del orden de 50 vatios por metros cuadrado (W/m2). Pero la retención de infrarrojos de esa nubosidad supone globalmente una especie de ganancia, que se estima que es del orden de 30 W/m2. Saldo negativo en este caso: 20 W/m2. O sea, que las nubes frenan el efecto invernadero; y a más nubes, menos calentamiento.

Quizá sea éste un mecanismo compensatorio que explique la existencia en el pasado de una alternancia de climas cálidos y climas fríos. Pero la enorme variabilidad de la presencia de nubes, la diferente acción de los diversos tipos de nubosidad, y otros aspectos que tienen que ver con la física de nubes, hacen que en conjunto todo esto sea bastante discutible; es decir, esté rodeado, una vez más, de demasiada incertidumbre. Hay muchos modelos matemáticos que incluso estiman que la incidencia enfriadora de las nubes es muy superior a esos 20 W/m2.

Y queda el problema de la realimentación de la radiación, un mecanismo importante en todas las nubes (el vapor de agua que se condensa o evapora, recuérdese, intercambia con el aire una importante cantidad de energía en forma de calor latente), pero de especial relevancia en las nubes extratropicales, sobre todo, las de las zonas polares.

No nos resistimos una vez más a citar literalmente el informe del IPCC cuando se refiere a las nubes y los modelos: «En muchos modelos climáticos los detalles en la representación de las nubes pueden afectar sustancialmente a las estimaciones sobre sus mecanismos de realimentación y su sensitividad... Las diferencias en las estimaciones de los diversos modelos actuales surgen esencialmente de enfoques diversos sobre los mecanismos de realimentación de las nubes. Dichos mecanismos permanecen como una fuente mayor de incertidumbre en las estimaciones acerca de la sensitividad climática».

En otras palabras: ni idea. Y cada modelo estima una cosa u otra, aunque la mayoría indica que un aumento de la nubosidad supone una retroalimentación negativa, es decir, un enfriamiento, sin que eso tenga demasiado significado real, es casi una mera suposición a falta de algo mejor. Por tanto, el resultado final es una incertidumbre más que notable al respecto. Y esto es algo que afirma el IPCC respecto al más importante de los gases invernadero. ¿Cómo puede, entonces, publicar los resultados de unos modelos de predicción como si fueran poco menos que oráculos infalibles y, por cierto, siempre catastróficos, sin mostrar algo más de prudencia debido a eso que ellos mismos llaman «una fuente mayor de incertidumbre»...?

Hay bastantes más cosas que señalar entre todo lo que ignoramos acerca del agua en la atmósfera. Por ejemplo, la influencia de la «capa límite», que es la zona del aire junto al suelo en la que los parámetros atmosféricos —sobre todo el viento— son perturbados por las irregularidades del terreno, y hasta una determinada altura en la que esa perturbación ya no es perceptible. Como es fácil imaginar, dicha capa límite en la atmósfera terrestre presenta una casi infinita variabilidad: no es muy ancha sobre un mar en calma, es más elevada si el mar tiene grandes olas, puede ser de poco espesor en una llanura de suelo uniforme y por la noche, y ser más extensa con el calentamiento diurno, puede llegar a ser muy extensa sobre un suelo lleno de irregularidades tanto de pequeño tamaño —rocas, vegetación— como de gran tamaño —relieve irregular, por ejemplo—, y así sucesivamente...

Referirse, como suelen hacer los modelos, a «la» capa límite de la atmósfera como un ente único es, por tanto, una abstracción extrema, una simplificación excesiva aunque quizá necesaria para poder integrarla en los modelos del clima. ¿Cuál es la importancia de esa capa límite? Parece obvio: los intercambios energéticos entre la superficie del planeta y el aire que gravita sobre ella se hacen precisamente a través de dicha capa límite... Su papel de interfaz le otorga la máxima importancia en el estudio de las interacciones tierra-agua-aire. Bien; pues dicho esto, añadiremos que no tenemos mucha idea de cómo se comportan, en esa capa límite, el vapor de agua y el agua ya condensada como niebla o nube baja; lo cual resulta muy importante en las regiones ecuatoriales y tropicales.

Además de la humedad del aire, que a su vez depende de la temperatura para alcanzar la saturación y comenzar a formar una nube, otros factores condicionan la mucha o poca nubosidad. Por ejemplo, la presencia o no de numerosos núcleos higroscópicos de condensación que, como ya vimos, constituyen los soportes materiales casi sobre los cuales comienza a depositarse el agua líquida al alcanzar la humedad su punto de rocío (saturación). Suelen ser de origen natural —por ejemplo, cristalitos de sal o partículas de polvo—, pero también se originan en el aire muy contaminado de las zonas industrializadas o fuertemente pobladas. Por esta razón, curiosamente un aire «sucio» es más propenso a generar nieblas y nubes que un aire diáfano; una suciedad del aire que aumenta su turbidez y, por tanto, reduce la insolación. O sea que la contaminación, y especialmente los aerosoles de sulfatos y otros productos tóxicos, podría ser un buen aliado para contrarrestar el calentamiento. Paradojas de la física atmosférica...

No disponemos de buenos estudios sobre nubosidad total, y los pocos que existen se basan en datos de satélites, o sea, abarcan períodos de tiempo bastante recientes. Un proyecto científico internacional llamado Satellite Cloud Climatology (Climatología de las nubes por Satélite, ISCCP por sus siglas inglesas) parece indicar que entre 1987, cuando se inició la recogida de datos, y 2001 la nubosidad global disminuyó en torno a un 4 por 100, para volver a aumentar ligeramente a partir de 2001 y estancarse después.

Mostramos a continuación el gráfico obtenido desde mediados de 1983 hasta mediados de 2008; el promedio de la nubosidad en esos 25 años (un período quizá muy breve como para obtener conclusiones climatológicas) es del 66 por 100, muy similar al que se estimaba anteriormente. ¿Quiere esto decir que a plazo medio —varios decenios— la cobertura nubosa del planeta no varía apenas en promedio? La verdad es que esto tampoco lo sabemos porque carecemos de datos suficientemente fiables que tengan una antigüedad mayor que la de esta gráfica.

Quizá los datos que muestra la gráfica sean de poca «calidad», es decir, tengan un mayor margen de incertidumbre que la variación que pretenden medir.

Quizá no conocemos bien el proceso por el cual un calentamiento de la atmósfera pudiera influir, y de qué modo, en la nubosidad global.

Quizá el calentamiento global no sea tal, es decir, afecte mucho a unas regiones y muy poco o nada a otras, lo que no haría variar mucho la nubosidad global al promediarla a escala planetaria (aunque mostrara luego notables variaciones a escala regional).

Sencillamente, no lo sabemos.

Criosfera

Pero el ciclo del agua no se termina en el agua líquida, con su permanente ciclo de evaporación, condensación e incluso precipitación. Porque en las zonas más frías del planeta —alta atmósfera, regiones polares, cumbres montañosas, inviernos fríos...— el agua también se congela. Esa criosfera, como solían decir los libros de geografía, también es muy variable ya que el agua se hiela y se deshiela en función de diversos parámetros meteorológicos y estacionales; es más, existe la transformación, generalmente en menor cuantía, que hace pasar directamente el vapor a hielo, y viceversa (sublimación).

La importancia de los hielos del planeta es considerable por múltiples motivos, y destaca entre ellos su influencia en los climas terrestres; no sólo en las regiones situadas en sus proximidades sino incluso en las más alejadas. Es obvio que el agua helada —en las zonas polares, en los glaciares de alta montaña, en las nubes más altas— constituye una porción no desdeñable del conjunto de la hidrosfera del planeta, y su mayor o menor cuantía supone un aumento o disminución del agua líquida o gaseosa que queda en los mares y en el aire.

Al margen de las fluctuaciones estacionales antes aludidas, la pregunta esencial que hoy en día más preocupa sería la siguiente: en promedio, ¿está aumentando o disminuyendo la cantidad de hielo existente en el planeta? No es una pregunta ociosa, ni siquiera si aceptamos la tesis —sumamente razonable— según la cual las temperaturas suben en promedio desde que terminó la Pequeña Edad del Hielo. Porque pudiera ser que, a pesar de esa subida térmica generalizada, ésta no afectara a las zonas heladas, especialmente a la Antártida, que acumula más del 90 por 100 del hielo planetario. También podría ocurrir que, como muestran numerosos datos históricos, los glaciares de las más altas montañas estuviesen retrocediendo y, por tanto, perdiendo hielo, y que eso mismo estuviese ocurriendo en los casquetes polares, sobre todo en las zonas de sus bordes más alejados de ambos polos, que son las más sensibles a las fluctuaciones térmicas. Pero quizá, a causa de una mayor evaporación del agua del mar por el calentamiento, pudieran estar produciéndose ahora más precipitaciones en el interior tanto de Groenlandia como, sobre todo, del seco continente antártico, lo que daría lugar a una mayor acumulación de nieve, y por tanto de hielo (en pleno verano, las regiones interiores de Groenlandia y, desde luego, todo el continente antártico siguen estando a muchos grados bajo cero). Quizá eso compensara en todo o en parte la disminución de los hielos flotantes y de los glaciares continentales... Pero no lo sabemos. Apenas conocemos lo que ocurre con los hielos flotantes que rodean a los polos, cuya fluctuación anual invierno-verano muestra una clara disminución (sobre todo en verano) en los últimos treinta años en el océano Glacial Ártico, pero se mantiene estable en el Antártico.

Si las tierras emergidas suponen poco más del 30 por 100 de la superficie terrestre, si descontamos la Antártida y Groenlandia, eso significa que los continentes sin hielo, en los que vivimos la inmensa mayoría de los humanos, sólo se extienden sobre apenas un 25 por 100 de la superficie terrestre total. En cuanto al hielo marino flotante, cubre en promedio en torno al 7 por 100 del total de los océanos (casi un 5 por 100 del total de la superficie terrestre).

Pues aún hay más. En pleno invierno, la mitad del hemisferio norte está cubierta de nieve o hielo. El brillo y el color blanco de las superficies heladas reflejan casi el 90 por 100 de la radiación solar incidente, mientras que los océanos y la tierra sin hielo apenas reflejan entre un 10 y un 20 por 100. Si una buena parte de esa superficie helada desaparece en verano, eso supone una enorme incidencia en el balance de radiación solar que llega a las capas bajas de la atmósfera y al suelo. Es fácil deducir la importancia que han de tener los cambios estacionales, o hiperanuales, en esas superficies cubiertas de nieve y hielo...

Lamentablemente, carecemos, una vez más, de datos con suficiente antigüedad acerca de la extensión global de los hielos en el planeta Tierra en los últimos siglos. De hecho, sólo desde hace dos o tres decenios tenemos medidas por satélite; también tenemos alguna vaga idea, por datos indirectos muy imprecisos, acerca de la criosfera durante el último siglo. Pero antes de eso sólo disponemos de datos históricos muy aislados y demasiado vagos.

Con todas estas limitaciones y, por tanto, con un más que notable margen de incertidumbre —una vez más—, lo que creemos saber es que, globalmente, el hielo ártico está disminuyendo en el último siglo (pero no sabemos bien si en períodos antiguos fue más o menos extenso que ahora) y que el hielo antártico no sólo no disminuye, sino que incluso podría estar aumentando. En cuanto a los glaciares de alta montaña situados en zonas no polares, también creemos saber que, al menos en el último siglo, se está produciendo una disminución del hielo existente, a un ritmo difícil de precisar pero probablemente rápido.

La pérdida de masa de estos glaciares se ha podido estimar recientemente, con escasa precisión, y el IPCC estima que es responsable de una elevación del nivel del mar de 5 milímetros por decenio a partir de 1961 y de hasta 10 entre 1991 y 2000. O sea que, por esta causa, en el último medio siglo, el nivel medio del mar habría subido unos 35 mm... ¡3,5 centímetros en medio siglo por el deshielo de los glaciares! Contando con el error relativo de semejantes estimaciones, eso es lo mismo que decir que no sabe en absoluto lo que ha ocurrido. Pero todo el mundo cree saber ya que el nivel del mar sube espectacularmente por la fusión de los glaciares de las montañas.

Sobre esto de la subida del nivel de mar caben muchas reservas, a pesar de la contundencia con la que se aportan unos datos globales que, como vemos, se estiman en... ¡milímetros por decenio! Una simple reflexión crítica nos lleva a preguntas que, al parecer, al IPCC no parecen preocuparle demasiado. Por ejemplo, ¿cómo es posible medir el incremento del nivel del mar, de todos los mares existentes en el planeta, con tan increíble precisión? O bien, ¿cómo es posible estimar con esa precisión de décimas de milímetro por año la influencia de deshielo de los glaciares?

En tiempos recientes disponemos de datos tomados por los satélites, pero su antigüedad es poca y la precisión no es muy satisfactoria. Y antes de eso, para medir el nivel del mar teníamos, y seguimos teniendo, las boyas medidoras de la altura del nivel del mar, generalmente en muy pocas localizaciones de determinadas zonas costeras o portuarias. Sabiendo la enorme imprecisión de esos instrumentos flotadores frente a la dinámica marina costera (oleaje, mareas), resulta difícil de creer que seamos capaces de extrapolar datos fidedignos de la altura media de los océanos expresada en milímetros, incluso décimas de milímetro, por año.

Por cierto, el Mediterráneo tiene su propio comportamiento, más bien errático, en cuanto al nivel medio de sus aguas. Y ello a pesar de encontrarse en una de las zonas del mundo en las que se estima que más influencia podría tener el cambio climático. De hecho, los estudios realizados parecen indicar que este mar interior, conectado con el Atlántico por el estrecho de Gibraltar, se ha calentado entre 1948 y 2006 (58 años) entre 0,1 y 0,5 grados; el margen entre ambas cifras dice bien a las claras cuál es la incertidumbre de esos datos. Pero eso no ha supuesto una elevación del nivel del mar: por lo que sabemos, y siempre con las mismas reservas ya apuntadas, el nivel medio del Mare Nostrum ha aumentado y ha disminuido —por razones que nadie entiende muy bien— a lo largo de los últimos decenios, siempre al margen de lo que dicen del nivel global de los mares el IPCC y otros organismos. El Instituto Español de Oceanografía estima que a lo largo del siglo XX el Mediterráneo puede haber aumentado de nivel unos 20 centímetros, con un margen de al menos un tercio en más o en menos. Eso supone unos 2 milímetros por año; ¿cómo pueden saberlo con esa precisión y para el conjunto del Mediterráneo?

Además, dicho incremento es seguro que se habrá producido de forma sumamente irregular según las distintas cuencas de nuestro Mare Nostrum. Por otra parte, la tendencia a lo largo del último siglo no ha sido lineal: hubo un descenso generalizado bastante sorprendente entre 1950 y 1990, que se suele atribuir a variaciones de la presión atmosférica y quizá a otros fenómenos insuficientemente conocidos. Por cierto, entre 1948 y 1970 las aguas mediterráneas se enfriaron, aunque el descenso del nivel medio perduró hasta 1990... Bien, si conocemos así de mal un mar interior bien estudiado como el Mediterráneo, aún conocemos peor lo que puede haber ocurrido en otros mares de mayor tamaño. Lo dicho: desconocimiento considerable.

Otro aspecto preocupante relacionado con el hielo, o más bien en este caso con la tierra helada, lo constituye el llamado permafrost, la capa de terreno helado de las zonas más frías del planeta no situadas en zonas polares. Al aumentar el período de tiempo a lo largo del año durante el cual esa tierra dura se deshiela, puede aumentar también el flujo de agua de escorrentía, o de agua que pudiera quedarse más o menos estancada, e incluso se puede eventualmente liberar metano, que es un potente gas invernadero, al deshelarse las zonas pantanosas que lo almacenaban en su fondo. Aunque no se tienen datos precisos al respecto, porque se trata de un fenómeno sumamente variable que cambia de año en año, los expertos creen —y el IPCC lo afirma otorgándole escaso margen de incertidumbre— que el incremento de temperatura en las grandes extensiones de permafrost de las zonas más frías de Alaska y de Canadá, de las áreas más elevadas de la enorme meseta del Tíbet y de la mayor parte del norte de Siberia, ha sido a partir de finales de los años setenta del orden de tres grados, y que eso ha hecho disminuir en promedio la base helada de esos terrenos hasta en 4 centímetros por año en Alaska, y de 1 a 2 centímetros por año en el Tíbet. De Siberia existen pocos datos, y algunos de ellos bastante contradictorios...

Con todas las cautelas posibles, pues, se puede estimar que el área de terreno helado (permafrost) ha disminuido en los últimos treinta años en el hemisferio norte en entre un 5-7 por 100, y que su profundidad disminuyó entre 10 y 30 centímetros en promedio durante ese período. Pero existe, una vez más, un más que notable margen de incertidumbre.

Y nos queda lo más importante, cuantitativamente. Aun sumando todo el hielo flotante en el mar, más el de los glaciares, el de los lagos y lagunas en deshielo, y el que contiene el permafrost, eso sólo supone entre un 2 y un 4 por 100 del hielo total de la Tierra. El resto está en el hielo continental de la Antártida y de Groenlandia, que acumulan en torno al 96 por 100 de toda la criosfera terrestre. La importancia de lo que allí ocurre resulta, pues, fundamental a la hora de saber si el cambio climático afecta mucho, poco o nada a los hielos del planeta, y viceversa.

Pero, claro, como era de temer, tampoco disponemos de datos precisos, ni con la antigüedad y abundancia necesarias, acerca del pasado reciente de estos enormes mantos de hielo. Ni siquiera hoy, a pesar del enorme avance que han supuesto los satélites para la observación de los recursos terrestres, tenemos datos suficientemente precisos o fiables; y, en todo caso, los que tenemos son demasiado recientes.

El IPCC dice al respecto:

Las observaciones no precisan bien si el manto de hielo crece o decrece durante escalas de tiempo mayores a los 10 años. La ausencia de consenso entre las técnicas y la escasez de cálculos evitan mejorar el cálculo o los límites de errores más rigurosos estadísticamente para conocer los cambios en el equilibrio de la masa del manto de hielo... Y las incertidumbres crecen en los períodos de tiempo anteriores...

Y afirma unas líneas después:

El nivel estimado de equilibrio de la masa del manto de hielo de Groenlandia en el período 1961 a 2003 va desde un crecimiento de 25 gigatoneladas/año a una reducción de 60 gigatoneladas/año.

Es decir, no podemos saberlo; pero aun así decimos que la incertidumbre va desde un aumento de hielo hasta una disminución, ésta mayor que el posible aumento. Deducción lógica en toda la prensa del mundo entero: la ciencia ha establecido que el hielo de Groenlandia está disminuyendo muy deprisa. ¿Es eso consenso científico?

De la Antártida, no obstante agrupar casi el 90 por 100 de todo el hielo del planeta, se dice aún menos, aunque sí reconocen que las medidas son insuficientes y con enorme margen de incertidumbre, tanto que va desde un aumento de 100 gigatoneladas al año, hasta una disminución de 200 gigatoneladas/año. Lo que no explican los resúmenes del IPCC —pero sí aparecen en los trabajos de investigación que arrojan esas cifras— son la extrema escasez de los datos y la exigua distribución de las estaciones de medida (casi todas costeras y la mayoría de ellas en la península Antártica, que es el único lugar de todo el continente en el que parece que sí aumentaron las temperaturas y el deshielo).

Conviene recordar que, salvo la península Antártica y su entorno —que apenas suponen un 10 por 100 de todo el continente—, el resto de la Antártida tiene una temperatura media anual del orden de 37 ºC bajo cero. O sea, que incluso los días más cálidos tienen máximas bajo cero, y las tendrían incluso con un calentamiento superior al previsto.

Respecto a los hielos flotantes, incluidos los icebergs desgajados de tierra firme, ocupa prácticamente todo el océano Glacial Ártico, incluido el entorno de Groenlandia. Y en las costas de la Antártida avanza o retrocede en invierno o verano. No está de más recordar que la disminución del hielo flotante que se constata en la zona polar ártica no influye para nada en el nivel del mar; simplemente, por el principio de Arquímedes...

En la zona ártica, las medidas por satélite, sólo disponibles desde 1978, muestran una disminución global del hielo en torno al 2,5 por 100 por decenio (un 8 por 100 a inicios de 2012). En la zona antártica, y a pesar de la espectacularidad del desgajamiento de los grandes icebergs y campos de hielo flotante de los últimos años, los datos por satélite muestran una enorme variabilidad, sin tendencia apreciable.

Mostramos a continuación tres gráficos tomados del Cuarto informe del IPCC de 2007; por esa razón, sólo incluyen datos hasta 2005, y sólo desde 1979. Lástima no poder disponer de ese mismo gráfico para períodos climatológicos (los 27 años de estos esquemas son insuficientes, aunque indican una tendencia obvia en ese período).

A simple vista se aprecia cómo en los dos primeros gráficos existe una muy clara disminución tanto de la extensión mínima del hielo flotante ártico como de la extensión media. En cambio, el gráfico que se refiere a ese mismo hielo flotante antártico muestra cómo esas anomalías respecto a la media del período considerado, al contrario de lo que sucede en el Ártico, fluctúan en torno a dicha medida con un leve incremento global en el período. Hubo una tendencia leve a la disminución durante los primeros doce años del período, y luego una subida igualmente leve a partir de 1991.

¿Qué indican estos gráficos? Desde el punto de vista del clima y sus posibles fluctuaciones, no mucho; y no deberían haber sido incluidos en ese Cuarto informe del IPCC puesto que no se trata de un cambio climático por tratarse de períodos temporales muy breves; si acaso, serán fluctuaciones meteorológicas que pueden tener a la larga algún sentido climatológico... o no.

Con todo, si el IPCC, y tras él toda la prensa del mundo entero, insiste en el deshielo progresivo y acelerado del Ártico, en cambio nadie dice nada acerca del hielo antártico flotante. La conclusión es igual de válida, o de inválida, en los dos casos, pero se deja siempre suponer que lo que ocurre en el océano Ártico es válido igualmente para el resto de la criosfera. La objetividad científica brilla, una vez más, por su ausencia.

4.2.2.4. Sol y rayos cósmicos

El Sol es el responsable último de la termodinámica atmosférica. Su energía, que se acumula e intercambia en el suelo, las aguas y el aire, es la responsable del funcionamiento de la maquinaria de la temperie y los climas. De ahí la importancia de sus variaciones, tanto en su origen estelar como en la forma en que la recibe el planeta.

Con todo, en plazos relativamente cortos de tiempo, esas variaciones periódicas de la energía que emite el Sol —por ejemplo, el ciclo undecenal de máxima y mínima actividad— afectan, al menos de forma directa, en muy escasa cuantía al mecanismo atmosférico global. El paralelismo que observó Maunder entre la escasa actividad solar durante casi todo el siglo XVII y la época más fría de la Pequeña Edad del Hielo no es aceptado del todo por los expertos actuales, que siguen pensando que aun en esos períodos de muy escasa actividad, la radiación solar disminuye realmente muy poco. Tan poco que no debería afectar a los climas.

Veamos qué es exactamente esa energía que procede del Sol y por qué varía. Como es sabido, las estrellas son gigantescas explosiones termonucleares en las que se fusionan elementos ligeros —inicialmente, sólo hidrógeno y algo de helio— para formar elementos más pesados. Esa reacción de fusión a millones de grados produce, en el seno de la estrella, una enorme emisión de energía bajo múltiples formas: radiación electromagnética en forma de luz (espectro visible) y calor (infrarrojos), además de ultravioletas y otras frecuencias en muy inferior cuantía, y también partículas energéticas muy variadas, cargadas eléctricamente o no. Las partículas y radiaciones electromagnéticas más energéticas suelen llegar muy lejos y suelen ser agrupadas bajo la apelación genérica de «viento estelar» —en el caso del Sol, obviamente, viento solar—, que naturalmente nada tiene que ver con el viento que conocemos en la atmósfera terrestre.

A nuestro planeta le afectan dos tipos de vientos estelares: el de la estrella que tenemos cerca, el viento solar, y el conjunto de las radiaciones que proceden de las estrellas que nos rodean y que nos llegan mezclados y, por supuesto, de forma más debilitada. Solemos llamarlo viento galáctico, porque esas estrellas son habitantes, como el Sol, de nuestra galaxia, la Vía Láctea.

La interacción del viento solar con el viento galáctico —cuyo principal componente son los rayos cósmicos, formados por protones y radiación electromagnética de enorme energía— interesa mucho a los astrofísicos porque modula en cierto modo la forma en que la radiación global llega al planeta Tierra. Si el viento solar por alguna razón disminuye, eso significa que el viento galáctico actúa algo más intensamente, y viceversa. Conviene decir que la radiación de alta frecuencia, venga de donde venga, que llega a nuestro planeta es canalizada, afortunadamente, por el campo magnético terrestre, por lo que no afecta, o muy poco, a los seres vivos que estamos, además, bajo ese paraguas protector de la atmósfera, cuyas capas superiores ionizadas —la ionosfera— también sirven en cierto modo de parachoques para esa radiación que podría ser letal.

El viento galáctico varía de intensidad, lo mismo que el viento solar: el Sol y sus planetas giran en torno al centro de la galaxia (a cientos de miles de kilómetros por hora), y en ese viaje pueden encontrar zonas de mayor densidad de viento galáctico. Por ejemplo, la NASA descubrió en 2009 que el Sistema Solar entró en una densa nube de viento galáctico de la que no saldrá hasta mediados de este siglo, alterando los rayos cósmicos que pudieran afectarnos.

Quizá uno de los primeros en defender que la actividad solar pudiera influir sobre los climas de manera indirecta fue el danés Henrik Svensmark, experto en física solar y clima y actual director del Instituto Danés para Investigaciones Espaciales. Él y sus colaboradores pensaban haber obtenido pruebas indirectas pero sugestivas acerca de ciertos filtros por parte de la ionosfera hacia la radiación externa (solar y galáctica) incidente, de modo que acabaran aumentando o no los núcleos de condensación en la alta atmósfera y, por tanto, la formación de nubes. En suma, la atmósfera modularía la radiación solar y cósmica produciendo aumento o disminución de la nubosidad global. Suena bastante complicado, pero no imposible...

Otros estudios posteriores criticaron, a favor y en contra, ese trabajo, lo que es normal en ciencia. Pero los daneses no se conformaron con analizar estadísticamente una información no muy completa y llena de incertidumbres —los datos de satélites respecto a la nubosidad global son bastante recientes, y de fechas anteriores sólo tenemos datos muy dispersos e incompletos—, sino que intentaron probar experimentalmente la bondad de aquella teoría. Y ya en 2007 publicó Svensmark otro trabajo con los resultados de diversos experimentos que parecían demostrar que esa correlación no sólo era posible sino que existía una probable relación de causa-efecto.

De todos modos, son teorías que revisten cierto interés pero que requieren aún más estudios para ser aceptables, y aceptadas; ni siquiera se ha podido establecer con claridad esa posible relación entre el aumento de la radiación cósmica (por disminución de la actividad solar) y la aparición de nubosidad creciente.

Pero, sorprendentemente, las críticas del IPCC y su entorno fueron literalmente furibundas, como si la sola mención de una explicación de ese tipo —sólo posible, quizá ni siquiera muy probable— exigiera poner toda la carne en el asador de la batalla contra estos... ¿supuestos herejes? En muchos blogs pro IPCC se ridiculizó al científico danés, se le atacó personalmente, se miró con lupa cada una de sus frases... Claro que en otros blogs anti-IPCC hacen lo mismo con muchos estudios que se dan por buenos, aunque a lo mejor sean criticables por unas u otras razones. Nada de esto tiene que ver con la ciencia, por lo que sólo aludimos a ello de pasada, como prueba obvia de que todos los miembros de nuestra especie, científicos incluidos, compartimos una debilidad muy humana: el orgullo del «sostenella y no enmendalla». Y no es la primera vez que aludimos a este tipo de conductas...

De todos modos, la relación entre la actividad solar y los climas parecía obvia desde hacía tiempo: que el Sol influye sobre el tiempo es algo evidente... Parecería, pues, que cualquier cambio directo o indirecto, incluso pequeño, en la energía que nos llega del astro tendría a su vez que influir en algún tipo de cambio en los climas. Quizá por esa razón el astrónomo británico Edward Maunder (1851-1928) —experto en el planeta Marte y muy escéptico respecto a los famosos «canales» que los de su época consideraban como signo seguro de vida inteligente— también se dedicó a estudiar el Sol y sus manchas aparentes, buscando algún tipo de conexión con los climas de la Tierra.

Lo que vemos desde la Tierra como «manchas» son en realidad zonas en las que la superficie del Sol es algo menos cálida que el resto, y por eso se ven un poco más oscuras. En esas regiones —que pueden ser enormes, incluso del tamaño de nuestro planeta, si no mayores— aparece una intensa actividad magnética y se producen erupciones de plasma incandescente que es lanzado a distancias enormes. Las primeras observaciones sistemáticas de esas manchas datan de comienzos del siglo XVII, y en estos más de cuatro siglos hemos ido aprendiendo mucho sobre la física solar. Por ejemplo, que las manchas aparecen, crecen, cambian de forma y desaparecen; o que su duración media es de una a dos rotaciones solares, aproximadamente de uno a dos meses (nuestra estrella gira sobre sí misma en unos 27 días); o que suelen ir por pares, donde cada una tiene distinta polaridad magnética.

El primero que observó el retorno cíclico de las manchas en el Sol cada once años más o menos fue el astrónomo alemán Samuel Heinrich Schwabe (1789-1875), quien se había molestado en contarlas personalmente casi día a día durante unos 17 años, en la primera mitad del siglo XIX. Luego, a partir de 1848, otro astrónomo, el suizo Johann Rudolf Wolf (1816-1893), confirmó lo que Schwabe había descubierto, e ideó lo que hoy conocemos como número de Wolf (homogeneizar los datos de manchas sueltas y grupos de manchas). Identificó el mínimo de manchas del siglo XVII y otro anterior, entre finales del siglo XIII y el siglo XIV, hoy conocido como Mínimo de Wolf.

Por su parte, el astrónomo alemán Friedrich Gustav Spörer (1822-1895) identificó el período sin manchas solares del siglo XVII como una anomalía, verificando que en ese siglo sólo hubo dos máximos muy débiles, separados por unos 30 años (faltaron a la cita tres ciclos undecenales), y luego una casi total inexistencia de manchas solares entre 1640 y 1715 (faltaron 6 o 7 ciclos). En realidad, eso no significa que la actividad solar se interrumpiera, como es lógico; las que faltaron a su cita fueron las manchas... Spörer también identificó otra época con muy escaso número de manchas solares, entre los siglos XV y XVI; hoy se conoce como Mínimo de Spörer.

En cambio, el mínimo de manchas del siglo XVII, el más conocido, se llama Mínimo de Maunder porque fue él quien lo correlacionó con el enfriamiento de los climas. Por eso muchos científicos asimilan el progresivo enfriamiento entre el Óptimo Medieval y la Pequeña Edad del Hielo a esos tres ciclos anómalos: los mínimos de Wolf (1280 a 1340), Spörer (1415 a 1535) y Maunder (1640 a 1715). La figura siguiente resume la evolución del número medio de manchas solares año a año, en los últimos cuatro siglos, desde el año 1610. En los máximos pueden darse entre 150 y 200 manchas anuales; en los mínimos puede incluso no haber ninguna...

¿Qué concluir? El tema de las manchas solares y los climas no es evidente y, en todo caso, conocemos mal cómo se comporta el Sol y, sobre todo, cómo lo hacía muchos siglos atrás. Los ciclos que hoy conocemos son varios; ante todo el famoso ciclo de once años, hoy llamado ciclo de Schwabe en honor a su descubridor. Le acompaña el ciclo de Hale —por el astrónomo estadounidense George Ellery Hale (1868-1938)—, bastante fácil de identificar también mediante los registros de las manchas solares porque dura exactamente el doble (es la suma de dos ciclos undecenales). Cada dos ciclos de Schwabe el campo magnético del Sol se invierte; y la suma de ambos forma un ciclo de Hale.

Otros ciclos solares de período más largo no se detectan por las manchas solares sino que han sido puestos de manifiesto mediante otros sistemas de medida. Por ejemplo, el ciclo de Gleissberg, que dura unos 87 años de media; se le llama así en honor de su descubridor, el alemán Wolfgang Gleissberg (1901-1986). Tuvo máximos de emisión de protones de alta energía en 1560, 1610, 1710, 1790, 1870 y 1950.

Otro ciclo mayor es el de Suess (o ciclo de DeVries; ambos son astrofísicos contemporáneos expertos en datación por carbono y berilio radiactivos). Dura unos 200 años y se piensa que los mínimos de Wolf (1280 a 1340), Spörer (1415 a 1535) y Maunder (1640 a 1715) pertenecen a un mínimo más amplio de este ciclo de Suess-DeVries.

El ciclo 24 (los ciclos de Schwabe se numeran desde el siglo XVIII), que ya empezó con retraso, parece que va a ser aún más breve y mucho menos activo de lo que se preveía.

Parece que el siglo XX ha mostrado una actividad muy alta del Sol: algunos trabajos recientes apuntan a que pudiera haber sido la máxima habida en los últimos 8.000 años. Pero, curiosamente, en 2013 y tras un mínimo undecenal sin casi manchas en 2008-2009, todo apunta a que el actual ciclo 24 de Schwabe va a ser muy poco activo, aun menos de lo previsto, y que ésa va a ser quizá la tónica de los ciclos siguientes.

A muy largo plazo también se ha puesto de manifiesto un ciclo de actividad variable del Sol, con un período de milenios: es el ciclo de Hallstatt, que dura en promedio unos dos milenios y medio; ahora estaríamos terminando un máximo para iniciar un descenso hacia el mínimo, quizá dentro de un milenio. Pero es un ciclo muy irregular y lo conocemos muy mal...

¿En qué puede ayudarnos el conocimiento de tan diversos ciclos solares para realizar algún tipo de predicción climática, a medio o largo plazo? Y, entrando de lleno en el problema actual del cambio climático y del incremento del efecto invernadero, ¿cuál podría ser la importancia real del Sol y sus fluctuaciones? La respuesta más común es, como veíamos, que dicha influencia debería ser extremadamente débil, si fuera sólo directa. Quizá sea un factor que adquiera cierta importancia en los cambios de clima a muy largo plazo, por débil que sea su incidencia; pero lo cierto es que nadie sabe muy bien cómo estimarla para poder incluirlo en los modelos numéricos de predicción del clima. El problema reside en la escasa variación de la radiación durante los mínimos y máximos de los diversos ciclos. Un buen ejemplo es el del ciclo undecenal de Schwabe. La diferencia de intensidad entre un máximo y un mínimo es de sólo un 0,2 por 100 (entre 1.365 y 1.367,5 vatios/m2). Muy poca cosa como para explicar un cambio climático generalizado.

Pero si el efecto fuera indirecto, bien por el mecanismo sugerido por Svensmark o por cualquiera otra causa, la cosa sería bastante diferente. En general, en esto de las variaciones de la energía solar se suelen considerar tres mecanismos que podrían afectar a los climas de la Tierra. Ante todo, el forzamiento radiativo directo, o sea, las variaciones en valor absoluto. Ya hemos visto que es del orden del 0,2 por 100. Luego, las variaciones en el componente ultravioleta de la radiación, algo que varía mucho más que la radiación solar total y que quizá influya en la capa de ozono o en las nubes muy altas, o mediante mecanismos mal comprendidos aún. Y en tercer lugar, por las variaciones en los rayos cósmicos, afectados en mayor o menor medida por la batalla constante entre el viento solar y el viento galáctico, tal y como preconizan los trabajos de Svensmark y otros científicos daneses.

Demasiadas incertidumbres, pues, incluso contando con los todavía escasos datos tomados por satélite, bastante recientes como para poder ser interpretados en clave climatológica. ¿Y antes de tener satélites? No lo sabemos bien, porque se recurre a estimaciones indirectas y muy poco precisas.

En estos últimos tiempos han surgido nuevos estudios que aportan alguna pista acerca de cómo pequeñas —cuantitativamente hablando— variaciones de la energía que nos llega del Sol pudieran afectar de forma sin embargo significativa a los climas terrestres y sus cambios. Por ejemplo, a finales de 2011, un modelo climático elaborado por científicos del Met Office Hadley Center, el famoso Centro Hadley defensor a ultranza del grave cambio climático que nos acecha y uno de los pilares más sólidos sobre los que reposan las tesis del IPCC (junto al GISS-NASA), parece indicar que cuando el Sol reduce su actividad, los inviernos del norte de Europa son más fríos de lo normal.

El trabajo, publicado en la revista Nature Geoscience, correlaciona la actividad ultravioleta y los climas terrestres mediante un modelo con datos del satélite SORCE (Solar Radiation and Climate Experiment) de la NASA, lanzado en 2003. Concluye que los fenómenos de la alta atmósfera, cuando el Sol tiene poca actividad, producen efectos en cascada cuya consecuencia final es una mayor frecuencia de invasiones de aire muy frío en invierno hacia el norte de Europa y América, teniendo como efecto secundario un clima más templado de lo normal en las regiones meridionales (España, por ejemplo). El estudio abarca pocos años y es, por tanto, poco válido desde el punto de vista climático. Pero demuestra que en esto del Sol y los climas no todo está dicho...

Una teoría aún más reciente relaciona la variabilidad solar con la nubosidad, pero esta vez no a través de las variaciones inducidas en la intensidad de los rayos cósmicos, como afirman los daneses, sino por su influencia en la formación de ozono estratosférico. Se sabe que en los ciclos solares de once años los cambios en la radiación ultravioleta que llega a la alta atmósfera —cambios que son los que intervienen en el ciclo productor y destructor de ese ozono estratosférico— son relativamente importantes. La mayor o menor producción de ozono acaba teniendo influencia en el calentamiento de la estratosfera, e indirectamente este calentamiento podría afectar a la circulación troposférica, la de la baja atmósfera, modificando la nubosidad y el movimiento de los sistemas ciclónicos y anticiclónicos.

Y en el año 2011, la famosa revista de referencia Nature publicó un artículo en el que nada menos que 63 científicos reconocen de forma indirecta que no es improbable que las variaciones en los rayos cósmicos influyan de algún modo en la formación de las nubes y, por tanto, en las variaciones de la nubosidad total. En cierto modo, significa reconocer hoy que las conclusiones de los trabajos de Svensmark de hace unos años quizá no fueran tan descabellados como se dijo...

El IPCC afirmaba, en su Cuarto informe, que las variaciones de radiación solar son demasiado pequeñas comparadas con las variaciones de los gases invernadero. Afirmación tajante que es repetida por casi todo el mundo. Pero nadie repara en que ese mismo Cuarto informe también afirma que, aun así, existe gran desconocimiento científico acerca de las variaciones solares. Lo dice de forma elíptica, que es como el IPCC expresa lo que no le gusta reconocer: «there is a low level of scientific understanding with respect to solar variation», es decir, «existe un bajo nivel de comprensión científica por lo que respecta a la variación solar». O sea, que por una parte afirma que las variaciones de la energía solar son muy pequeñas para afectar a los climas, pero eso se basa en un «bajo nivel de comprensión científica». O sea, afirman como una certeza lo que ellos mismos reconocen que es... un más que notable desconocimiento. ¿Honestidad científica, consenso? No; es política. Que a menudo nada tiene que ver con la ciencia.

Un estudio publicado en 2007 (en la revista Journal of Geophysical Research) parecía demostrar que a lo largo del siglo XX el calentamiento global observado en el hemisferio norte podría deberse a variaciones de la energía solar en una cuantía próxima al 50 por 100, lo cual choca con los modelos de predicción climática que le atribuyen al forzamiento radiativo solar una incidencia sumamente pequeña, por no decir despreciable. El trabajo fue realizado por el físico Nicola Scafetta y el matemático Bruce West, y sus conclusiones se basaban en un análisis detallado del pasado preindustrial, extrapolando luego esos datos al siglo XX. Naturalmente, como si hubiese sido un texto poco menos que culpable de traición, los científicos afines al IPCC se apresuraron a desprestigiar el trabajo, oponiéndole otro en el que, también con modelos matemáticos, parecía demostrarse que esa influencia era mínima.

El estudio más reciente sobre la influencia de la actividad variable del Sol en los cambios de clima fue realizado por un grupo de científicos del GFZ (Deutsches Geo Forschungs Zentrum, Centro Alemán de Ciencias de la Tierra), en colaboración con investigadores de Suecia y Países Bajos («Regional atmospheric circulation shifts induced by a grand solar minimum», Nature Geoscience, mayo 2012). El estudio buscaba comprender la respuesta del clima al prolongado período de inactividad del astro rey durante el Gran Mínimo Solar, o Mínimo Homérico, de hace 2.800 años, en plena Edad del Hierro prerromana. Los científicos utilizaron las más modernas tecnologías en el análisis de sedimentos depositados en el fondo de un lago antiguo, el Meerfelder Maar, en la región de Eifel, al suroeste de Alemania (un maar es una laguna poco profunda que cubre un cráter volcánico y freático a la vez). Los sedimentos se acumulan de forma regular, por la forma plana del fondo y su escasa profundidad, y eso facilita el estudio de las características de las distintas épocas pasadas que se reflejan en dichos sedimentos. El estudio considera probado que dicha disminución sostenida de la actividad solar coincidió en Europa occidental con un enfriamiento abrupto, en poco más de un decenio.

La variabilidad del Sol parece que, después de todo, sí podría influir más de lo que se pensaba. El propio director del Instituto Max Planck para la Investigación del Sistema Solar, el astrofísico y experto en heliosfera Sami Solanki, afirmó en 2012: «El Sol se ha encontrado en niveles de mucha actividad en el último medio siglo y quizá ahora esté afectando a las temperaturas globales, sumándose al efecto del incremento de los gases invernadero. Aunque resulta difícil decir cuál de esos dos efectos tiene mayor influencia, sí parece que predominan los gases invernadero; pero hay que demostrarlo aún con nuevos estudios sobre la energía solar y su efecto indirecto sobre los climas».

No nos parece mala conclusión para este apartado. Solanki viene a decir que, después de todo, aún sabemos poco y, sobre todo, que necesitamos saber mucho más.

4.2.2.5. Corrientes marinas, volcanes y sumideros

a) Los mares

Gracias al Niño —una corriente menos fría de lo normal en las costas suramericanas del Pacífico, que aparece cada tres o cuatro años—, la sociedad civil parece como si se hubiera enterado ahora, a pesar de ser conocido desde hace siglos, de un fenómeno clásico y bien descrito por los geógrafos: el hecho de que algunas corrientes marinas cambian a veces su rumbo y su intensidad, lo que repercute de una u otra forma en los climas de las costas próximas, e incluso de regiones más alejadas. En el caso del Niño, eso fue observado hace ya varios siglos en las costas peruanas y cada tres o cuatro Navidades —de ahí lo de «el Niño», que más bien podría ser «el dichoso Niño», porque dejaba sin pesca a los habitantes de la zona—. Este fenómeno se llama ENSO, por Oscilación Sur El Niño.

Desde luego, todo el mundo sabe más o menos que al borde del mar hace menos frío que en el interior de los continentes. Además, lo normal es que las tierras del interior estén a mayor altitud que las costas, que por definición están al nivel del mar; y eso las hace también más frías en invierno y más cálidas y secas en verano. Por otra parte, las costas bañadas por corrientes cálidas tienen climas más templados que las costas bañadas por aguas frías, a igual latitud.

Ahora son ya numerosas las personas que han aprendido que los grandes flujos oceánicos tienen determinadas oscilaciones cuya influencia se deja sentir de forma muy extensa, incluso bastante más allá de la zona donde hay una influencia directa. Por ejemplo, el Niño deja sentir su efecto no sólo en las costas del Pacífico suramericano sino que consigue alterar el régimen de precipitaciones de lugares tan alejados como la Amazonia, al otro lado de la cordillera de los Andes.

Y si eso ocurre en el Pacífico, se supone que también ha de ocurrir en los otros grandes océanos... Y así los expertos escrutan con atención dos tipos de oscilaciones oceánicas, esta vez en el Atlántico: la NAO —iniciales de North Atlantic Oscillation, Oscilación del Atlántico Norte—, que sólo se ejerce en la zona más interesante para los europeos y los americanos del este y tiene que ver con las diferencias de presión entre el norte y el centro del océano, y la AMO —iniciales de Atlantic Multidecadal Oscillation, Oscilación Atlántica Multidecenal—, que mide las diferencias térmicas a lo largo de series de muchos años (entre 20 y 40) en dicho océano, al norte del Ecuador.

Estudios recientes han puesto de manifiesto la existencia de una relación entre ambos efectos, que podrían explicar, en parte al menos, los cambios de clima observados en los dos últimos siglos. Y algunos otros trabajos creen haber encontrado alguna relación entre la PDO (Oscilación Decenal del Pacífico) e incluso cierta NPO (Oscilación del Pacífico Norte), que desempeñarían un papel aún por determinar en la alternancia, de sólo unos años, entre el Niño y la Niña (fenómeno inverso al Niño), en el Pacífico Sur.

En suma, apenas comenzamos a atisbar la inmensa magnitud de este tipo de períodos que afectan a los más extensos mares del mundo y que pudieran tener tanta influencia en los climas como el propio efecto invernadero, si no más. A pesar de que los modelos de predicción climática no lo tienen en cuenta... por puro desconocimiento.

Mostramos a continuación la variación de la AMO desde mediados del siglo XIX hasta 2012. Se observan fases de enfriamiento (1880-1920), calentamiento (1920-1944), enfriamiento (1944-1975), de nuevo calentamiento (1975-1998), y estancamiento a partir de entonces. La curva se parece mucho, curiosamente, a la de la temperatura media...

El gráfico siguiente muestra las variaciones de la Oscilación Decenal del Pacífico, sólo entre 1950 y 2006; es curioso observar la fase fría, desde 1950 hasta 1976, y la cálida a partir de ese año. También se parece a la variación de temperatura media global.

¿Significa esto que de repente los océanos pudieran cobrar una importancia insospechadamente alta, incluso como para desviar en todo o en parte el protagonismo del efecto invernadero? Pues lo cierto es que si de la atmósfera en su conjunto todavía carecemos de muchos datos, de los océanos —en superficie y en las zonas profundas— aún sabemos menos... Lo que sí parece más que probable es que hasta hace muy poco tiempo habíamos subestimado la acción de esos grandes movimientos del agua marina a la hora de distribuir calor y frío con eficacia por todo el planeta —recordemos, cubierto en un 70 por 100 por mares y océanos.

Hoy, que ya vamos sabiendo algo acerca de la existencia —no tanto de sus efectos— de todas esas oscilaciones, conocidas o por conocer (ENSO, PDO, NPO, AMO, NAO...), se puede constatar que hasta hace poco tiempo no sabíamos prácticamente nada. Y aún hay más: todo parece indicar que el balance energético global puesto en acción por el movimiento de los océanos del planeta y sus intercambios térmicos, tanto espacial como temporalmente, aunque sea un balance desconocido en sus grandes cifras y aún más en sus detalles, bien podría ser decisivo en el devenir climático de todo el globo terrestre.

¿Cómo es esto posible? ¿Y por qué razón hemos tardado tanto en darnos cuenta de algo que, después de todo, no parece tan difícil de imaginar?

No es fácil responder a eso. Esa tardanza podría deberse a que los temas del clima y sus cambios han estado más en las manos de los físicos del aire que en la de los geógrafos, y en cambio los efectos sobre las aguas hayan estado más en manos de oceanógrafos y biólogos marinos que bajo el escrutinio de los físicos. La física del aire cree conocer ya algunas cosas acerca de nuestra masa de aire, aceptablemente bien estudiada en sus tres dimensiones. Pero la termodinámica en detalle del mar nos es aún desconocida; apenas si podemos descubrir alguno de sus misterios a través de ciertos efectos indirectos sobre la fauna y la flora.

En cuanto al porqué de la importancia de los mares, basta recordar que, como ya explicábamos en los meteoros acuosos, el agua tiene una enorme capacidad calorífica, es decir, se calienta muy lentamente porque necesita muchas calorías para aumentar su temperatura, y asimismo se enfría muy lentamente, porque libera muy poco a poco esas calorías cuando el entorno se vuelve más frío. Esta inercia térmica del agua —que también lo es dinámica, puesto que pesa mil veces más que el aire—, la hace mucho menos sensible a los cambios de temperatura ocasionados por la presencia del Sol durante el día, y a su ausencia por la noche. Y no sólo se enfría y se calienta muy lentamente sino que luego se mueve con muchísima más inercia que las masas de aire.

Por eso las temperaturas máximas y mínimas del aire, en un solo día, pueden diferir muchos grados. En cambio, en ese mismo día y lugar, la diferencia entre la máxima y la mínima del agua del mar no variará apenas nada. Ésa es la razón de que los climas costeros sean más templados que los del interior; el mar resulta ser un gran suavizador térmico. Y además, a causa del vapor de agua que siempre abunda más en las proximidades del mar, las zonas costeras también son más húmedas que las del interior.

Un tercer elemento importante del clima costero se debe a que, como el mar se calienta menos deprisa que la tierra durante un día soleado, al cabo de unas horas el aire que está sobre el suelo firme se calienta mucho más que el que está encima del agua, por lo que acaba subiendo, lo que requiere un aporte de aire más fresco en superficie procedente del mar. Es el fenómeno de las brisas costeras.

El agua de los mares ejerce también su influencia a escala mucho mayor, a causa precisamente de su enorme capacidad calorífica: al enfriarse y calentarse difícilmente, eso permite que grandes masas de agua de temperatura más o menos uniforme puedan desplazarse por los océanos como corrientes frías o cálidas, a lo largo de miles de kilómetros. En ese viaje, cuando acaban topando con algún continente, modulan los climas de las zonas costeras, cediendo parte de su frío o su calor, que había sido almacenado en lugares muy distantes.

En Terranova (a la altura de Londres) nieva muchísimo y hace un frío polar durante muchos meses; en cambio la nieve y el frío gélido son excepcionales en la capital británica. En Boston (a la altura de La Coruña) son frecuentes los inviernos rigurosos, con frecuentes nevadas y temperaturas bajo cero durante varios meses seguidos; un clima que nada tiene que ver con la templanza de las capitales gallega e inglesa, donde no hiela casi nunca.

¿Y todo eso por qué? Sencillamente porque hay una corriente de agua fría que nace en el océano Glacial Ártico y penetra hacia el Atlántico entre las costas de Groenlandia y Canadá. Su efecto no es en este caso de suavización, aunque desde luego hace menos frío en la costa canadiense que en las regiones del interior, sino que agudiza el frío en unos climas que, por su latitud, podrían ser más templados. Lo contrario ocurre en las costas europeas. La corriente del Golfo, que nace en las aguas cálidas de la zona entre Cuba y Florida, recorre todo el Atlántico en dirección noreste hasta bañar las costas europeas; en ese largo recorrido mantiene su temperatura elevada y acaba influyendo directamente en el clima de las costas de Europa, más templadas de lo que serían por su latitud. De ahí el enorme contraste entre los climas de La Coruña y Boston. Y aún sabemos algunas cosas más. Por ejemplo, que en los océanos existe una capa superficial de agua bastante templada que puede tener una temperatura próxima a cero en los océanos polares, o bien superar los treinta grados en los mares tropicales. El espesor de esa capa superficial es de unos pocos centenares de metros, rara vez llega a medio kilómetro. Por debajo, todos los océanos del mundo tienden a unificar bastante su temperatura, bajo una línea teórica llamada termoclina. A partir de ahí, la temperatura del agua apenas varía entre 4 o 5 grados sobre cero y 1 ºC bajo cero; o sea, sigue habiendo diferencias, pero mucho menores que en las aguas cercanas a la superficie. En el Mare Nostrum, que aunque no es un océano alcanza profundidades considerables, esta regla no se cumple: sus aguas más profundas están entre 12 y 13 grados. El Mediterráneo es un mar cálido tanto en superficie como en profundidad.

Podría pensarse que debido a estas diferencias entre aguas superficiales y profundas, unas y otras jamás se mezclarían. Pero el equilibrio termodinámico sería imposible porque en superficie hay aguas cálidas pero también las hay muy frías, y algunas masas de agua son muy salinas y otras casi dulces (por ejemplo, las procedentes de la fusión de los hielos flotantes cerca de los polos en verano). Por eso unas u otras se hunden según los sitios, introduciendo la dimensión vertical en la mezcla de aguas a lo largo y ancho del planeta.

Estos lugares en los que se hunde el agua superficial —fría y salada— o surgen las aguas profundas —algo más templadas y menos salinas— no son muy numerosos, pero constituyen zonas esenciales de intercambio entre el agua por debajo de la termoclina y por encima. Las aguas frías y saladas que se hunden se encuentran en el norte del Atlántico —entre Europa y Groenlandia— y cerca de la Antártida, en el sur del Atlántico y del Pacífico. En cambio las aguas menos densas —menos frías, menos salinas— surgen en superficie (el fenómeno se llama surgencia, pero predomina el inglés upwelling) al oeste de África, al norte y al sur del continente, al oeste de América del Sur y, en menor medida, de América del Norte, en el Pacífico ecuatorial y en el Atlántico Sur.

Estas áreas, relativamente limitadas, de los grandes océanos actúan como pozos de interconexión vertical entre las aguas del planeta, de tal modo que toda el agua del planeta acaba estando conectada y en movimiento, tanto en superficie como en las zonas más profundas. Existen grandes corrientes superficiales y también flujos constantes a gran profundidad; y todas esas masas líquidas están conectadas entre sí mediante estos pozos de agua que sube o baja...

Como es sabido, las aguas oceánicas se agrupan en cinco grandes masas bien conocidas; el Pacífico es el mayor de estos cinco océanos y su superficie es superior a la de todos los continentes juntos: en torno a 180 millones de kilómetros cuadrados. Luego vienen el Atlántico —como el Pacífico, conecta a los dos océanos polares—, el Índico, mayoritariamente situado en el hemisferio sur, y finalmente los océanos glaciales Antártico y Ártico, que suelen estar congelados durante buena parte del año.

Los movimientos del agua marina se deben, como ocurre con el aire, al giro de la Tierra y a las diferencias de temperatura entre unas latitudes y otras. Pero aquí interviene también otro factor, que a su vez afecta a los movimientos verticales del agua: la salinidad del agua, que influye, como la temperatura, en su densidad y en su mayor o menor flotabilidad respecto a otras masas de agua.

Teniendo en cuenta que los mares ocupan en torno al 70 por 100 de la superficie del planeta y que su influencia es más que evidente sobre todos los ecosistemas marinos, aéreos y terrestres, además de determinar de forma clara cómo son los climas del mundo, parece difícil estimar cuál es su importancia real en cuestiones relacionadas directamente con los cambios climáticos. De hecho, tenemos muy poca idea al respecto; además, el agua no sólo es mil veces más densa que el aire, sino que, como sabemos, posee una muy superior capacidad calorífica. Por eso sus movimientos de desplazamiento y también sus intercambios térmicos son mucho más lentos, pero de efectos más duraderos y generalizados.

O sea que, después de todo, tiene bastante sentido pensar que la clave de los cambios climáticos del planeta Tierra quizá resida tanto en el mar como en el aire, si no más en el primero. Lo que significa que los climas no sólo dependen del reparto energético que se produce en la atmósfera, sino de cómo se hace ese reparto en las aguas oceánicas. Quizá el nexo de unión lo constituya precisamente el principal gas de efecto invernadero, el vapor de agua, que se origina precisamente al pasar el agua de la fase líquida a la fase gaseosa, básicamente en la superficie de los mares.

Todo esto parece relativamente sencillo de enunciar, pero la realidad debe ser muchísimo más compleja a causa de múltiples factores que interfieren en el proceso. Por ejemplo, la enorme extensión de los océanos, las interconexiones entre los mismos, las influencias locales debidas a la forma misma de las costas, de los fondos, de las corrientes de marea, incluso del oleaje mismo... Sin olvidar, por supuesto, el clima de cada lugar —vientos, lluvias, temperatura—, o bien el aporte de agua dulce por los ríos, y muchos otros factores de importancia variable pero que localmente pueden ser determinantes. Lo único que queda meridianamente claro es que la influencia de las aguas que cubren las tres cuartas partes de la superficie terrestre se ejerce a escala planetaria y puede tener repercusiones no ya en los continentes sino en la misma atmósfera, al menos en buena parte de la troposfera.

Por eso no ha de extrañar que los científicos no sepan aún cómo modelizar todo este complejo sistema de relaciones con un mínimo de rigor, ni siquiera esquemáticamente: no es posible en el estado actual del conocimiento simular, ni siquiera aproximadamente, los comportamientos del agua marina en el planeta.

Bien. Queda claro que los mares recirculan la energía que, obviamente, sólo pueden recibir... del Sol. Pero es que ni siquiera sabemos cómo evaluar la cantidad real de energía que todos estos procesos ponen en juego. Si el mar acumula y distribuye calor procedente del Sol, ¿cuánta energía supone eso, y cómo se hace dicha distribución? Si fuera mucha energía, su incidencia sobre el sistema climático sería enorme; si no fuera tanta, su incidencia seguiría siendo trascendente pero más de alcance local que global. Y aun así, ni siquiera esto supone más que una mera hipótesis inicial de trabajo...

Lo que sí creemos conocer, no obstante, son algunas otras características de los movimientos de las grandes masas de agua. Por ejemplo, los científicos coinciden en evaluar la velocidad a la que se desplazan las extensas corrientes oceánicas superficiales en unos cuantos kilómetros por hora; cerca de diez, en el caso de la corriente del Golfo. También estiman que las corrientes profundas son diez veces más lentas, o sea unos cuantos hectómetros por hora. Por esa razón se piensa que una determinada masa de agua podría recorrer toda la hidrosfera, tanto en superficie como en forma de corrientes profundas, en un período del orden del milenio. A la larga, toda el agua del planeta viaja por todas partes...

Lo esencial, por lo que aquí nos ocupa, es que ese sistema supone un auténtico colchón térmico de consecuencias incalculables por su enorme inercia a la hora de acumular y luego liberar calor. Dos procesos —acumulación y liberación de energía, y no sólo bajo la forma de calor— que suelen ser consecutivos pero podrían incluso llegar a ser simultáneos, según los sitios y las circunstancias.

¿Atmósfera, hidrosfera? ¿Sabemos algo más de sus interacciones?

Con un mínimo de rigor, sólo sabemos, por ejemplo, que la temperatura media del aire es algo menor que la temperatura media del agua. Hoy se estima que el aire del planeta, en promedio —y con todas las limitaciones asociadas al hecho de que se pretende que una sola cifra represente el promedio de toda la atmósfera en un año, que ya es pretender—, es uno a dos grados más frío que el agua superficial de los océanos. No es mucha precisión, sin duda; pero algo es algo...

Un estudio aparecido en la revista Nature a finales de septiembre de 2011 analizó con datos más precisos y recientes el calentamiento superficial del agua del mar en los últimos años, entre 2003 y 2011. En esos nueve años, la concentración de CO2 medido en Mauna Loa mostró un incremento constante que sumó en total un 16 por 100; es decir, un promedio de casi un 2 por 100 de incremento anual, promedio que ahora sabemos que se mantiene en 2012. Pero, en cambio, la temperatura media de la atmósfera no ha variado en promedio en ese período, tras el máximo de 1998. Y el trabajo publicado en Nature (http://www. nature.com/nature/journal/v477/n7366/full/477513d.html) confirma lo mismo para el agua del mar, basándose en datos obtenidos por el sistema de boyas ARGO, que mide con precisión la temperatura superficial del mar gracias a más de 3.000 boyas en todos los océanos. El primer firmante de la investigación es Gerald Meehr, destacado autor en los diversos informes del IPCC y en la actualidad investigador del NCAR (National Center for Atmospheric Research, Centro Nacional de Investigaciones Atmosféricas, de la Universidad de Boulder, Colorado). Curiosamente, su estudio demuestra que, desde que se puso en marcha el sistema Argos (a partir de 2003) para medir la temperatura con una precisión cientos de veces superior a lo que se hacía hasta 2002, en conjunto dicha temperatura media de los mares del planeta ha bajado ligeramente. En particular, ha bajado mucho en el Atlántico Norte, y bastante en el Pacífico Norte y Sur, en el Ártico y en el Antártico; y sólo ha subido en el Atlántico Sur y en el Índico. En promedio, como queda dicho, el mar se ha ido enfriando levemente desde 2003 hasta 2011...

La hipótesis de los autores del trabajo que estamos comentando es que, a pesar de estos datos, en realidad los mares «deberían» haberse calentado, porque eso es lo que predecían los modelos, de acuerdo con el incremento constante de CO2; eso podría deberse a que el calentamiento ausente en superficie (y hasta la termoclina, a una profundidad de unos centenares de metros) pudiera haber emigrado hacia profundidades mayores. Hipótesis no descartable, desde luego, pero de la que no aportan prueba alguna.

Los científicos del NCAR no sólo emiten esa hipótesis en el artículo que estamos citando, aparecido en el otoño de 2011, sino que publicaron, en junio de 2012, un nuevo artículo en la revista Nature Climate Change donde concluyen, a partir de modelos e índices calculados y estimados, basados a su vez en datos de hace muchos decenios (datos antiguos que, como ya hemos visto, eran muy pobres en calidad y cantidad, antes de 2003, aunque eso no parece importarles), que el calentamiento de los océanos es una clara consecuencia del incremento de los gases invernadero, es decir del CO2. Lo más curioso es que ni siquiera tratándose del mar se les ocurre citar al vapor de agua; como si no existiera... Esos modelos teóricos le atribuyen al efecto invernadero el 90 por 100 del calentamiento, y sólo un 10 por 100 a la variabilidad natural.

Pero es que han aparecido también en 2012 otros tres artículos científicos más, firmados por especialistas tan reputados si no más que los precedentes. Su conclusión es que la variabilidad natural predominó sobre el cambio climático en los cambios de temperatura superficial del mar y en los cambios de flujo de calor entre el mar y el aire. O sea, nada de un 10 por 100, sino bastante más del 50 por 100. Las referencias son: «On the Observed Trends and Changes in Global Sea Surface Temperature and Air-Sea Heat Fluxes between 1984 and 2006», de W. G. Large y S. G. Yeager; «Mean biases, variability and trends in air-sea fluxes and SST in the CCSM4», de S. C. Bates, B. Fox-Kemper, S. R. Jayne, W. G. Large, S. Stevenson y S. G. Yeager; y, finalmente, «High-resolution Satellite Surface Latent Heat Fluxes in North Atlantic Hurricanes», de Jiping Liu, Judith Curry, Carol Anne Clayson y Mark Bourassa.

Como comenta la propia Judith Curry, querellas científicas aparte, lo que todo esto significa es que, incluso tomando el período que va desde 1983, cuando ya comenzábamos a disponer de datos globales por satélite, los datos son escasos y no muy consistentes. Y son aún peores si se toman períodos anteriores. Por supuesto, las series estadísticas se pueden «rellenar» con índices en cierto modo inventados. Pero ése es un problema científico de enorme complejidad; sin dudar de la honestidad de nadie, los métodos de interpolación son muy variados, y tan discutibles los unos como los otros.

En suma, que aunque sólo tenemos datos aceptablemente buenos desde 2003 (y hay que considerar que el moderno sistema ARGOS, a pesar de sus tres mil y pico boyas, tampoco cubre ni mucho menos la inmensa y extremadamente variable superficie de los océanos en el planeta), ni estamos seguros de medir correctamente el calentamiento o enfriamiento del mar, ni por supuesto nada permite afirmar que esa posible variación térmica sea excesiva, ni aún menos que se deba a la mano del hombre.

Ésta es sólo una muestra de los numerosos debates científicos entre expertos que debieran predominar tanto en estas como en todas las demás investigaciones. Lástima que, como ya ha ocurrido anteriormente, esos debates sean ocultados por el IPCC, dando a entender que lo que se dice en sus informes responde a un consenso científico absoluto...

Emplazamos al lector de este libro a que consulte el Quinto informe del IPCC, cuando se haga público a finales de 2013; será el momento de verificar si incluye en exclusiva el segundo trabajo del NCAR de 2012, ignorando el anterior de 2011 y, por supuesto, dejando de lado los tres estudios de los expertos aparecidos en 2012 y que contradicen al anterior.

b) Los volcanes

Los gases que actúan sobre el efecto invernadero son todos de origen natural, a excepción de los clorofluorocarbonos (CFC), fabricados por la industria humana en el siglo XX. A lo largo del tiempo la presencia de esos gases ha ido variando, y a veces de forma muy notable. En general, esas variaciones han sido lentas, aunque sabemos que en ciertos momentos puntuales del pasado remoto del planeta ha habido cambios muy bruscos. A nadie extrañará que todo ello se corresponda con cambios climáticos que, a su vez, habrán sido muy lentos y paulatinos o, por el contrario, bruscos e incluso cataclísmicos (las famosas extinciones masivas de biodiversidad).

Estos últimos, tan súbitos como poderosos, sólo pudieron ser catástrofes cósmicas como, por ejemplo, el choque de un meteorito de gran tamaño contra nuestro planeta; es casi seguro que eso fue lo que cambió súbitamente los climas y, entre otros muchos efectos, extinguió a los dinosaurios hace unos 65 millones de años. Pero también ha habido otros factores capaces de influir en la concentración de los gases invernadero, tan súbitamente como una catástrofe cósmica pero de menor intensidad. Todo depende, como vimos, del equilibrio inestable que existe a cada instante entre lo que emiten los manantiales y lo que absorben los sumideros de los gases invernadero.

Bien, pues uno de esos manantiales, quizá el principal —por la cuantía de los gases emitidos y por su persistencia en el tiempo, puesto que existen desde los albores del propio planeta Tierra—, lo constituye la actividad volcánica. En general, cuando las erupciones volcánicas son intensas o numerosas, los gases y cenizas emitidos pueden producir un oscurecimiento del cielo que a veces dura años, frenando la radiación solar incidente; en última instancia, este efecto de opacidad creciente podría equivaler al de un sumidero indirecto. Pero entre los gases emitidos están el CO2 y el vapor de H2O ... ¿Quién predomina sobre quién?

Por los volcanes en erupción sale a la superficie de la corteza terrestre una pequeña parte del magma subterráneo, procedente del manto superior; esos materiales rocosos fundidos, una vez solidificados al enfriarse, crean nuevos relieves, tanto bajo el agua en forma de cordilleras submarinas —que a veces se manifiestan en forma de islas volcánicas en superficie, como las Canarias o Islandia— o de cordilleras continentales (el valle del mar Rojo y las montañas de Kenia y Kilimanjaro en África), conocidas como rifts.

Como es sabido, la actividad volcánica fue muy activa en los primeros tiempos del planeta. Luego se ha ido reduciendo, pero sin que jamás haya desaparecido. Sabemos de los volcanes y su capacidad destructora desde la más remota antigüedad. Poco después del inicio de nuestra era, se hizo famosa la catástrofe del Vesubio, cuya brutal erupción no sólo causó en el año 79 la desaparición de Pompeya y Herculano, sino que provocó la muerte de miles de personas, de forma directa por la lava y las explosiones, e indirecta por causa de las cenizas y los gases tóxicos; entre las víctimas estaba el famoso historiador Plinio el Viejo, refugiado en la finca de un amigo, en Estabia, a casi 20 kilómetros de distancia hacia el sur, en el otro extremo de la bahía de Nápoles. El cielo se oscureció, como si fuera de noche en pleno día, durante más de una semana. El ensombrecimiento se notó incluso muchos días después a mucha mayor distancia, por ejemplo en Sicilia, e incluso más allá del Mare Nostrum, en las costas de lo que hoy es Túnez y Libia (por los datos históricos, parece que los vientos dominantes debieron ser del noroeste).

En tiempos mucho más modernos, ya hemos visto que los científicos coinciden en atribuir el descenso de las temperaturas medias —durante uno o varios años seguidos— a las erupciones volcánicas más violentas. Por ejemplo, en 1452 se produjo en el pequeño archipiélago de Vanuatu (en el Pacífico Sur, a unos 1.700 km al este de Australia) la que quizá fue la mayor y más violenta erupción volcánica del último milenio, la catástrofe del Kuwae. Su efecto sobre los climas de todo el mundo introdujo variaciones catastróficas en lluvias y temperaturas durante al menos cinco años.

En 1783 entró en erupción el volcán islandés Laki, que al parecer batió todos los récords de emisión de lava en estos últimos siglos. Del Laki y sus humaredas, que viajaron hasta el resto de Europa y norte de África, sacó conclusiones curiosas Benjamin Franklin, por aquel entonces viajero y embajador en Francia y Gran Bretaña, acerca de la influencia de esas cenizas, que él llamo niebla seca volcánica, en el enfriamiento de los climas.

Y destaca más recientemente, en 1815, la erupción del volcán indonesio Tambora, en la isla de Subawa, el más catastrófico de los tiempos históricos por su magnitud global y sus efectos colaterales, aún peores que los del Kuwae. Sus gases y partículas viajaron por toda la estratosfera durante casi un decenio, dando lugar a varios años sin verano en la mayor parte del planeta, en particular el año siguiente, el gélido 1816. A finales de ese mismo siglo XVIII hay que consignar asimismo la erupción del volcán Krakatoa, en 1883, que hizo volar en pedazos la isla de mismo nombre, entre Java y Sumatra.

Un siglo después, ya muy avanzando el siglo XX (en el período 1980-1982), se dieron tres erupciones de gran envergadura, la última de ellas realmente potente: el Saint Helens (Estados Unidos, Washington, en 1980), el Hekla (Islandia, también en 1980) y, muy especialmente, el mexicano El Chichón, en 1982. Es probable que los efectos combinados de los materiales emitidos a la atmósfera tuvieran que ver con un leve enfriamiento del clima en muchas regiones del hemisferio norte. Por si fuera poco, apenas un decenio después, en 1991 se produjeron la erupción del Pinatubo, en Filipinas, y del Hudson, en Chile. El efecto combinado de ambos sin duda afectó a los climas de ambos hemisferios.

Para cuantificar la posible influencia de las erupciones sobre los cambios de clima, en la segunda mitad del siglo XX los científicos propusieron medir la magnitud de energía, un parámetro que combina la masa total de material emitido (gases, cenizas, lava, etc.), su volumen (lo que proporciona la densidad de dicho material) y finalmente la energía global liberada. Posteriormente se generalizó el uso de un índice llamado VEI (siglas inglesas de Índice de Explosividad Volcánica), cuyo valor va de 0 a 8.

Se estima que el VEI de la peor erupción conocida en épocas recientes, la del volcán indonesio Tambora, en 1815, fue de 7. Emitió 150 km3 de materia. Se estima que el Krakatoa alcanzó un VEI de 6, como el Pinatubo, aunque emitió una cantidad dos veces mayor de materiales (20 km3); el penacho de humo y cenizas ligeras subió hasta la alta estratosfera.

En cambio, un volcán hawaiano con erupciones frecuentes pero poco intensas y no explosivas, como el Kilauea, tiene habitualmente un VEI de 1. Eso significa que su penacho de humo no asciende a más de 100 metros y que emite menos de mil metros cúbicos de material por segundo. La erupción de 1980 del Saint Helens, en las Rocosas, tuvo un VEI de 5: el penacho ascendió hasta mediada la estratosfera (más de 25 km de altura) y la materia emitida ocupaba un volumen de más de un kilómetro cúbico (mil millones de metros cúbicos).

Las dos más recientes erupciones violentas, mejor estudiadas que las anteriores y bien correlacionadas con descensos generalizados de las temperaturas durante al menos un año, fueron El Chichón (1982), con un VEI de 5 y una emisión total de 2,5 km3, y Pinatubo (1991), con un VEI de 6 y la emisión de 10 km3 de materiales de todo tipo.

Remontándonos muchísimo más en el tiempo, los científicos piensan que hace 75.000 años, en lo que hoy es la isla indonesia de Sumatra, se produjo la erupción volcánica conocida como Toba, que seguramente tuvo un VEI de 8, con una emisión de cenizas y lava superior a los mil kilómetros cúbicos y una contaminación de la alta atmósfera que seguramente duró varios decenios. Aquello debió enfriar aún más el clima de la época, ya gélido —se estima que en torno a los diez grados, aunque es imposible precisar el dato—, y probablemente originó un descenso del nivel del mar que también se estima, sin poder precisar mucho, en torno a los quince metros; fue a mediados de la última gran glaciación, la de Würm. De tan remota catástrofe apenas tenemos indicios, muy indirectos, que nos impiden compararla con las más recientes; lo único en lo que parecen estar de acuerdo los científicos es que esas erupciones gigantescas acaban teniendo un saldo claramente negativo de cara a los climas. Lo que significa que los volcanes actúan globalmente más como si fueran sumideros que como si fueran manantiales de gases invernadero (aunque, obviamente, intervienen factores puramente térmicos, dinámicos e incluso mecánicos, al margen de dichos gases).

En realidad, los volcanes emiten una enorme cantidad de gases invernadero, esencialmente vapor de agua y dióxido de carbono. En ese sentido, las erupciones deberían ser consideradas como manantiales de tales gases. Pero las erupciones más explosivas y violentas emiten también y sobre todo enormes cantidades de materiales sólidos: los más pesados se escapan ladera abajo en forma de lava, otros más ligeros vuelan a cortas distancias en forma de bólidos llamados bombas —de tamaño superior a los 5 centímetros—, o bien en forma de pequeñas rocas llamadas lapilli —de tamaño entre 2 milímetros y 5 centímetros—. Si el material expulsado al aire es de menor tamaño se considera ceniza, algunas de cuyas partículas son tan ligeras que pueden ascender hasta muchos kilómetros de altitud y luego viajar por la estratosfera dando varias vueltas al planeta antes de ir poco a poco cayendo al suelo mezcladas con la precipitación. Las cenizas ligeras que llegan a la estratosfera pueden permanecer allí durante muchos años... Estos materiales sólidos oscurecen el cielo, y si la erupción fue extensa —con un VEI superior a 5— sus efectos pueden hacerse notar en prácticamente todo el planeta durante muchos meses.

Es difícil establecer un balance entre los efectos favorables o contrarios al calentamiento. En general, y ya desde los tiempos de Franklin, se piensa que los volcanes contribuyen al enfriamiento. Y en los años noventa del siglo pasado los satélites vinieron a aportar las primeras pruebas experimentales de que, en efecto, eso es lo que sucede con las grandes erupciones. Tras la del Pinatubo en 1991, el experimento de la NASA llamado ERBE (Earth Radiation Budget Experiment, Experimento de Balance de Radiación en la Tierra) proporcionó los primeros datos objetivos del forzamiento radiativo —negativo en este caso— derivado de los aerosoles procedentes del volcán. Las medidas, referidas a los dos hemisferios terrestres, proporcionaron un enfriamiento radiativo de 2,7 W/m2, medido casi tres meses después de la erupción, en agosto de 1991. La radiación solar directa medida en diversas estaciones terrestres disminuyó en torno al 25 por 100 a lo largo del año siguiente, 1992 cuando las temperaturas globales descendieron en torno a medio grado, lo mismo que al año siguiente, 1993. Luego reiniciaron su ascenso, propio de esos años (las temperaturas ya hemos visto que globalmente subieron entre finales de los setenta y finales de los noventa).

En realidad, estos datos no lo explican todo; de hecho, explican bien pocas cosas. Porque el proceso es, obviamente, muchísimo más complejo de lo que hemos descrito de forma tan sucinta. Por ejemplo, el transporte de aerosoles por los niveles muy altos de la atmósfera podría provocar una mayor frecuencia de nubes altas —cirros— debido al mayor número de núcleos de condensación procedentes del volcán. Eso podría a su vez tener un efecto, no muy bien comprendido aún, según el cual las erupciones volcánicas podrían hacer más suaves los veranos, pero también menos rigurosos los inviernos; y, en promedio, algo más fríos los climas, estadísticamente hablando. Si fuera así, daría un poco igual que hubiese enfriamiento o calentamiento; lo esencial es que, en tal caso, los climas serían más confortables, desde el punto de vista de la vida cotidiana (menos calor en verano, menos frío en invierno); aunque nada sabemos del reparto de las precipitaciones ni de otros parámetros que quedan difuminados en los promedios climáticos, pero que en el tiempo de todos los días pueden resultar negativos o positivos.

Lo que sí parece claro es que, globalmente, tras las grandes erupciones el clima se enfría durante un tiempo, pero luego retorna a su tendencia anterior; al menos eso es lo que creemos deducir de las erupciones más recientes. Respecto a las erupciones del pasado más remoto, carecemos de datos mínimamente fiables. De hecho, salvo la del Pinatubo —hace algo más de dos decenios— e, indirectamente, El Chichón diez años antes, lo cierto es que sólo tenemos teorías para explicar acontecimientos del pasado climático relacionado con los volcanes.

c) Sumideros

A la hora de medir o estimar las concentraciones de unos u otros gases en la atmósfera, conviene tener en cuenta que dichas concentraciones no son constantes, sino que fluctúan de manera permanente según el momento y el lugar. Es cierto que, como ya vimos al hablar de la fotoquímica del efecto invernadero, se puede intentar estimar una concentración «de fondo», sea lo que sea eso, que podría representar en cierto modo el promedio para toda la atmósfera de la concentración variable de cada gas.

La variabilidad de estos gases depende de muchos factores. En el caso del dióxido de carbono, que es el mejor conocido, pero también en el caso del vapor de agua, mucho más complejo de comprender, existen unos sumideros naturales, e incluso artificiales, que en cierto modo secuestran o capturan en parte el exceso de los gases que proporcionan los manantiales que aumentan de concentración. Por ejemplo, para el CO2, un manantial claro lo constituye el conjunto de las emisiones derivadas de las combustiones industriales, y un sumidero igualmente claro lo constituyen las plantas verdes.

El carbono y el hidrógeno que emitimos a la atmósfera con las combustiones industriales no forman gases —CO2 y H2O vapor, esencialmente— extraños al aire del planeta porque siempre han formado parte de él. Por tanto, sus manantiales no emiten gases nuevos sino que están devolviéndoselos a la atmósfera, en la que ya estuvieron hace muchísimo tiempo. El problema es el ritmo de esa devolución, muy rápido comparado con el tiempo que tardaron en ser capturados bajo tierra en forma de carbón e hidrocarburos.

¿Y los sumideros, entonces? En esencia siguen siendo los mismos que en las épocas geológicas remotas en las que se formaron el carbón y los hidrocarburos: los seres vivos, especialmente las plantas verdes, y sus restos cuando se descomponen y se fosilizan, viajando al fondo del mar, además de determinados procesos geológicos de ritmo lento o rápido entre los cuales debemos incluir los mares, que disuelven gases en función de diversos parámetros físicos y químicos, además del efecto biológico de las algas verdes flotantes, gracias a la fotosíntesis.

No sabemos bien cómo cuantificar la efectividad de los actuales sumideros de CO2 a la hora de compensar las emisiones industriales. La misma definición de sumidero que hace la Convención Marco sobre Cambio Climático de la ONU, aprobada en 1992 («un sumidero de gases invernadero es cualquier proceso, actividad o mecanismo que absorbe o elimina de la atmósfera uno de esos gases o uno de sus precursores, o bien un aerosol»), ya resulta extremadamente vaga e imprecisa. Esos sumideros de CO2 acaban siendo, en esencia, todos los seres vivos: la materia orgánica es un inmenso depósito de carbono. Por tanto, cuantos más seres vivos haya en la biosfera, más sumideros tendremos para el carbono. Los depósitos de carbono así considerados se convierten, pues, en un componente más del sistema climático precisamente por su capacidad de retirar del aire gases invernadero o precursores de dichos gases.

Pero en cuestiones de cambios de clima lo esencial es el período de tiempo que esos gases permanecen «secuestrados» en dicho depósito. Por ejemplo, el carbono absorbido por un árbol, ¿cuánto tiempo se queda en el árbol? Pues depende, claro, de lo que le ocurra al árbol: si es talado y quemado cuando aún es joven, entonces su carbono orgánico vuelve a la atmosfera como CO2. El «secuestro» del carbono habrá durado poco, por lo que el proceso tendrá poca o ninguna consecuencia de cara al cambio de clima: lo comido por lo servido. Lo mismo ocurre con las plantas que tienen ciclos anuales, por ejemplo los vegetales que comemos... Pero si con la madera del árbol talado cuando es joven lo que hacemos es un barco, que luego se hunde en el fondo del mar y allí se queda descomponiéndose lentamente durante muchos siglos, entonces sí podríamos decir que el secuestro de carbono que realizó el árbol mientras estuvo vivo podrá tener importancia climática. Porque habrá durado muchos siglos, si no más. Y lo mismo ocurre si el árbol vive muchísimo tiempo.

De ahí el peligro añadido que suponen, por ejemplo, los incendios forestales. El carbono que estuvo mucho tiempo secuestrado en esas plantas es devuelto de golpe, por culpa del incendio, a la atmósfera. Y el secuestro de aquel carbono que estaba en forma de CO2 queda anulado. Y si la madera queda bajo tierra durante milenios, incluso millones de años, el secuestro es obviamente un factor esencial de cara al cambio climático (esa madera fósil acaba siendo carbón, claro). No en el caso de un solo árbol, pero sí cuando consideramos la vegetación total de la Tierra, es decir, la cuantía del fenómeno fotosintético en su conjunto como sumidero de CO2.

La incógnita —otra más— reside precisamente en la cuantificación del tiempo que dura ese secuestro del carbono orgánico antes de volver a la atmósfera en forma de gas, o bien quedándose en forma de carbono en las plantas, el suelo, el subsuelo o incluso en el fondo de los mares o disuelto en agua.

Y es que no cabe olvidar que la inmensa mayoría de la fotosíntesis planetaria —al menos, las tres cuartas partes— se produce en el mar, gracias al fitoplancton. De ahí que tengamos que cuidar mucho más la salud del agua de nuestros océanos, tan amenazada por ejemplo por los buques petroleros. El crudo transportado —por culpa, sobre todo, de las prácticas ilegales de lavar sus tanques en alta mar— puede acabar con esos seres vivos diminutos, esencialmente algas microscópicas, que sirven de alimento a muchas otras especies vivientes y que también desempeñan un papel esencial a la hora de absorber CO2 y producir oxígeno.

Como puede verse con estas simples pinceladas conceptuales, el problema de los sumideros es, en efecto, muy complejo. Por eso conocemos tan mal las cifras totales de emisiones a la atmósfera, y cuánto aumentan o disminuyen año a año los gases invernadero, esencialmente el vapor de agua y el dióxido de carbono. Porque ésa es la cuestión crucial: si sabemos cuánto se emite —por razones naturales y por combustiones industriales— y sabemos cuánto varía de año en año la cifra global, podremos estimar si los sumideros absorben o no el exceso de gases invernadero. Algo que creemos conocer aproximadamente en el caso del CO2; pero lo ignoramos en el caso del agua y se conoce muy imperfectamente en el caso del ozono troposférico, del metano y de otros gases.

Veamos el caso del CO2. Al iniciarse el año 2013 la humanidad envía al año a la atmósfera en torno a 8 Pg (petagramos, recuérdese, miles de millones de toneladas) a causa de las combustiones industriales. El dato se conoce con bastante fiabilidad puesto que sabemos la cantidad de hidrocarburos y carbón que utilizamos cada año en todo el planeta. La agricultura y otros usos del territorio también ofrecen una cifra global de emisiones que se estima, en este caso, bastante peor, entre 1 y 3 Pg. O sea, que las emisiones de origen antropogénico son del orden de 9 a 11 petagramos por año. Un 20 por 100 de error relativo es bastante error pero, visto lo visto, no está demasiado mal.

La respiración de los vegetales también emite CO2, sobre todo en ausencia de luz, y la descomposición de los residuos de todo tipo, esencialmente los orgánicos, también supone una emisión neta. En conjunto, estas emisiones son muy importantes, y se estiman, con un error también del 20 por 100, entre 90 y 110 Pg. Pero, claro, este sistema de respiración celular tiene su contrapartida con la absorción por los vegetales verdes del CO2 del aire a causa de la fotosíntesis durante las horas diurnas: esa absorción supone en total entre 100 y 120 Pg (siempre con errores relativos del orden del 20 por 100).

Por último, la superficie del mar disuelve CO2, pero también lo emite; se calcula, con no mucha precisión, que el balance supone globalmente una absorción de este gas —es llevado a aguas profundas— del orden de entre 1 y 3 Pg (el error relativo en este caso es enorme, en torno al 100 por 100 o más). Este fenómeno constituye, junto con la absorción debida a las plantas verdes por fotosíntesis, el auténtico sumidero global de carbono; pero estimamos su cuantía con enorme error relativo.

La absorción del carbono a millones de años vista está ya fuera de los intervalos que consideramos aquí, que se mide en años, decenios y, como mucho, siglos.

Con todo, las cifras de Mauna Loa sobre concentración de CO2 son regularmente crecientes, lo que parece indicar que el balance es favorable a las emisiones respecto a la absorción de los sumideros. Y una de dos, o las cifras que acabamos de ver están mucho peor estimadas de lo que se piensa, o bien lo que se mide en Mauna Loa, es decir, la concentración de fondo, no es la cifra correcta, por las razones que sean. Aunque esto último lo descarta el IPCC y hay que decir que incluso muchos escépticos; el dato de incremento de CO2 suele ser aceptado de forma generalizada a falta de alguna alternativa más fiable.

La controversia tiene que ver mucho más con el hecho de que las temperaturas parecen haberse comportado de manera independiente respecto al CO2 creciente; por ejemplo, se estancan desde 1998 hasta 2013, a pesar de que el gas sube sin cesar, o incluso disminuyeron entre 1940 y 1975, cuando el gas ya subía en flecha como ahora.

Otra discusión seria se refiere a la forma en que se estima el nivel global de CO2 atmosférico en épocas anteriores a la era industrial; porque aquellos datos son muy indirectos y llenos de incertidumbre frente a las cifras actuales que conocemos, después de todo, bastante bien gracias a Mauna Loa, pero sólo a partir de 1958. Todo esto ya lo hemos visto con cierta extensión.

La conclusión podría ser que, al margen de todo este desconocimiento, deberíamos idear sistemas que potencien al máximo la actividad de los sumideros. En general, se plantean dos acciones, sin duda complementarias: por una parte, proteger los ecosistemas que almacenan carbono. Eso implica, por encima de todo, proteger el fitoplancton, o sea, combatir con eficacia la contaminación de los mares y, en la misma línea, cuidar todas las masas forestales del planeta, combatiendo los incendios y deteniendo el expolio de las grandes selvas tropicales.

Por otra parte, habría que plantearse medidas que mejoren la capacidad de absorción de los sumideros existentes o multiplicar dichos sumideros. No sólo con repoblación de bosques o plantación de nuevas masas arbóreas o arbustivas donde no las hubiera, o incluso, si fuera posible, incrementar la productividad del fitoplancton mediante siembras masivas en el mar de hierro o cobre, que podrían incrementar la actividad fotosintética global. Suena a ciencia ficción, pero algunos estudios indican que por ahí se abre una vía interesante de acción en las aguas más ricas en fitoplancton...

Nada demasiado excitante, en todo caso. Porque se trata de un complejo sistema de acciones que requieren una poderosa conexión internacional, con un coste más que considerable, y que no ofrecerá a corto plazo —lo único que interesa a los políticos— resultados visibles, ni aún menos medibles. Claro, todo ello nada tiene que ver con el dichoso negocio de las cuotas de emisiones, que es considerado como muy importante por las conclusiones actuales del IPCC —y, obviamente, por los sistemas que rigen la economía de mercado global—, a pesar de que no está nada claro que sirva para gran cosa, excepto para enriquecer a unos cuantos; a los de siempre, de hecho.

En cuanto a los sumideros de los demás gases invernadero, del vapor de agua ya hemos hablado extensamente, y el resultado es descorazonador: su constante cambio de fase (gas, líquido, sólido) en el suelo, los mares y el aire casi impide tener una idea de cómo aumenta o disminuye su contribución al efecto invernadero, que es del orden de las tres cuartas partes. Y en cuanto a los otros gases, su incidencia es muy reducida frente al vapor de agua y el dióxido de carbono. Por cierto, como curiosidad diremos que en torno a un tercio del total de metano producido actualmente por el mundo se debe a las flatulencias de casi 1.500 millones de vacas y más de 1.000 millones de ovejas que constituyen la ganadería actual; deberíamos incluir a todos los mamíferos, también los seres humanos; pero el ganado ovino y vacuno constituye una inmensa mayoría. Se estima, con escasa precisión, que el metano contribuye más o menos con un 5 por 100 al total del efecto invernadero (entre 1,5 y 2 grados, de los 33 grados de más que tiene el planeta gracias a los gases de efecto invernadero).

Los sumideros de metano, teniendo en cuenta que el principal mecanismo natural para hacerlo desaparecer del aire es cuando reacciona químicamente con el radical –OH (hidroxilo), son muy poco conocidos. El radical hidroxilo (un átomo de oxígeno y otro de hidrógeno) se forma en la naturaleza, en la alta atmósfera, debido al efecto de los rayos cósmicos sobre las moléculas de vapor de agua. El efecto de ese radical químico sobre el metano se ejerce de modo que la permanencia del gas en el aire acaba siendo, en promedio, esos diez años. Es, además, un gas estable y poco soluble en agua, pero es también absorbido, en pequeña proporción, por el suelo, en un proceso que dura en torno a un siglo. Y, por último, llega a perderse en la estratosfera combinándose con otros radicales libres como el cloro o el oxígeno monoatómico.

De los sumideros de otros gases invernadero, quizá merezca mención el que se refiere a uno de los más potentes, bastante más incluso que el metano pero que influye muy poco en el efecto invernadero total porque es aún más escaso en el aire que él: se trata del óxido nitroso (o monóxido de dinitrógeno, N2O).

Este gas aparece de forma natural por descomposición microbiana del suelo —se llama nitrificación—. Pero los fertilizantes agrícolas intensifican esa producción, y también lo hace, en menor medida, el uso de combustibles fósiles en motores y máquinas. A cantidades iguales, su efecto invernadero sería casi 300 veces superior al del CO2, y, además, su vida media es muy elevada, más de un siglo. Pero como hay muy poco N2O en el aire, sólo contribuye al efecto invernadero con un 3 por 100 (en torno a un grado).

Sus sumideros son completamente naturales y difícilmente podríamos actuar sobre ellos: en primer lugar, de nuevo la alta atmósfera, donde la luz solar y el oxígeno monoatómico reaccionan con el gas produciendo óxido nítrico y dióxido de nitrógeno. También el suelo lo absorbe en pequeña cantidad mediante la desnitrificación bacteriana, que lo convierte en nitrógeno gaseoso; pero es un caso simbólico. O sea que, igual que con el metano, el mejor sumidero sería sencillamente evitar los manantiales, es decir, los procesos agrícolas e industriales que lo producen.

Por último, nos queda el ozono, otro gas invernadero natural que está aumentando en la atmósfera debido a la mano del hombre. El ozono que se produce en las capas más bajas del aire es el resultado de complejas reacciones fotoquímicas, relacionadas con la contaminación, como ya vimos en su momento al hablar del smog oxidante. El ozono de las capas bajas del aire es considerado un contaminante dañino para los seres vivos por su enorme potencial oxidante, es decir, corrosivo. Pero ejercer esa acción oxidante lo convierte en oxígeno, que es bastante más estable y menos oxidante; o sea, que el ozono tiene un ciclo de vida muy corto, a presión y temperatura normales; es decir, junto al suelo. Su concentración es muy variable porque depende de las zonas donde aparece, que suelen coincidir con las grandes ciudades y, sobre todo, las grandes áreas industrializadas, especialmente en países de clima seco y soleado.

En todo caso, mientras permanece como oxígeno triatómico antes de convertirse en oxígeno normal, el ozono es un potente gas de efecto invernadero. Y lo es no sólo cerca del suelo, donde suele convertirse rápidamente en oxígeno, sino sobre todo en el resto de troposfera —hasta niveles de 10-12 km de altitud—, donde su permanencia es mayor según disminuyen la presión y la temperatura con la altitud. Hasta tal punto, que se piensa que el ozono troposférico, que se mide desde finales del siglo XIX, puede haberse multiplicado por cuatro en ese tiempo debido a las industrias y al transporte. Por esta razón se estima que puede estar ya contribuyendo al efecto invernadero con casi dos grados. En cuanto a sus sumideros, en superficie no son necesarios porque él mismo se convierte en oxígeno. Y en la estratosfera, su concentración oscila mucho, mostrando en la primavera antártica mínimos preocupantes que, en cambio, podrían favorecernos bloqueando levemente el calentamiento.

Sólo cabe, pues, una vez más la defensa pasiva; o sea, intensificar las estrategias de disminución de emisiones contaminantes de los precursores del ozono. Lo que implica diseñar combustiones y procesos químicos industriales más limpios, más eficientes, con menor emisión de compuestos orgánicos volátiles y de óxidos de nitrógeno, que favorecen la aparición de ozono.

En todo caso, la influencia sobre el efecto invernadero del ozono troposférico es en estos momentos la tercera parte del efecto del CO2, lo que es bastante. Pero al ozono le ocurre lo mismo que al vapor de agua: al contrario que el CO2, se reparten por las capas bajas de la atmósfera de manera muy irregular. Por ejemplo, el ozono es muchísimo más abundante en el hemisferio norte que en el sur, como ocurre con los aerosoles contaminantes, sobre todo sulfurosos, muy indeseables pero que podrían frenar el calentamiento. Esta abundancia del ozono en la mitad septentrional del planeta ha sido puesta de manifiesto por un estudio del GISS-NASA, que lo relaciona con el calentamiento que se está produciendo en el Ártico, influyendo en la mitad de la elevación térmica que se observa allí en verano (el efecto del ozono es menor en invierno). El citado estudio de la NASA concluye: «Beneficio inesperado de los esfuerzos por reducir la contaminación: si producimos menos ozono no sólo mejora la calidad del aire, sino que también combatimos el calentamiento en el Ártico».

Y hemos dejado para el final una breve mención al caso de los CFC, los famosos gases clorofluorocarbonados. Además de estar implicados potencialmente en la destrucción de la capa de ozono, en la estratosfera y sólo durante la primavera antártica, son gases bastante potentes de efecto invernadero. Y no tienen sumideros naturales porque precisamente fueron ideados y fabricados por la industria buscando precisamente su estabilidad química, su no degradación. De hecho, el único sumidero conocido es el de la capa de ozono, suponiendo que los gases CFC consigan llegar hasta esa altitud, a varias decenas de kilómetros.

La otra alternativa es obvia: puesto que son artificiales, dejemos de producirlos. Y ésa fue una decisión rápidamente adoptada y aceptada por el mundo desarrollado, no tanto por una concienciación ambiental como por la existencia de gases sustitutorios incluso más rentables que los CFC. Y, además, como rezan las etiquetas comerciales, son gases que «no dañan la capa de ozono». Miel sobre hojuelas para la economía de mercado...

4.2.3. Consenso: ¿debate... o combate?

4.2.3.1. Un término inadecuado

La opinión pública, e incluso una enorme mayoría de científicos profesionales, consideran que existe un consenso prácticamente absoluto en torno a la existencia de un cambio climático, quizá catastrófico, originado por la mano del hombre industrializado. Situación que tiende a empeorar, quizá dramáticamente, en los próximos años. Y eso en absolutamente todas regiones del mundo

Cuando uno le pregunta a algún amigo no necesariamente experto en estos temas, en la típica conversación de sobremesa, que explique el porqué de esa gravedad del cambio climático, inmediatamente nos citará unas cuantas cuestiones horribles que se supone que ya están ocurriendo. Por ejemplo, el incremento alarmante del nivel del mar, el deshielo generalizado de los hielos de todo el mundo y, desde luego, las innumerables catástrofes que la atmósfera nos ofrece por doquier, desde sequías jamás vividas hasta ciclones tropicales devastadores o calores veraniegos insoportables. Y es que desde que tenemos encima el drama este del cambio climático, «ya nada es como antes». Es decir, todo está mucho peor, lo que prueba que caminamos inexorablemente hacia una catástrofe planetaria. Por eso millones de voces se alzan en todo el mundo proclamando que «hay que salvar al planeta».

Es curioso que si se le pide al que así se expresa que aporte alguna evidencia de todos esos dramas que están por ocurrir, nadie pueda hacerlo, al menos no con testimonios personales. Aunque, desde luego, siempre surge el argumento de autoridad: «lo dicen todos los científicos», «lo ha declarado la ONU», «todos los periódicos coinciden», «es indudable que estamos ante una evidente catástrofe». O sea, que el consenso científico es manifiesto e indudable.

No insistiremos, por caridad, en la lamentablemente frecuente mención —por parte de periódicos y revistas, tertulianos y muchas otras personas e instituciones— de los tsunamis, los terremotos y las erupciones volcánicas como una prueba más de la maldad infinita del cambio climático.

Pero nadie responde nada cuando se le pregunta, ya en plan más personal, en qué ha afectado a su vida cotidiana el horroroso cambio climático. Nadie sabe qué responder; los más sensatos confiesan que a ellos no les ha dañado directamente pero que no cabe la menor duda de que «ya no llueve como antes», «la nieve está desapareciendo», «nos estamos quedando sin hielos polares», «el mar no para de subir y las costas ya no tienen casi playas», «cada vez hace más calor», «no tenemos ya casi agua potable», «los ciclones tropicales son cada vez más intensos y destructores», y así sucesivamente.

Es fácil replicar que nada de eso, suponiendo que sea cierto, les afecta de forma directa. Y en tal caso suele ser frecuente que el debate se acabe con una expresión airada del interlocutor, que de repente parece ofendido: «¡O sea que tú eres más listo que todos los científicos del mundo, tú sabes más que toda la ONU!».

Sin embargo, es cierto que todas esas cuestiones, si es que están ocurriendo, afectan muy poco o nada a la vida de los españoles —o de los franceses o de los americanos—. Pero es que, además:

1. El aumento del nivel del mar que se cree haber medido, con un margen de error que casi da risa frente a la magnitud de lo que se pretende medir, es de unos pocos milímetros por decenio. Las olas suben y bajan en unos cuantos segundos muchísimo más, y las mareas tienen a veces oscilaciones de muchos metros dos veces al día.

2. El deshielo de los polos no es tal en el sur, y aunque en verano sí hay un deshielo progresivo en el Polo Norte, se trata de hielo flotante cuya fusión no afecta al nivel del mar, por el principio de Arquímedes. A 10 de marzo de 2013, y éste es un dato que han pasado por alto olímpicamente todos los periódicos, la suma total de los hielos flotantes (o sea, de los océanos Glaciales Ártico y Antártico) es superior en casi medio millón de kilómetros cuadrados a la media de los últimos treinta años... ¿Los hielos están desapareciendo? No, es más bien todo lo contrario.

3. Los cambios de tiempo y sus veleidades extremas siempre han ocurrido, y su frecuencia, de haber aumentado, suele ser estadísticamente inapreciable en la vida de una persona (por ejemplo, si la frecuencia de veranos abrasadores como 2003 creciese de dos veces por siglo a tres veces por siglo, eso sería obviamente un cambio climático ya que la frecuencia de ocurrencia de esos sucesos habría aumentado un 50 por 100; pero aun así, muchas personas jamás podrían percatarse de ello). En todo caso, en los últimos cuarenta años ha habido muchas menos tragedias horribles de tipo meteorológico que en los anteriores cuarenta años, cuando no había calentamiento.

4. Las cosas que ocurrían antes —como mucho, unos decenios, la memoria de las gentes, siempre frágil e imperfecta, no puede remontarse a más— siempre ocurrieron, ocurren y ocurrirán. Pero si consultamos los archivos climatológicos, apenas disponemos de datos fiables desde hace menos de un siglo; y son datos escasos y de muy pocas zonas concretas, que para nada indican que ahora estemos peor. Eso sí, somos muchos más seres humanos en la Tierra, sobre todo pobres. Pero eso nada tiene que ver con el clima y sus eventuales cambios.

5. El agua potable no falta en España; es más, es tan barata en los grifos de nuestras casas que no nos importa malgastarla en los váteres. No es extraño: el litro nos sale a una milésima de euro... ¿Quién dijo que nos falta el agua?

6. Los ciclones tropicales del Caribe ni son más numerosos ni más intensos que hace unos cuantos decenios. En cuanto a los daños materiales, por supuesto, cuando un ciclón afecta a un país rico las pérdidas en dinero son inmensas. Pero eso no ocurre en los países pobres, sobre todo de Asia. Aunque es allí donde se dan los peores ciclones, y los más devastadores, con mucho.

No importa. La gente sigue creyendo, como una verdad revelada, que estamos ante un drama. O sea, que todo va mal... Y al final, para la inmensa mayoría de ciudadanos la cosa es muy sencilla: o hay un cambio climático catastrófico, como «dicen todos los científicos del mundo», o es una gran mentira y nos tienen engañados a todos, como en tantas otras cosas... No hay matices, no hay gama de grises: o blanco o negro.

Bien, lo que importa es saber si es cierto que «todo el mundo» afirma que estamos ya inmersos en un cambio climático catastrófico, y que éste constituye la peor amenaza que actualmente se cierne sobre la humanidad. ¿Existe realmente entre los científicos algún tipo de consenso total y absoluto?

Podríamos encontrar varias respuestas. Por ejemplo, lo del cambio climático catastrófico lo dicen, de manera directa o más o menos solapadamente, organismos internacionales prestigiosos con un premio Nobel de la Paz a las espaldas, como el IPCC. También lo dicen personas relevantes del mundo político (Al Gore representa bien a ese colectivo), y desde luego numerosos científicos y centros de investigación prestigiosos (la NASA, el Centro Hadley británico, las Academias de Ciencia de diversas naciones, numerosos departamentos universitarios, etc.), aunque ellos matizan bastante más en sus informes. Y sólo una minoría, despreciada cuando no calumniada o acusada de «mala ciencia» por los anteriores, discrepa en algunos puntos con los que no están del todo o nada de acuerdo.

O sea, que parece difícil negar la existencia del consenso, ¿no? Así que fin del asunto.

Pero, claro, incluso aceptando la existencia de dicho consenso científico, que desde luego debe quedar claro que no existe en absoluto, la pregunta crucial que hay que plantearse sería la siguiente: ¿se hace la ciencia por consenso? Y, ya puestos, en el caso del cambio climático, ¿consenso... respecto a qué exactamente?

Empezando por el hecho de que no hay un solo cambio de clima, sino muchos cambios de clima, en muchas regiones diferentes, y no todos del mismo signo ni simultáneo. Sin ir más lejos, en los últimos treinta años el Ártico se está calentando porque sus hielos muestran una progresiva disminución, lo mismo que los hielos de los glaciares continentales. Pero esa disminución se compensa con creces por el crecimiento de los hielos flotantes antárticos; sumados ambos efectos, y a fecha de 10 de marzo de 2013, se constata un incremento de los hielos flotantes del planeta respecto a la media de los últimos treinta años. Lo mismo puede decirse, aunque los datos tienen menor precisión, de los hielos continentales (el 90 por 100 en la Antártida).

Una de las peores deformaciones de la realidad de la que se puede acusar a los científicos próximos al IPCC es haber dejado creer al resto del mundo que había un único cambio climático, homogéneo y generalizado. Véase, sin ir más lejos, la enorme disparidad entre lo que ocurre en ambos polos. Que lo hayan hecho voluntaria o involuntariamente no viene al caso, pero ésta es quizá la peor desinformación que traslucen los informes del IPCC. Por mucho que se diga que han sido respaldados por miles de científicos de todas las especialidades y del mundo entero. Cuando explicábamos la forma de trabajar del IPCC, ya aludimos a este supuesto, e inexistente, «consenso científico» universal.

Decía Galileo que en lo tocante a la ciencia, la autoridad de un millar no es superior al humilde razonamiento de una sola persona. Él se refería, probablemente, a la autoridad eclesiástica, pero en esencia viene a ser lo mismo; es decir, la ciencia no funciona por mayorías o minorías, sino por demostraciones...

En realidad, absolutamente ningún científico niega que haya ahora, y que haya habido en el pasado, cambios climáticos. Muchos de ellos estiman ahora, además, que el impacto de la especie humana tecnificada ejerce hoy tal influencia sobre el entorno natural, y en tantas direcciones, que también el clima se ve afectado, y cada vez más, a través del mecanismo indirecto de las emisiones de gases invernadero.

Eso supone darle una preponderancia a los gases invernadero, y específicamente al CO2, en esos cambios de clima; pero es posible, de hecho existen diversas teorías al respecto, que ése no sea el único mecanismo que interviene en dichos cambios de clima.

Los informes del IPCC constituyen, en cierto modo, el cuerpo doctrinario que representaría al famoso consenso. Y, como ocurre con todas las doctrinas, sus adeptos no aceptan la más mínima crítica, aunque sea parcial, a esas conclusiones; a pesar de que hay otros científicos que se salen, por así decirlo, de ese cauce común sin negar de forma total lo que afirma el IPCC, sino poniendo el acento en la duda, en el desconocimiento parcial, en las incertidumbres..., mientras no se aporten más y mejores pruebas. Sencillamente, porque así es como funciona, o debe funcionar, la ciencia. El método científico no se basa en consensos ni en doctrinas más o menos indiscutibles, sino que exige debates y discusiones que acentúen las dudas, los errores, los niveles de incertidumbre. Espíritu crítico, en suma; no seguidismo autoritario.

En cualquier caso, la desigualdad entre el mundo rico y el mundo en desarrollo en el seno del IPCC —donde predominan de forma abrumadoramente mayoritaria los científicos estadounidenses y europeos— sólo es un reflejo de la realidad mundial, pero resulta ciertamente desasosegante. La duda cabe: ¿no será el cambio climático un problema... sólo de ricos?

Los científicos que no comulgan con la doctrina que en cierto modo simbolizan los informes del IPCC suelen ser ignorados a la hora de considerar sus aportaciones; muchos hablan de censura científica. Lo que pasa es que antes el único control posible de la ciencia que se hacía en el mundo tenía como soporte las famosas revistas especializadas y con revisión por otros expertos para garantizar la calidad de los trabajos allí publicados; en inglés, el sistema se llama peer review («revisión por los pares»). Pero desde hace unos años han aparecido otras vías que podrían parecer exóticas en el pasado reciente: la existencia de webs escépticas de gran calidad científica. En ellas puede uno enterarse de que existen centenares de trabajos científicos en revistas de referencia, o incluso que no han sido publicados nunca en revistas porque huyen ya de ese sistema que consideran anticuado y, sin duda, parcial en cuanto a la famosa «censura» científica a la que aludíamos antes.

¿Son muchos los trabajos publicados en revistas oficiales con revisión de expertos que, sin embargo, son ignorados por los informes del IPCC? Uno tendería a pensar que no, que son muy pocos. Pero en 2009 una web se molestó en censar esos trabajos: http://www.popular technology.net/2009/10/peer-reviewed-papers-supporting.html. Sumaban algo más de 900, un número que obviamente fue creciendo hasta el punto de que, a finales de 2012, ya eran más de 1.100 artículos de primer nivel. La inmensa mayoría de las revistas consideradas son profesionales y científicas; conviene insistir en ello porque Al Gore se atrevió a afirmar precisamente hace unos años que no había ni un solo artículo en contra de cualquier aspecto de los informes del IPCC que hubiese sido publicado en ninguna revista seria. Lo interesante es que todavía hoy, en 2013, se sigue repitiendo aquella afirmación de Al Gore que, sin embargo, nadie que tenga un mínimo nivel de conocimiento se atreve ya a mantener.

No es objeto de este libro analizar en detalle unos y otros artículos científicos, por muy respetables que sean sus autores y las investigaciones que se dan a conocer. Nos limitamos a señalar que esa controversia es usual en ciencia: que haya debate, que surjan discusiones, que se busquen más y mejores pruebas para certificar las tesis expuestas, que se generen nuevas hipótesis, complementarias o no... Sobre todo cuando se trata de un sujeto de tan enorme tamaño como la atmósfera, y de unas predicciones que abarcan no sólo a todo el planeta sino a unos plazos temporales de muchos decenios, cuando no de siglos. Aquí no caben los prejuicios —los pre-juicios—, es decir, las tomas de posición a priori. Ni, a mayor abundamiento, los dogmas ni las doctrinas...

Lo que los científicos discuten no tiene mucho que ver con lo que sacan luego los titulares periodísticos; en realidad, los miles de trabajos científicos que se van publicando en torno a esta cuestión versan sobre temas muy variados, y habitualmente de gran complejidad conceptual. Incluso versan sobre aspectos puramente metodológicos o sociológicos, y muchos de ellos generan —aunque eso no suele reflejarlo luego el IPCC— controversias y debates, como es normal.

En esencia, el mensaje que hemos denominado «doctrinal» y que le ha llegado a la inmensa mayoría de las personas y a los medios de comunicación podría expresarse así: «Por culpa de las actividades humanas nos enfrentamos ya a un cambio climático dramático que nos está haciendo mucho daño y que en el futuro podría acabar siendo catastrófico si no se toman medidas urgentes; el responsable último es un gas contaminante, el CO2, emitido por chimeneas y tubos de escape. Y los hielos están desapareciendo, el nivel del mar sube imparablemente, cada vez hay más catástrofes atmosféricas en todo el mundo, el calentamiento nos lleva hacia el infierno, etc.».

Debería quedar muy claro que el consenso es imposible porque no estamos ante una única teoría —que exige una hipótesis que sea luego validada por los experimentos, y sobre la que se sustenten otras teorías y predicciones que asimismo han de funcionar—, sino que en la cuestión de los cambios de clima se realizan numerosas conjeturas, hacia el pasado y hacia el futuro, y en múltiples campos de experimentación que no sólo afectan a la atmósfera sino a los océanos, los continentes, las zonas polares, incluso al Sol y al resto del cosmos. Demasiados temas, y muy diferentes unos de otros, para los que disponemos de muy escaso sustento experimental, y que abarcan tan inmenso campo de acción para esos posibles experimentos que resulta inabarcable con un mínimo de detalle.

Es probablemente a causa de estas dificultades por lo que casi toda la ciencia del clima que nos alarma en torno a los cambios rápidos que pueda sufrir la atmósfera por la mano del hombre reposa sobre modelizaciones varias. Es decir, corsés matemáticos en los que los mejores especialistas intentan encajar lo poco que sabemos acerca del pasado y el presente de nuestros climas. No es, pues, una cuestión experimental propiamente dicha, aunque obviamente los observatorios y los satélites ahí están para aportar sus datos, hasta donde éstos sean buenos y/o numerosos...

Pero ya vimos que los modelos matemáticos son herramientas auxiliares, de contraste y verificación; lo que dicen no constituye ciencia real, es decir, verificable. Una verificación empírica que debe ser susceptible de reproducción universal y también de falsación (o sea, hay que poder probar que el resultado es cierto o no).

Todo ello significa que el consenso científico no es, en sí mismo, un argumento que se pueda aducir a favor de una determinada tesis porque, simplemente, no forma parte del método científico. Como mucho, puede ser un indicio que debe dar lugar a posteriores verificaciones para ver cuántas premisas de las que se dan por supuestas se verifican, y de qué manera unas u otras interaccionan entre sí, etc.

Desde luego, la ciencia acepta consensos sobre determinadas materias —eso sí, muy concretas— en las que no están muchas cosas probadas pero sí existen argumentos sólidos que se basan directa o indirectamente en el método científico. Lo que en tal caso ocurre es que dichos consensos están sometidos a constante revisión y evaluación, y obviamente a eventuales elementos de contradicción igualmente basados en el método científico.

Por ejemplo, el Big Bang es un elemento de cosmología que genera consenso; no hay pruebas directas, ni las hubo cuando el belga Lemaître enunció por primera vez su teoría del «huevo cósmico». Pero la crítica, las hipótesis alternativas fallidas —pero no abandonadas del todo, como la idea de los universos paralelos (multiversos) jamás apoyada por prueba alguna—, las verificaciones indirectas que desde entonces han ido apareciendo (como la realidad de la radiación de fondo fósil de los 3 Kelvin) y muchos otros detalles hacen de esta hipótesis una realidad aceptada por los científicos mientras no haya más pruebas en contra de las que parecen existir a favor. Con cierto humor, se suele decir en estos casos que «es cierto... mientras no se demuestre lo contrario».

Quizá eso es lo que falla en el actual consenso en torno a las tesis del IPCC sobre el advenimiento de un cambio climático devastador presente y, sobre todo, futuro. Los que defienden esas tesis catastrofistas no parecen dispuestos a reconocer los eventuales elementos de contradicción que pudieran aparecer y que, de hecho, están apareciendo con más frecuencia de la que les gustaría. Por ejemplo, la subestimación en los cuatro informes anteriores del IPCC de la importancia de las corrientes marinas, de la nubosidad en la atmósfera o de las variaciones de la radiación solar y cósmica.

No deja de ser sorprendente que esos muchos y buenos científicos (de la NASA, del Centro Hadley y de otras instituciones igualmente prestigiosas) defiendan sus afirmaciones sabiendo que reposan sobre elementos difíciles o imposibles de someter a verificación experimental, y que son estimadas con incertidumbres tan notables que pueden ser subestimadas o sobrestimadas de forma aleatoria con grandes desviaciones. Y esto vale para casi toda ciencia climática que se refiera a las concentraciones de gases de efecto invernadero del pasado remoto o reciente, o bien a la evolución en el pasado de temperaturas y precipitaciones, o a las futuras evoluciones de los climas a partir de modelos matemáticos imperfectos, la importancia prevalente (o no) del CO2como gas invernadero en contraste con el mal conocido efecto del vapor de agua, la trascendencia de las nubes, las corrientes marinas o la actividad solar, y muchos otros temas de este estilo que en gran parte ya hemos analizado.

En conjunto, ya hemos dejado claro que es mucho más lo que ignoramos que lo que sabemos. Pero ésa es una incertidumbre global que nunca se ve reflejada en los informes del IPCC; al contrario, sus afirmaciones son defendidas casi como certezas garantizadas, con el fin de que los políticos no duden acerca de las decisiones que se deben tomar. Y las toman, sí, pero luego no las cumplen. Véase el fiasco del Protocolo de Kioto...

Un buen ejemplo del grado de convencimiento general acerca de la existencia de ese «consenso» indiscutible podría ser el anuncio por parte de la Organización Mundial de la Salud, en diciembre de 2011, de que más de trece millones de personas, esencialmente del Tercer Mundo, mueren anualmente a causa del cambio climático. Dicho comunicado fue hecho público a raíz del fracaso de la reunión de Durban, que tuvo lugar a comienzos de aquel diciembre de 2011, y en la que 30.000 delegados de todo el mundo viajaron durante muchos días a Suráfrica, con el gasto y la contaminación inherentes a semejante viaje, en plena crisis económica. Y lo hicieron... para nada; es decir, para certificar un fracaso anunciado de antemano. Se sabía que no se iba a decidir nada, pero allá que se fueron todos. Así funcionan estas cosas...

Bien, volviendo al comunicado de la OMS, que hizo público la directora de Salud Pública y Medio Ambiente, la española María Neira, una de sus frases introductorias decía literalmente: «El 25 por 100 de la mortalidad y morbilidad mundial podría ser evitado con inversiones ambientales que introdujeran el elemento salud. Ese 25 por 100 significa 13 millones de muertes al año...». Curiosamente, habla de «inversiones ambientales», entre las cuales hay que pensar que estarían las que pudieran remediar el cambio climático (suponiendo que semejantes inversiones fueran posibles, que no es el caso). Pero aún resulta más interesante lo que viene a continuación: «El calentamiento global no es una cuestión que sólo afecta a los glaciares, sino que afecta muy directamente a nuestra salud. La contaminación del aire causa 3 millones de muertes, y el cambio climático afecta también al acceso al agua potable, con el aumento de enfermedades como la diarrea y el cólera».

Que sepamos, la contaminación del aire nada tiene que ver con el cambio climático y sí con la insostenibilidad del uso de fuentes energéticas fósiles, y la ineficiencia y el desperdicio que nos caracteriza al utilizarlas; sobre todo ello el mundo rico ha edificado sus pilares de riqueza y opulencia, y el mundo pobre que está dejando de serlo (China e India) sigue la misma senda. En cuanto a que el cambio climático pueda o no influir en el acceso al agua potable (no debería, puesto que no sólo no llueve menos, en general, sino incluso un poco más que hace un siglo) y, en consecuencia, en las diarreas y el cólera, la verdad es que tampoco eso es cosa del cambio climático sino que obedece al escaso o nulo acceso a infraestructuras de agua potable y al tratamiento de las aguas residuales en los países más pobres, y a las condiciones extremadamente miserables en las que viven sus poblaciones.

Y todo ello, con o sin cambio climático y ante la indiferencia del mundo rico, que, desde luego, no sufre ese tipo de problemas. La pobreza actual del Tercer Mundo, diga lo que diga la OMS, no se debe al cambio climático sino a todo un conjunto de situaciones históricas y de opresión de unos humanos respecto a otros. Todo lo demás son ganas de subirse a un tren que no lleva a ningún sitio... O quizá sean ganas de hablar por hablar.

Eso sí, al afirmar todo esto, al mezclar churras y merinas —es decir, metiendo con calzador el cambio climático en algo que nada tiene que ver con el asunto—, los altos cargos de la OMS consiguen una notoriedad que a lo mejor nunca hubiesen alcanzado si se hubieran limitado a hablar de la pobreza y la enfermedad, que es la triste realidad a la que se tienen que enfrentar. Y es que, ay, el cambio climático está de moda; y tiene las espaldas muy anchas.

Una historiadora de la ciencia de la Universidad californiana de San Diego, Naomi Oreskes, publicó en la conocida revista Science que de 928 artículos científicos seleccionados entre 1993 y 2008 en el ISI (Information Science Institute, también llamado Web of Knowledge, web del conocimiento) bajo el epígrafe «Cambio climático global», ninguno se oponía explícitamente a la noción de calentamiento global antropogénico.

Pero poco después, uno de los científicos más relevantes en este tema, Richard Lindzen, experto físico atmosférico mundialmente reconocido, declaró que eso no era del todo cierto porque había mucha más ciencia que la que aparecía en el ISI, y que una cosa era que muchos artículos aceptaran utilizar el término calentamiento global antropogénico, y otra cosa que lo consideraran más o menos grave, sobre todo tan grave como para tomar medidas del estilo del Protocolo de Kioto. Él mismo había publicado trabajos (que habían sido incluidos en esos 928 artículos) en los que mostraba su rechazo al Protocolo de Kioto por inútil y perjudicial para la economía, aun aceptando la existencia de un posible y no muy intenso calentamiento antropogénico...

Pero los excesos se dan en todas partes; y el interés por negar los problemas del clima y, sobre todo, del uso de combustibles fósiles aparece virulentamente en boca de determinados políticos (los combustibles fósiles son más bien indeseables por motivos diferentes al cambio climático, debido a que originan una contaminación tóxica y muy nociva para los seres vivos que nada tiene que ver con el beneficioso CO2). Por ejemplo, un senador norteamericano, republicano, por Oklahoma, James M. Inhofe, bien conocido por su postura conservadora —muy extremista— y contrario a la idea del cambio climático por mor de su defensa cerrada del carbón, y secundariamente el petróleo y el gas natural, propició en 2007 la elaboración —nada menos que en el Comité de Medio Ambiente y Obras Públicas del Senado— de un informe que citaba a 650 científicos relevantes que no compartían los puntos de vista del IPCC, número que fue luego ampliándose hasta el último informe de dicho comité senatorial, que, en 2010, rebasaba el millar de nombres de autores de artículos.

La idea de Inhofe, obviamente, era la de combatir la idea intuitiva del «consenso científico» como una verdad absoluta e irrebatible en el tema del cambio climático. Al margen de la parcial actitud de este político concreto —muy de derechas y defensor acérrimo de los intereses de los productores de petróleo y carbón de su país—, lo cierto es que esa lista de artículos existe y que los autores son, en su mayoría, científicos relevantes. Aunque las diferencias, a veces sólo de matiz, que ellos expresan respecto a ciertas conclusiones del IPCC no necesariamente suponen, en su caso, una defensa cerrada del carbón y el petróleo, sino sobre todo una crítica científica al método, al uso de datos parciales, al procedimiento matemático de los modelos, a la obtención de determinadas conclusiones, y muchas otras cosas así. Algo que, por supuesto, no dice Inhofe... Quizá en lo único que tenga razón sea en afirmar que el tan cacareado consenso no existe en realidad.

Lo malo es que las dos posturas extremas —nada serias y, por supuesto, anticientíficas— que representan el demócrata Al Gore y el republicano Inhofe son consideradas por muchas personas como la expresión de los dos bandos científicos que se enfrentan. Como si fueran los creyentes y los herejes de alguna verdad mística: los primeros conocen la verdad acerca del cambio climático catastrófico que nos invade, y hacen lo posible por evitarlo; los segundos lo «niegan» todo, por las razones que sean, desde luego siempre sospechosas.

Puede que muchos ecologistas, periodistas, políticos o dirigentes empresariales crean que ése es el debate que conviene airear. Pero ningún científico mínimamente serio debiera dejarse arrastrar por ese tipo de sentimientos, por mucha que sea la presión social o laboral que le empuje a ello.

No hay negacionistas en ciencia, como tampoco existen los herejes. Ambas posturas pertenecen al mundo del fundamentalismo totalitario y autoritario, que impone incluso a la fuerza ideas en las que creen unos cuantos, y que otros pueden no compartir. En esto de los climas y sus cambios, las cosas no van por ahí. Por eso se puede, y se debe, discrepar mucho o poco, con razón o sin ella, con aporte documental abundante o escaso, acerca de la fiabilidad, las incertidumbres, las cosas que se creen conocer mejor o peor, lo que haya que hacer o dejar de hacer, algún aspecto concreto de una determinada investigación... Esas discrepancias en temas muy complejos, multidisciplinares y sometidos a debate no sólo científico sino también económico, social y político, son absolutamente obligadas, incluso inevitables. Porque estamos ante un cúmulo de conocimientos e hipótesis de enorme complejidad y multidireccional.

4.2.3.2. Webs y blogs

El uso de Internet como medio sustitutorio o complementario de las revistas científicas de referencia e incluso de los congresos presenciales tiene, en este y en muchos otros campos de actividad, muchas ventajas; pero también no pocos inconvenientes debido a que, como ocurre con todo lo que circula en la red, no es fácil discriminar el polvo de la paja.

Con todo, en estas cuestiones relacionadas con los cambios de clima es fácil establecer una cierta categoría de «seriedad» en webs de uno u otro signo. Sobre todo gracias a la ventaja de contar, en los blogs serios, con las opiniones de muchos participantes, que suelen identificarse y son, a menudo, personas cualificadas, e incluso expertos en el tema que se debate.

Ganan por mayoría aplastante las webs y blogs a favor de las tesis del IPCC, que, no lo olvidemos, son las oficiales de la ONU y, por tanto, de los gobiernos. O sea, que, sin pretender en absoluto agotar aquí el tema, ofrecemos a continuación una breve lista de webs y blogs que no siguen esa línea oficial. Los mejores, que destacamos al principio, los consultamos casi a diario, junto a las páginas oficiales de agencias meteorológicas, OMM e IPCC, además de algunos centros de investigación relacionados con el asunto (GISS, HADLEY, NCAR, The Cryosphere...). Desde luego, a poco que uno dedique algo de tiempo a consultar algunas de estas webs, verá enseguida que en estas cuestiones puede haber de todo menos consenso...

Las mejores

(excepto una en español y otra en portugués, las demás están en inglés):

• co2 (Antón Uriarte, en español): http://antonuriarte.blogspot. com.es/

• Watts Up With That?

• Dr. Roger Pielke Jr.

• Climate Etc. Judith Curry

• Lucia’s The Blackboard

• Climate Audit

• Dr. Tim Ball

• Ecotretas (en portugués): http://ecotretas.blogspot.com.es/

Otras buenas webs:

• Climate Abyss-John Nielsen-Gammon

• Climate Debate Daily

• Climate Science-Pielke Sr.

• Moshtemp-Steve Mosher

• The Lukewarmer’s Way-Tom Fuller

• 1000+ skeptical papers

• Climate Skeptic

• CO2 Science

• Digging in the Clay

• Dr. Norman Page

• Friends of Science

• ICECAP

• Jennifer Marohasy

• The GWPF

• Tom Nelson

• William Briggs

• World Climate Report

En español:

• Plaza Moyua: http://plazamoyua.com/tag/climategate-2-0/

• Desde el exilio: http://www.desdeelexilio.com/tag/climategate/

• El escéptico climático: http://elescepticoclimatico.blogspot.com.es/

• Alerta cambio climático: http://www.alertaclimatico.com.ar/

• Espejitos verdes: http://www.espejitosverdes.com.ar/

Un último comentario acerca de adjetivos impropios utilizados en un debate que las más de las veces ha tomado un cariz futbolero más que estrictamente científico. Algunos científicos del IPCC, y no sólo ellos, sino también muchos periodistas, ecologistas e incluso políticos, han venido comentando en los últimos años de manera despectiva, cuando no agresivamente, las supuestas tonterías de los críticos, acuñando como insultante el término «negacionista» —obviamente peyorativo porque suele aplicarse a los que niegan el Holocausto nazi—, pero también el adjetivo «escéptico». Esto último, como hemos visto, resulta sorprendente y demuestra que quien lo hace creyendo que insulta es sencillamente porque ignora las premisas básicas del método científico. Muchos periodistas tratan incluso de herejes a estos escépticos, lo cual mueve a risa —las herejías se cometen contra las creencias religiosas, pero no tienen sentido entre escépticos que trabajan en ciencia—. E incluso algún alto cargo de la ONU y algunos científicos relevantes han llegado a decir que los que critican los informes del IPCC son como criminales. Lo cual raya casi en la enfermedad mental.

Pero es que una revista tan seria y reputada como Scientific American titulaba un trabajo publicado en octubre de 2010 de la siguiente manera: «Climate Heretic: Judith Curry turns on her colleagues». Hay que decir que la doctora Curry pertenece al grupo de científicos reputados y especializados en climatología, autora principal en los primeros informes del IPCC, y que se fue mostrando con el paso de los años cada vez más crítica con muchas de las conclusiones, según ella, abusivas y hasta erróneas, de ese mismo IPCC con el que ella colaboró de manera relevante. Lo llamativo de este caso que comentamos es que nada menos que Scientific American publique un artículo —por cierto, firmado por otro científico, el Dr. Michael D. Lemonick— en el que se califica de hereje a una colega con cuyas conclusiones discrepa. El mundo al revés; ya sólo nos faltan los autos de fe...

También tuvo mucho éxito en Londres el estreno de una obra de teatro, en el invierno 2010-2011, titulada The Heretic, escrita por el dramaturgo Richard Bean. El hereje en cuestión es, curiosamente, una científica llamada Diane Cassell, que en la ficción teatral es vilipendiada, demonizada y, por supuesto, perseguida por sus colegas. Su «herejía» —en la ficción teatral— consiste en negar algunos aspectos relacionados con la subida del nivel del mar en las islas Maldivas, medida en milímetros por decenio, cuando otros efectos sobre el nivel del mar son de una magnitud muy superior. Por supuesto, la obra de teatro no es científica; estos datos sólo sirven para situar el drama de esta investigadora que termina por ser ridiculizada por todos. Aunque pudiera tener razón...

Lo curioso es que cuando uno lee lo que escribe la doctora Curry en contra, por ejemplo, del calentamiento en forma de palo de hockey (llegó a acusar a sus colegas del IPCC de comportarse como «una tribu salvaje que defiende su poblado»), o bien lo que publican aquellos que discuten la minuciosa precisión —supuesta— precisamente a la hora de medir el nivel del mar, por sólo citar estos dos temas de controversia concretos, es difícil no pensar que sus argumentos están cargados de razón... en este caso no teatral sino científica. Lo que nada tiene que ver con herejías de ningún tipo, claro.

Y que conste que en el campo de los escépticos hay de todo; incluso hay más desmesura que en el campo de los científicos próximos al IPCC (porque éstos, al menos, son científicos y racionales, obviamente, aunque tan «humanos» como cualquiera). Algunas voces suenan realmente desafinadas, como el propio senador Inhofe, ya citado, y no digamos el «enloquecido», sobre todo en las formas, lord Monckton —no confundir con otro lord Monkton, de ortografía levemente diferente, que fue ministro británico a finales de los años noventa del siglo pasado—, quien llegó a decir públicamente que los implicados en el Climategate eran unos auténticos criminales...

La desmesura en el campo de los críticos al IPCC y al cambio climático en general no es sólo política —conservadora— sino sobre todo económica, lo que parece consecuente. Los intereses de las grandes industrias contaminantes —carbón, petróleo— y sus lobbys de información o desinformación son, sin duda, muy poderosos. Pero también eso se llega a saber, sin mucha dificultad. Y lo que realmente conviene remarcar es que no tienen sentido alguno los insultos, las descalificaciones personales o profesionales, los recuentos de cuántos militan en cada bando... Obviamente, nada de ello tendría por qué intervenir en el debate serio, ponderado y, por qué no, crítico; algo que la ciencia debe propiciar en busca de elementos de juicio que puedan ayudar a los que luego han de tomar decisiones políticas y económicas. Ése era el objetivo inicial del IPCC, o al menos lo que justificaba la existencia de semejante organismo en el seno de la ONU.

Pero no tiene sentido que eso llegue a inducir la aparición de una especie de nueva religión, con sus fieles y sus herejes; se trata de definir lo que sabemos, y hasta dónde lo sabemos, con suficiente garantía como para tomar medidas, y considerando igualmente las cautelas debidas ante la posibilidad de que esas medidas pudieran desencadenar un efecto perverso del estilo «peor el remedio que la enfermedad».

Entonces, ¿existe el consenso o no? ¿Sólo los científicos «serios» están en el bando que lidera el IPCC? ¿O acaso los hay también, y cuántos son, en el bando crítico? Lamentablemente, habrá que hablar, aunque sea de pasada, de la famosa guerra de cifras. ¿Cuántos están en cada bando y cuál es su cualificación?

Y, ya puestos, ¿existen realmente dos bandos? Porque muchos (muchos es poco preciso, queremos decir que son como mínimo unas cuantas decenas y como máximo algunos centenares, cuyo censo está recogido en diferentes documentos) científicos relevantes que han criticado algún aspecto de los informes finales del IPCC, en cuyos trabajos previos incluso algunos de ellos colaboraron anteriormente, se han negado luego a salir en determinadas listas supuestamente «escépticas» (ya hemos visto que este noble adjetivo ha sido prostituido por unos y otros) por la sencilla razón de que se les colocaba al mismo nivel o en el mismo cajón de sastre que otros críticos con los que estaban aún menos de acuerdo —por razones científicas, ideológicas o políticas.

Aunque suene ridículo, algunos de los más conocidos críticos en el tema del cambio climático se caracterizan por sus posturas extremas en el tema del sida (dicen que es el invento de un laboratorio clandestino), en los temas de la evolución (el hombre fue creado por Dios, y la evolución de millones de años es un mito), en cuestiones energéticas (el carbón y el petróleo son los que nos han hecho ricos, sigamos usándolos sin restricciones) o por estar a favor de lo nuclear tanto en aplicaciones pacíficas como bélicas... Ante un panorama así, ¿quién querría aparecer en una lista con semejantes personas, aun no estando de acuerdo como ellas en algún asunto del cambio climático?

También en el bando de los defensores del calentamiento global hay personajes pintorescos que esgrimen terrores apocalípticos que se nos vendrán encima por nuestra maldad intrínseca al hacerle daño a nuestra amada madre Tierra. Y lo menos que nos espera por esa maldad nuestra es algo así como el diluvio universal —los mares suben y suben— o el infierno climático —las temperaturas suben y suben—. En el campo ecologista-fundamentalista abundan mucho estas personas...

Es decir, que, en realidad, no existen esos dos bandos. Esto no es un partido de fútbol, con dos equipos compitiendo y muchos hinchas jaleándolos. Y menos mal; lo contrario hubiera sido penoso, aunque a veces eso es lo que parece que hay, a tenor de lo que nos cuentan los que más ruido hacen.

No es fácil establecer una clasificación de personas serias que entienden e investigan el problema. Por una parte, está un primer grupo, muy numeroso, de expertos de muchas especialidades que han participado y participan en los informes que sirvieron y sirven de base a los trabajos publicados por el IPCC. Estos científicos han sido autores principales o simples autores de base de alguna sección, en algún capítulo de los tres grandes grupos de trabajo. Ya hemos visto que son muchos, y que sólo una pequeña parte, en torno al 20 por 100, son especialistas en clima; los demás lo son en otras disciplinas que tienen que ver, de cerca o de lejos, con el clima, los ecosistemas, incluso la economía global y las poblaciones humanas...

También existe otro bando muy mayoritario de personas que, sin ser científicos del IPCC, se alinean, casi a ciegas podríamos decir, con esos informes del IPCC. Son la inmensa mayoría de las instituciones científicas, muy diversos organismos políticos de los países miembros del IPCC —no es extraño, el IPCC lo conforman naciones que han firmado el Protocolo de Kioto—, la mayoría de los periodistas, prácticamente todos los grupos ecologistas y, en general, buena parte de la sociedad no informada, que toma casi como verdad revelada lo que dicen los informes del IPCC porque eso es lo que trasladan los medios de comunicación con escasísimas excepciones.

También está el grupo de los pintorescos —científicamente hablando—, que, aunque hacen mucho ruido socialmente, tienen muy poco interés —o ninguno— por el tema que aquí nos ocupa. Los que insultan, los que se toman esto como una guerrilla de bandas callejeras, los que pierden la razón debido al apasionamiento de posturas dogmáticas de uno y otro signo. Los «hinchas», en cierto modo, capaces de insultar, incluso agredir. Llamarlos pintorescos es una forma muy suave de denominarlos. Suelen estar más cerca de los energúmenos. Y pertenecen a los dos bandos, pro y contra IPCC.

Y existe un grupo reducido, pero significativo, de científicos de buen nivel que critican algún aspecto aislado, o muchos de ellos, de lo que en los informes del IPCC aparece como algo casi seguro. Éstos suelen entablar polémicas científicas dentro, y sobre todo fuera, del ámbito de ese mismo IPCC, con publicaciones y, cada vez más, blogs muy serios en los que brilla una discusión que está ausente en las grandes revistas de referencia.

Y hay que contar, desde luego, con los grupos de presión económicos ligados a la economía de los combustibles fósiles, y que cuentan con poderosos aliados políticos y económicos, sobre todo en Estados Unidos. Pero también hay grupos de presión pro nucleares, que se verían muy beneficiados en sus negocios debido a que la energía nucleoeléctrica no emite CO2; también éstos tienen sus aliados políticos y económicos, sobre todo en Estados Unidos. Por eso el accidente nuclear de Fukushima, tras el horrible terremoto de Japón con su aún más destructivo maremoto, ha sido amplificado quizá en exceso: no sólo lo han hecho los ecologistas —contrarios desde siempre a esa forma de obtener energía—, sino también los grupos más opuestos a la idea del cambio climático, porque desean que se mantenga el consumo de fuentes de energía fósiles; y la energía nuclear es su competencia.

También hay grupos políticos de la izquierda más «verde» que critican a la sociedad de consumo vertebrada en torno al carbón y los hidrocarburos, y en general a un modelo de desarrollo con excesivo impacto ambiental y muy insolidario con el Tercer Mundo. Estos grupos —partidos ex comunistas, sindicatos de izquierda— ven en el cambio climático un emblema por el que luchar, símbolo de un mundo mejor, más limpio, más solidario, más igualitario. Sus fines son excelentes, sus medios no lo parecen tanto.

Y en el lado opuesto existen grupos políticos de derecha liberal, que defienden a capa y espada el capitalismo y la sociedad de consumo tal y como la hemos conocido desde finales del siglo XIX; un sistema basado en el crecimiento imparable y en el progreso capitalista, motivado pura y simplemente por el afán de lucro y que simbolizan el petróleo y el carbón. Es la economía de mercado llevada a su máxima expresión.

Son, pues, muchos colectivos, y ni siquiera son homogéneos. Quizá todos tengan algo de razón en alguna cosa, incluso los más extremistas. Pero lo malo es que en los debates suele primar la pasión sobre la razón; y eso ya tiene poco que ver con la ciencia. Un debate jamás debiera ser confundido con un combate.

Por ejemplo, un científico pagado por un lobby minero no debería ser descalificado sólo por ese hecho si lo que investiga es la bondad o maldad del CO2 que emite el carbón al ser quemado; la descalificación sólo debe llegar si se demuestra, por ejemplo, que ha falseado datos e intentado engañar a los demás de forma voluntaria. Del mismo modo, un científico del IPCC no debe ser sospechoso de nada, a no ser que sea atrapado —legal o ilegalmente— en comentarios inadecuados como los de los e-mails del famoso Climategate; y no por ello su ciencia deja de ser buena, pero cabe la sospecha —puede que justificada— acerca de si sus resultados no estarán sesgados de algún modo.

En el mundo farmacéutico, sin ir más lejos, la mayor parte de las costosísimas investigaciones en torno a los nuevos fármacos son sufragadas por los laboratorios mismos, sencillamente porque esperan conseguir de esa inversión cuantiosos beneficios futuros. Es cierto que se han dado algunos abusos aislados, pero el sistema funciona muy bien en general; y los países ricos disponemos cada vez más de mejores y variados medicamentos para muy diversas dolencias. Otra cosa es si con este sistema también se benefician los países pobres, y obviamente no. Pero esa desigualdad social no es sólo privativa del mundo médico, sino de la mucho más amplia dicotomía entre el mundo rico y el mundo pobre.

Conclusión

Las cuestiones relacionadas con el tiempo, el clima y, más recientemente, los cambios de clima fueron siempre tratadas en ambientes casi exclusivamente académicos a partir del siglo XIX, para estudiar las características físicas del tiempo, los condicionantes geográficos de los climas, los cambios a largo plazo de los ambientes dominantes en épocas remotas —glaciaciones, períodos cálidos...—. Antes, la magia, la religión e incluso los mitos se asociaban de manera casi obvia al devenir de las nubes y los meteoros, que más parecían cosas sobrehumanas que algo comprensible para la mente humana.

En épocas recientes, primero con el enfriamiento de mediados del siglo XX, y luego a partir de los años ochenta con el calentamiento global, el mundo desarrollado ha entrado casi de repente en una era de histeria climática. Y los científicos —al menos una mayoría de ellos— dieron la voz de alarma acerca de un calentamiento explosivo del «clima de la Tierra». Suponiendo que semejante cosa exista... Porque lo que hay en la Tierra es una enorme diversidad de climas, es un abanico de variedad enormemente amplio.

La ONU tomó cartas en el asunto, y en torno a un Panel Intergubernamental de reciente creación fue construyendo un edificio de base científica, aunque con fines políticos, que fue tenido casi desde sus inicios por «la voz de la ciencia». Una voz que, además, parecía sonar de forma unánime en torno a un consenso que se asume como indiscutible.

En las páginas que anteceden hemos puesto de manifiesto muchas cuestiones que hacen dudar de la solidez de ese consenso y, en realidad, de todo ese edificio del IPCC y sus informes. Básicamente por el más que notable margen de incertidumbre con el que barajamos los conocimientos que tenemos y, lo que aún es peor, las predicciones que se realizan para un futuro lejano que casi ninguno llegaremos a ver.

Para concluir este libro nos ha parecido, pues, oportuno comentar brevemente, a guisa de estrambote, algunas de las afirmaciones más comunes del supuesto consenso en torno al cambio climático. Afirmaciones que suelen ser tenidas por verdades indiscutibles aunque reposen sobre bases a menudo endebles.

Las hemos tomado de una web de la NASA, http://climate.nasa. gov/evidence, que explica para el común de los mortales las supuestas evidencias existentes en torno al cambio climático antropogénico. Son afirmaciones rotundas, que se esgrimen como cosas sabidas que están fuera de toda discusión (dice literalmente lo siguiente:«Certain facts about Earth’s climate are not in dispute»; o sea, «Algunos hechos sobre el clima de la Tierra están fuera de discusión»)...

Veamos más despacio esos hechos en torno al clima de la Tierra que nadie, según la NASA, discute. Porque, lamentamos disentir, sí son discutibles.

1. En los últimos 400.000 años nunca había sido tan alta la concentración de CO2 en la atmósfera terrestre. Esta afirmación es acompañada del siguiente gráfico:

Sí, pero...

El nivel medio de CO2 en la atmósfera sólo lo medimos de forma sistemática desde 1958. De antes sólo había medidas dispersas (en los siglos XVIII y XIX), y de mucho antes sólo tenemos datos indirectos, muy pocos y, además, poco precisos y fiables. ¿Cómo pueden dibujar un gráfico con una antigüedad de 400.000 años mezclando datos dudosos e imprecisos con los más recientes —apenas un suspiro a esa escala— medidos con rigor? Obsérvese que se afirma tajantemente que en 650.000 años el CO2 atmosférico nunca ha estado por encima de la línea de 300 ppm. Eso es algo que roza lo esperpéntico.

2. La tendencia al calentamiento actual tiene un especial significado porque está originado en su mayor parte por el hombre y está ocurriendo a un ritmo sin precedentes en los últimos 1.300 años.

No es cierto.

Sin ir más lejos, en la primera mitad del siglo xx, hasta los años cuarenta, el ritmo de calentamiento fue similar al del reciente período 1978-1998. Y es posible que en este calentamiento, que se detuvo en 1998, tuviera que ver la mano del hombre industrializado, pero cabe la duda, porque desde hace 15 años ya no hay subida, aunque sí sigue aumentando el CO2.

3. La capacidad de almacenar calor por parte del dióxido de carbono y otros gases fue demostrada a mediados del siglo XIX. Niveles aumentados de gases de efecto invernadero pueden causar un calentamiento de la Tierra como respuesta.

Sí, pero...

El efecto del dióxido de carbono es muy pequeño comparado con el del vapor de agua. Del comportamiento del vapor de agua —el natural, procedente de los mares, y el fósil, procedente de la combustión de los hidrocarburos— sabemos muy poco, a pesar de ser responsable de tres cuartas partes del efecto invernadero. El CO2 aumenta, sí, pero el vapor de agua no sabemos cómo se comporta. Esto introduce una enorme incertidumbre —ignorada en los modelos climáticos de predicción— en este tipo de afirmaciones.

4. Los testigos de hielo de Groenlandia, la Antártida y los glaciares de alta montaña muestran que el clima de la Tierra responde a diversos estímulos en una escala de tiempo de milenios, incluso de millones de años, excepto para los gases invernadero, que influyen en escala de decenios.

Sí, pero...

Los glaciares europeos están muy bien estudiados en el último milenio. Sus variaciones, en escala de decenios, nada han tenido que ver con los gases invernadero, al menos no con los procedentes de la industria humana, que eran irrelevantes antes del siglo XX. Lo que no quita para que esos glaciares hayan crecido o retrocedido muchísimo entre la Edad Media, la Pequeña Edad del Hielo del siglo XVII y la actualidad.

5. Tenemos evidencias convincentes de un rápido cambio climático debido a:

5.1. La subida del nivel del mar.

¿Cómo lo saben?...

Durante el último siglo se cree que el nivel medio del mar ha subido 17 centímetros. Eso supone 1,7 milímetros por año... ¿Cómo pueden medir eso con semejante precisión? ¿Mediante unas cuantas boyas costeras, que es todo lo que había hasta la reciente llegada de los satélites? Suena sencillamente ridículo. Ahora parece que el ritmo de subida es del doble, o sea, poco más de 3 milímetros por año, en promedio medido por satélites con una incertidumbre... del mismo rango. Además, igual que no hay «un» clima de la Tierra, tampoco existe «un» nivel medio del mar: en unos lugares sube algo más, en otros menos, y en algunos incluso desciende. Sin contar con que las olas, y no digamos las mareas, además de los temporales de viento o lluvia, hacen subir y bajar el nivel del mar en pocas horas muchos metros, no unos pocos milímetros al año.

5.2. La subida de la temperatura global.

Sí, pero...

Parece fuera de duda que la temperatura media del planeta —que es una abstracción teórica, un dato virtual— ha bajado desde la Edad Media hasta el siglo XVII, y lleva subiendo desde entonces. Pero no sube especialmente deprisa ahora, en comparación con otras épocas de subida... Dice la NASA que los 20 años más cálidos desde finales del siglo XIX se han producido en los últimos treinta años, que son los de subida. Pero en los años treinta del siglo XX hubo años casi igual de cálidos, y es más que probable que fueran aún más cálidos en la Edad Media, cuando los vikingos conquistaron Groenlandia y la llamaron «Tierra Verde». La NASA afirma igualmente que en el siglo XXI, a pesar del mínimo de actividad solar, las temperaturas siguen subiendo. Esto último es falso: no suben desde 1998, e incluso han bajado levemente a partir de 2007... hasta febrero de 2013, al menos.

5.3. El calentamiento de los océanos.

Sí, pero...

Los datos son recientes, imperfectos, con mucho margen de incertidumbre... Y muestran sólo un levísimo calentamiento de alguna décima de grado en medio siglo. El dato no es determinante, y tiene excesivo margen de error. Además, no sabemos nada de lo que ocurrió antes de los años sesenta del siglo pasado. No prueba nada...

5.4. La disminución de los hielos polares y de los glaciares.

No es cierto, en promedio.

Los glaciares de alta montaña no polares están disminuyendo desde el siglo XVII, pero los hielos flotantes árticos y antárticos, y los hielos continentales (Groenlandia, 5 por 100, y Antártida más del 90 por 100) se mantienen sin grandes cambios. De hecho, los hielos flotantes totales estaban por encima de la media de los últimos treinta años el 20 de marzo de 2013. ¿Descenso? Más bien no...

5.5. La mayor frecuencia de sucesos atmosféricos extremos.

Afirmación no demostrada.

Suele decirse que los sucesos extraordinarios son ahora más frecuentes que antes. Ya dice Al Gore que la Tierra tiene fiebre, o sea, está enferma. Pero ¿cuándo es ese antes? ¿Cuándo estaba sana la Tierra? A mediados del siglo XX, cuando se hablaba más bien de enfriamiento, se dieron los peores sucesos atmosféricos, si medimos esa maldad por el número de víctimas mortales. Los americanos tienen tendencia a medir esos sucesos extremos en pérdidas materiales; pero eso es poco serio. Primero, porque el daño en un país rico siempre será peor que en uno pobre. Segundo, porque ahora somos más del doble de seres humanos que hace apenas cuatro decenios: un mismo suceso provoca ahora muchos más daños que antes. Y tercero, porque ahora tenemos noticia de cualquier cosa, por nimia que sea, que ocurra en cualquier sitio del mundo. Y antes no. Por eso nos parece que ahora ocurren muchas más cosas, y mucho peores... Pero no es cierto.

5.6. La acidificación oceánica.

Sí, pero...

Se calcula que la superficie oceánica se ha acidificado en los últimos dos siglos en torno al 30 por 100. Existe una enorme incertidumbre en torno al dato; se atribuye ese efecto al dióxido de carbono, que, disuelto en agua, podría producir ácido carbónico. Pero hay muchas otras causas de acidez en el mar; por ejemplo, el transporte de crudo y otras causas de tipo industrial que nada tienen que ver con el efecto invernadero y sus gases. Por otra parte, nadie sabe bien cuál podría ser el efecto de esa acidificación leve del agua del mar, que además será más elevada en unos lugares que en otros...

EN SUMA:

El impacto de 7.000 millones de seres humanos sobre su entorno natural no puede ser más que inmenso. Eso produce un conflicto obvio entre la supervivencia de nuestra especie y el mantenimiento de los recursos naturales que necesitamos. Conflicto agravado por la desigualdad entre países muy pobres, que carecen de todo, y países muy ricos, que desperdician los recursos —energía, agua, alimentos, etc.— y son ineficientes en su uso y disfrute. ¿Consecuencia? Más de mil millones de humanos literalmente muertos de hambre y sed. Porque el 20 por 100 de la humanidad, los ricos, consumen el 80 por 100 de los recursos naturales del planeta.

Ése es el problema, señor Al Gore. Ésa es la enfermedad que aqueja al planeta. Nada que ver con el cambio climático... Pretender que éste es el peor problema al que se enfrenta la humanidad —ignorando las bombas atómicas, el hambre y la desigualdad, y el terrorismo ciego de unos pocos— es, como mínimo, de una miopía desarmante.

Lo cual no nos exime, sobre todo a los humanos que vivimos en países del Primer Mundo, de responsabilidad a la hora de favorecer una sociedad menos despilfarradora, más eficiente y menos dependiente de los combustibles fósiles contaminantes y perecederos. Esa contaminación tóxica —nada que ver con el CO2, que es el principal gas de la vida— es un enemigo insidioso que en Europa y Estados Unidos hemos ido erradicando poco a poco, pero que en países asiáticos o suramericanos emergentes agrava mucho las situaciones de injusticia social existente, por ejemplo, en las inmensas macrourbes.

Mientras tanto, seguiremos pendientes de las nubes, las lluvias y las temperaturas porque son cuestiones que tienen que ver con el elemento en el que vivimos, como los peces lo hacen en el agua: la atmósfera, cuyas veleidades llevamos pretendiendo predecir desde hace milenios, y sin embargo en la actualidad apenas somos capaces de conseguir aciertos cercanos al 95 por 100 a dos o tres días vista. No parece mucho progreso... Pero, ya se sabe, vamos haciendo camino al andar. La ciencia no dejarás de aprender y cuestionar; sin dar nada por sabido, sin consensos preestablecidos. Con el espíritu crítico por bandera.

MANUEL TOHARIA

Valencia, marzo de 2013

No se permite la reproducción total o parcial de este libro, ni su incorporación a un sistema informático, ni su transmisión en cualquier forma o por cualquier medio, sea éste electrónico, mecánico, por fotocopia, por grabación u otros métodos, sin el permiso previo y por escrito del editor. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (Art. 270 y siguientes del Código Penal)

Diríjase a CEDRO (Centro Español de Derechos Reprográficos) si necesita reproducir algún fragmento de esta obra. Puede contactar con CEDRO a través de la web www.conlicencia.com o por teléfono en el 91 702 19 70 / 93 272 04 47

1