La ciencia del clima es más importante de lo que se piensa. Ha marcado el ritmo y los objetivos de la transformación económica más ambiciosa desde la revolución industrial: la transición a una economía libre de carbono. Desde que la Organización Meteorológica Mundial (OMM) y el Programa de las Naciones Unidas para el Medio Ambiente crearon el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC, por sus siglas en inglés) en 1988, los datos y modelos climáticos son un bien público mundial, un instrumento de poder económico con un valor normativo creciente. Los objetivos climáticos se consagran cada vez más en la legislación y se citan en la jurisprudencia.
La ciencia del clima es también una disciplina necesariamente global, porque utiliza la física matemática para predecir el comportamiento combinado de la atmósfera y los océanos del planeta, dos bienes comunes que no conocen fronteras. En las dos últimas décadas, el campo se ha ampliado para incorporar la hidrología, la ecología y la biogeoquímica en una ciencia interdisciplinaria de los sistemas terrestres que requiere una infraestructura sustancial, desde sistemas de observación para vigilar el estado de todo el planeta hasta vastos recursos computacionales para integrar modelos cada vez más sofisticados.
Es una ciencia muy adecuada para un mundo globalizado, y los científicos del clima llevan mucho tiempo centrando su atención en la agenda establecida por las instituciones internacionales –desde la OMM y el IPCC hasta la Convención Marco de las Naciones Unidas sobre el Cambio Climático (creada en 1992)– para guiar a la humanidad hacia la descarbonización.
Durante muchos años, la ciencia del clima se ha enfrentado a graves amenazas, sobre todo por los intentos de desacreditar sus principales afirmaciones por motivos políticos y económicos. Pero los “mercaderes de la duda”, como los llamaron los historiadores Naomi Oreskes y Erik M. Conway, han fracasado en gran medida. Los negociadores de la Convención Marco han hecho progresos constantes, superando obstáculos y recuperándose de los reveses. Por supuesto, sigue habiendo debates sobre lo que debemos hacer. Pero, en general, los responsables políticos y las empresas han pasado de la parálisis a los compromisos, aunque no a la acción a gran escala.
«Los ‘mercaderes de la duda’ han fracasado en gran medida. En general, los responsables políticos y las empresas han pasado de la parálisis a los compromisos»
Pero ahora se vislumbra un tipo de amenaza diferente. La agitación internacional, el aumento del autoritarismo y el nacionalismo, así como el incumplimiento de normas antiguas y ampliamente acordadas están alejando a los países del orden internacional que ha prevalecido desde el colapso de la Unión Soviética. La guerra de agresión de Rusia en Ucrania es el ejemplo más reciente y evidente de una serie más amplia de fracturas geopolíticas que están complicando el trabajo de los científicos del clima.
El peligro es que, en un mundo multipolar cada vez más competitivo, los países se apresuren a nacionalizar, consolidar y aislar las observaciones planetarias y los recursos computacionales. No solo se fracturará la agenda científica, sino que los responsables políticos empezarán a ver el cambio climático a través de la lente más estrecha de la seguridad nacional y otros intereses provincianos. Los gobiernos se preguntarán qué significa el cambio climático, o las respuestas tecnológicas al mismo, para su país y sus adversarios, en lugar de para el planeta en general.
A medida que las fronteras políticas adquieren mayor relevancia en las actividades científicas, los científicos y los responsables políticos que los apoyan tendrán que abordar una importante cuestión: cuando la geopolítica convierta nuestro conocimiento científico del planeta en un campo competitivo con valor estratégico, ¿cómo deben adaptarse las instituciones científicas?
El antiguo conocimiento de la situación
En contra de la creencia popular, las raíces de la ciencia del clima no se encuentran en el ecologismo contemporáneo, sino en las preocupaciones de seguridad del siglo XX. La ciencia climática moderna surgió a partir de agendas nacionales específicas y de la disputa por una ventaja estratégica a través de un conocimiento superior de los bienes comunes. La historia nunca es tan ordenada y predecible como para repetirse; pero, dada la fractura del orden mundial actual, los científicos y los responsables políticos deberían mirar al pasado para ver qué podría pasar si el conocimiento sobre el funcionamiento de nuestro planeta vuelve a convertirse en un instrumento de la geopolítica.
Al fin y al cabo, la infraestructura de observación de la Tierra es muy susceptible a la competencia. Durante las primeras semanas de la guerra en Ucrania, a Rusia se le negó el acceso a las observaciones planetarias. Como la información meteorológica es fundamental para el uso de armas bioquímicas, la Organización Europea para la Explotación de Satélites Meteorológicos (EUMETSAT) suspendió las licencias rusas para acceder a sus datos. Comprensiblemente, la organización sacrificó su compromiso expreso con los datos abiertos para evitar prestar cualquier tipo de ayuda a los ataques contra la población civil. Sin embargo, al hacerlo, también convirtió en arma un importante sistema de observación de la Tierra.
Las observaciones de la Tierra tienen una larga relación con la seguridad. En 1939, un submarino alemán consiguió entrar en la base de la Marina Real Británica en Scapa Flow sin ser detectado, hundiendo el acorazado HMS Royal Oak. Tales acontecimientos empujaron a las armadas del mundo a hacer de la vigilancia de los bienes comunes del planeta un objetivo principal. Como resultado, la tecnología antisubmarina, como el sonar, se desplegó ampliamente, transformando la guerra en el proceso.
«Durante la Segunda Guerra Mundial, el éxito de la guerra antisubmarina dependió de la medición del estado del océano»
Una vigilancia eficaz depende de un profundo conocimiento del entorno. Por ejemplo, como el sonar funciona cronometrando el eco de una onda sonora reflejada, debe tener en cuenta factores como los gradientes de temperatura y salinidad, que pueden distorsionar su trayectoria. La fiabilidad de la detección depende de que se conozca la estructura de densidad que encontrará el sonido en su recorrido. Y eso, a su vez, es una función de las corrientes de superficie y de aguas profundas. El éxito de la guerra antisubmarina depende, pues, de la medición del estado del océano. Como reconoció el almirante alemán Karl Dönitz en diciembre de 1943, “el enemigo ha dejado sin efecto la guerra de submarinos… no por su superioridad táctica o estratégica, sino por su superioridad en el campo de la ciencia”.
Reconociendo que la ciencia crea ventajas comparativas cuando la disuasión nuclear se sumerge bajo el agua, como ocurrió durante la guerra fría, tanto Estados Unidos como la Unión Soviética invirtieron dinero en la oceanografía física, sentando las bases del campo tal y como lo conocemos hoy.
Lo mismo ocurrió con las observaciones de la atmósfera. Después de que los soviéticos sorprendieran a todo el mundo con el lanzamiento del Sputnik 1 –el primer objeto fabricado por el hombre que orbitó la Tierra–, se aceleraron las inversiones en infraestructuras de observación por satélite, convirtiéndose en un componente integral de los acuerdos de seguridad de ambos bandos en la guerra fría. En ese contexto, la teledetección espacial fue el producto de un programa del gobierno estadounidense para determinar cómo afectaban los fenómenos meteorológicos al radar. En el proceso, la meteorología moderna se transformó.
Las observaciones, en el punto de mira
Como muestran estos ejemplos, la vigilancia de las infraestructuras suele ser el primer ámbito científico en el que se desarrolla la competencia geopolítica. En la actualidad, está controlada por una mezcla de actores nacionales y privados. El sector comercial de la teledetección ha ampliado enormemente la infraestructura espacial que antes se limitaba a unos pocos instrumentos gubernamentales de alta calidad. Y cada vez hay más países que desarrollan sus propias capacidades para inspeccionar los sistemas del planeta. China, por ejemplo, tiene su propio Sistema de Observación de la Tierra de alta resolución para apoyar la agricultura de alta precisión y la vigilancia de los océanos, y ha invertido en una flota de satélites meteorológicos para servir a sus socios en la Nueva Ruta de la Seda.
Estas inversiones han digitalizado las observaciones planetarias, alimentando el optimismo de que se acerca una era de abundancia de datos. Pero la nueva competencia geopolítica plantea el riesgo de que el conocimiento de los bienes comunes se convierta en un instrumento de hegemonía. Los gobiernos ya han reconocido este potencial. El 15 de diciembre de 2016, China se incautó de un dron sumergible que, según el departamento de Defensa de EEUU, estaba recogiendo datos oceanográficos en el mar de China Meridional. La nave fue recogida en aguas internacionales, lo que la Marina estadounidense calificó de inédito e ilegal.
Además, desde el acuerdo del año pasado entre EEUU, Reino Unido y Australia (AUKUS) para suministrar submarinos nucleares a este último país, China ha invertido en infraestructura de vigilancia submarina para controlar las aguas disputadas de la región. Con las mediciones de los bienes comunes convertidas de nuevo en una cuestión de estrategia de seguridad, los científicos y las empresas –como Microsoft, que recientemente ha lanzado un ordenador planetario para albergar y compartir los datos de vigilancia– se encontrarán en una delgada línea entre la agenda medioambiental global y los intereses de seguridad nacional.
Y lo que es más importante, el enfoque de nuestras observaciones puede cambiar. Con los submarinos rusos y chinos patrullando más cerca de las costas de EEUU y sus aliados, y viceversa, zonas marítimas antes marginales como el Mediterráneo y el mar Negro pasarán a ser más centrales en la estrategia internacional.
Adivinación estratégica
Al igual que la recogida de datos, la previsión y la infraestructura informática también pueden convertirse en un ámbito muy disputado. En las primeras fases de la guerra en Ucrania, el Centro Europeo de Predicción Meteorológica a Medio Plazo suspendió el acceso de los rusos a sus productos de predicción meteorológica y modelización del clima, porque reconoció el valor táctico de esa información.
Cuando Rusia lanzó la invasión, su objetivo era aprovechar su superioridad de equipamiento en el combate en campo abierto. Pero las fuerzas ucranianas no tenían intención de salir de las zonas urbanas. Se atrincheraron y entonces comenzó a llover. Los tanques rusos se vieron obligados a salir a las carreteras, donde se convirtieron en objetivos fáciles. La superioridad de las fuerzas rusas se evaporó, y los ucranianos ganaron la ventaja táctica. Saber qué pasará con las condiciones ambientales puede ser una cuestión de vida o muerte.
Esto es cierto desde hace mucho tiempo. De hecho, la relación moderna entre la seguridad nacional y las previsiones medioambientales comenzó el 14 de noviembre de 1854, cuando los vientos huracanados destruyeron las flotas británica y francesa que bloqueaban a los rusos en Sebastopol durante la guerra de Crimea, un curioso eco de los acontecimientos actuales. De esa experiencia surgió el primer sistema europeo de predicción meteorológica. Al principio, los pronosticadores trataban de adivinar el futuro evaluando el grado de coincidencia de las condiciones actuales con los mapas meteorológicos del pasado, compilados gracias al telégrafo recién instalado para comunicar las mediciones de todo el continente –una forma anterior de infraestructura de observación–.
«En 1854, vientos huracanados destruyeron las flotas británica y francesa que bloqueaban a los rusos en Sebastopol durante la guerra de Crimea. De esa experiencia surgió el primer sistema europeo de predicción meteorológica»
En 1904, un año antes de que Einstein transformara la mecánica cuántica y propusiera la relatividad especial, el científico noruego Vilhelm Bjerknes extendió la física moderna a la atmósfera y los océanos. Sus ecuaciones describían los vientos y las corrientes como un sistema coherente regido por leyes conocidas. La previsión ya no dependía únicamente de las observaciones almacenadas: se basaba en la capacidad de resolver ecuaciones matemáticas para predecir el futuro.
En la Segunda Guerra Mundial, la transición al petróleo había aumentado el alcance de las flotas, los portaaviones habían sustituido a los acorazados como buques clave, y la lucha se había trasladado de las trincheras a los mares y al cielo. Los bienes comunes del mundo se habían convertido en campos de batalla en una guerra totalmente industrializada, y los estrategas empezaron a incorporar la previsión medioambiental a la doctrina militar. Las previsiones meteorológicas y de oleaje salvaron el desembarco del Día D del desastre. La ciencia de la previsión fue fundamental para la victoria.
Después de la guerra, la atención de los responsables políticos pasó de asegurar la superioridad en el combate a ganar un elaborado juego estratégico para controlar los bienes comunes. Según un artículo publicado el 11 de enero de 1946 en The New York Times, los funcionarios de Washington DC recibieron información sobre un ordenador diseñado específicamente para resolver las ecuaciones de Bjerknes. Esta extraordinaria máquina “levantaría el velo de los misterios hasta ahora no revelados relacionados con la ciencia de la predicción meteorológica”. No por casualidad, la principal audiencia de este anuncio fue la cúpula militar estadounidense.
La iniciativa fue obra de John von Neumann, matemático del Proyecto Manhattan y arquitecto de la teoría de juegos de la guerra fría. Su objetivo era sencillo: aumentar la velocidad de resolución de las ecuaciones. Con ello, esperaba poder hacer previsiones con semanas o incluso meses de antelación sobre las condiciones ambientales en todo el mundo, lo que daría a EEUU una ventaja táctica y estratégica. La promesa de estos nuevos instrumentos era hacer la previsión completamente operativa, en apoyo de una nueva hegemonía estadounidense sobre cielos y mares.
La carrera de la ciencia
Durante la guerra fría, la seguridad y la ciencia fueron incómodos compañeros de cama. La primera proporcionaba dinero y un flujo constante de problemas para que la segunda los resolviera, asegurando que el campo estuviera bien dotado de recursos y totalmente ocupado. Por ejemplo, en 1954, la prueba nuclear Castle Bravo en Micronesia –que sigue siendo la bomba más potente jamás detonada por EEUU– provocó una bola de fuego de 6,4 kilómetros de diámetro y creó una nube en forma de hongo de 40 kilómetros de altura. Castle Bravo formó parte de una lamentable secuencia de pruebas nucleares en el Pacífico que, sin embargo, generó datos y conocimientos inestimables sobre el funcionamiento de la atmósfera tropical.
Gracias a los esfuerzos de observación y cálculo patrocinados por el gobierno, a finales de la década de los sesenta, los herederos del legado de Von Neumann habían sido capaces de producir un modelo informático autónomo y totalmente consistente de la atmósfera y el océano. (Entre ellos se encontraba Syukuro Manabe, galardonado con el Premio Nobel de Física de 2021 por sus contribuciones en este campo).
En la última década de la guerra fría, los imperativos científicos cambiaron a medida que los intereses militares se centraron más en la carrera tecnológica entre EEUU y la URSS. La ciencia del clima se orientó hacia una agenda más explícitamente civil, utilizando modelos cada vez más sofisticados para entender qué gobernaba el clima a nivel planetario y cómo podría cambiar el clima con el tiempo. Este cambio requería una potencia de cálculo mucho mayor, pero se produjo en un momento en que la capacidad tecnológica estaba preparada para satisfacer la demanda. Desde mediados de la década de los cincuenta, la potencia de cálculo ha aumentado en diez órdenes de magnitud, lo que ha permitido producir un enorme número de simulaciones climáticas.
«Desde mediados de la década de los cincuenta, la potencia de cálculo ha aumentado en diez órdenes de magnitud, lo que ha permitido producir un enorme número de simulaciones climáticas»
Las fracturas geopolíticas actuales aparecen en un momento en que la infraestructura de modelización de las ciencias de la tierra nunca ha sido tan compleja. A medida que la computación con semiconductores complementarios de óxido metálico (CMOS) alcanza sus límites de velocidad, la computación se ha ampliado a un número cada vez mayor de procesadores, lo que ha dado lugar a una infraestructura a escala industrial, que la convierte más en el dominio de instituciones que de departamentos académicos.
Las empresas tecnológicas privadas también se han convertido en actores importantes en el modelado del sistema terrestre, aportando tanto recursos sustanciales para fomentar la digitalización del análisis planetario –una nueva frontera en la llamada cuarta revolución industrial– como servicios en campos como la inteligencia artificial (IA). Por ejemplo, DeepMind, una filial de Alphabet (Google), está colaborando con la Met Office de Reino Unido para utilizar la IA en las previsiones meteorológicas localizadas. Algunos científicos creen que esta industrialización supondrá un cambio de rumbo en los conocimientos físicos, una opinión que está impulsando importantes inversiones, como el apoyo de la Unión Europea a la creación de un gemelo digital de la Tierra.
Pero la fusión de intereses industriales y científicos, que era mayormente benigna en un mundo globalizado, corre el riesgo de convertirse en una competencia de suma cero. Las capacidades de modelización estarán cada vez más integradas en los esfuerzos de los gobiernos y las empresas para evaluar los cambios climáticos, planificar las inversiones a largo plazo en infraestructuras críticas y comprender la conducta estratégica. A medida que esto ocurra, los países que aspiren a tener influencia o liderazgo en un mundo multipolar –incluidos China, India, Brasil, Rusia, EEUU, Europa y Japón– se enfrentarán a fuertes incentivos para desarrollar su capacidad interna.
Adaptación a las nuevas realidades
Los gobiernos deberían evaluar sus capacidades nacionales y asegurarse de que cuentan con la infraestructura y el capital humano que necesitan para apoyar su gestión de un clima cambiante. Los países que no puedan permitirse crear sus propias capacidades se verán inevitablemente excluidos de esta carrera, lo que dará lugar a una mayor dependencia internacional a medida que el clima pase a desempeñar un papel más importante en la política económica. La infraestructura de las ciencias de la tierra se convertirá cada vez más en una herramienta de la diplomacia científica, como lo fue durante la guerra fría.
Al mismo tiempo, habrá que revisar la supervisión de las corporaciones globales que producen datos planetarios. A medida que las capacidades se desplazan hacia el sector privado, los responsables políticos deben reconocer que es importante saber dónde residen esas capacidades y a qué soberanía están sujetas. Aunque la externalización de estos servicios puede tener sentido desde el punto de vista económico en una época de relativa estabilidad mundial, ahora podría plantear problemas de seguridad.
La infraestructura científica ocupará un lugar destacado en la nueva búsqueda de ventajas. Cuando The New York Times informó sobre los planes de Von Neumann en 1946, también mencionó un objetivo mucho más radical. Si los huracanes pudieran predecirse con suficiente antelación, el artículo señalaba que “el nuevo descubrimiento de la energía atómica podría proporcionar un medio para desviar, por su fuerza explosiva, un huracán antes de que pudiera golpear un lugar poblado”.
La arrogancia de la era nuclear produjo un sueño peligroso: armar los bienes comunes de la Tierra. Por fortuna, ese esfuerzo duró poco. Los gastos militares para el control del clima se esfumaron tras una década de escaso éxito. Pero la idea de que el conocimiento del planeta podría conferir una ventaja estratégica y que, por tanto, habría que dirigir más investigaciones hacia él, seguía encima de la mesa.
«La arrogancia de la era nuclear produjo un sueño peligroso: armar los bienes comunes de la Tierra. Por fortuna, ese esfuerzo duró poco»
En 1957, unos años después del anuncio de Von Neumann, los oceanógrafos Roger Revelle y Hans Suess señalaron que la humanidad parecía estar inmersa en un “experimento geofísico a gran escala” sin precedentes. En respuesta, su colega Charles Keeling comenzó a medir el dióxido de carbono desde Mauna Loa, en Hawái. En un par de años, demostró que su concentración había aumentado al ritmo de la combustión de los combustibles fósiles.
Entonces, en 1979, un informe de la Academia Nacional de Ciencias de EEUU concluyó que una duplicación del CO2 produciría un aumento de la temperatura media de tres grados Celsius –una estimación de la sensibilidad climática que no ha cambiado sustancialmente desde entonces–. También sugería que el planeta se dirigía hacia ese aumento.
Fue una constatación extraordinaria: Von Neumann había imaginado que la modelización del clima llevaría a la gente a armarse con los bienes comunes de la Tierra; pero la modelización reveló que la humanidad había estado convirtiendo el clima en una bomba de relojería. También estaba claro que las consecuencias serían geográficamente desiguales. Algunos países sentirían más los efectos que otros. Pero en 1979, los científicos no podían predecir qué países entrarían en cada grupo.
Cuando cayó el muro de Berlín, la obsesión de la guerra fría por las ventajas medioambientales quedó temporalmente enterrada junto con el comunismo europeo. Durante los 30 años siguientes, los científicos del clima se centraron mayoritariamente en perfeccionar sus estimaciones de la sensibilidad climática global, para orientar al mundo hacia una reducción de las emisiones. Una pequeña minoría incluso empezó a explorar intervenciones más radicales. Los científicos del Programa de Investigación de Geoingeniería Solar de Harvard, por ejemplo, han propuesto inyectar partículas en la estratosfera para dar sombra al planeta.
No hay tiempo que perder
Toda la humanidad pierde si el clima de la Tierra cambia radicalmente. Pero no todos los cambios serán iguales. A los países menos desarrollados les resultará mucho más difícil sacar a la gente de la pobreza. El deshielo del Ártico creará ganadores y perdedores, provocando cambios en las rutas comerciales y nuevas competencias por los recursos que alterarán los lugares de donde podemos obtener productos básicos. Al igual que nuestros esfuerzos por evitar el cambio climático reconfigurarán la economía mundial, también lo hará el propio cambio climático.
Científicos y responsables políticos deben hacer más para adelantarse al cambio climático y a los cambios geopolíticos. El dinero está empezando a moverse, con grandes financiadores, como la UE, que destinan más recursos a la gestión de los efectos del calentamiento global. Pero las evaluaciones recientes de la disciplina sugieren que la atención de la comunidad científica sigue dirigida a otra parte. Se publica mucho más sobre el comportamiento planetario del sistema climático que sobre la ingeniería regional y local o las soluciones institucionales a los retos socioeconómicos y de seguridad derivados del cambio climático.
Pero son esas innovaciones regionales y locales las que crearán una ventaja comparativa relativa y las que constituyen la frontera del conocimiento en un mundo multipolar. Si estamos respondiendo a la pregunta equivocada, apenas importa que tengamos mejores instrumentos y mayor poder para calcular las soluciones.
La historia de la ciencia del clima ejemplifica el poder de la investigación dirigida por el Estado. Los responsables políticos deben reconocer que, de forma análoga a las inversiones del siglo XX, la investigación centrada en el clima y las capacidades operativas se están convirtiendo en una cuestión de seguridad nacional. La ciencia que nos ayuda a comprender los bienes comunes de la Tierra ya no es solo una herramienta para la defensa del medio ambiente. Cuanto antes reconozcamos este cambio, más fácil será prepararse para lo que viene.
© Project Syndicate, 2022. www.project-syndicate.org