La (im)posible transición energética Conversación entre Jean-Baptiste Fressoz y Adrián Almazán
El pasado lunes 17 de junio de 2024, tuvo lugar la presentación del libro “Sans Transition. Une nouvelle histoire de l´energie” (Sin transición. Una nueva historia de la energía), escrito por Jean Baptiste Fressoz, publicado en enero de este año en ediciones Seuil.
El acto formaba parte del seminario Ecologías críticas del Programa de Estudios Propios Tejidos conjuntivos del Museo Reina Sofía. El autor, historiador de las ciencias, las técnicas y el medioambiente, esbozó el contenido del libro a modo de conversación con Adrián Almazán, comovilizador del seminario. Este último informó que la editorial Arpa publicará una traducción al castellano de este libro.
En la portada de la edición francesa, en letras bien grandes, aparece una frase contundente: “La transición no tendrá lugar”. Idea totalmente contraria a la hoja de ruta de gobiernos y empresas, que basan su estrategia de acción en esta idea de transición energética.
Jean Baptiste explica que la historiografía tiene una visión “fasista” de la evolución del uso de la energía y los materiales. En los años treinta del siglo XX, el escritor Louis Mumford describía las fases de la era eotécnica, con el uso del viento, el agua, etc; la era paleotécnica, con el carbón, el acero, etc; y en ese momento, se estaría entrando en la era que denominó neotécnica, con la hidroelectricidad. Su libro “Técnica y Civilización” es el arquetipo de esa visión fasista.
El término transición energética se acuñó en el ámbito de la energía nuclear, cuando las personas que investigaban en este campo le auguraban un enorme potencial, pensando que realmente iba a suponer una enorme disponibilidad de energía, muy superior a la que se había conocido hasta la fecha. Este término les resultaba familiar, pues en física se llama transición energética a los cambios de posición orbital de un electrón dentro de su átomo.
En el campo de la la política, una de las primeras personas en usar el termino transición energética fue el presidente estadounidense Jimmy Carter, que en el contexto de la crisis del petróleo de los años 70, explicaba que en EEUU se habían hecho dos transiciones energéticas, una de la madera al carbón, otra de éste al petróleo, y que en ese momento era necesario hacer una tercera transición energética.
Sin embargo, si se observa la evolución real del uso de la energía y los materiales a lo largo de la historia, no se observa una sustitución de unos por otros, sino más bien una adición. La relación entre los nuevos recursos materiales y energéticos no es de sustitución, sino de complementariedad, es decir, no se da una competencia entre los recursos, sino más bien una relación simbiótica. Puede haber un cambio de uso de un material, que se ve sustituido para la labor concreta que tenía pero, en seguida, se le asigna una nueva función dentro del sistema, que hace que su consumo no se reduzca, sino que, generalmente, aumente. Por ejemplo, cuando se empieza a extraer carbón masivamente para ser usado como combustible, se reduce el uso de la madera para esa función, sin embargo, su consumo, en Inglaterra en 1900, superó al del siglo XVIII, cuando era el principal combustible. La explicación se encuentra en las minas de carbón, donde las galerías que se abren necesitan una enorme cantidad de madera para ser apuntaladas.
Una situación similar se da cuando crece el consumo de petróleo, ya que éste va unido a la construcción de las máquinas a las que alimenta, que están hechas mayormente de acero, y la producción de acero va ligada a un enorme consumo de carbón.
Como ejemplos de la simbiosis de diferentes materiales, cuenta el caso del benzeno, que se obtiene al destilar el carbón. Este compuesto, que se usó en la primera guerra mundial como aditivo en los explosivos, se añadió también en los carburantes, de manera que el carbón además de usarse en los altos hornos para producir el acero de los automóviles, se introduce también en su combustible.
Cuenta el caso de los toneles de madera. El momento de mayor producción de toneles se produjo en las dos primeras décadas de siglo XX, a causa del petróleo, que se producía en cantidades mucho mayores que el vino, u otros líquidos para los que, hasta entonces, se habían usado. El tonel es un objeto muy curioso que está adaptado al cuerpo humano, de manera que una persona puede hacer rodar varios toneles, moviendo varios cientos de kilos de un producto. Los toneles dejaron de usarse cuando aparecieron las carretillas elevadoras, alrededor de los años 50, y fueron sustituidos por los barriles metálicos.
Así que a veces un nuevo avance tecnológico supone pequeñas sustituciones en objetos concretos como el paso del tonel al barril gracias a las carretillas elevadoras, pero no en los materiales, que se siguen usando de forma creciente. Pone como ejemplo también la central de Drax, construida en 1972 en Yorkshire, donde inicialmente se quemaba el carbón local. En los 90, esta central ya no solo usa carbón local, sino importado de muchos lugares, siendo de las mayores centrales térmicas de carbón del mundo.
En los años 2000, en teoría para combatir el cambio climático, esta central comienza a quemar madera, importada de EEUU y de Canadá, en cantidades astronómicas, a un ritmo 4 veces mayor al que se quemaba en toda Inglaterra en el siglo XVIII, y todo ello, para contribuir con un escaso 1,5 % de su producción energética total.
En realidad, lo que se hace es intentar encajar la economía fósil en una economía orgánica, como se hizo con el Palacio de Cristal de Londres, que se consideró un símbolo de la revolución industrial, construido a base de hierro y vidrio, aunque en realidad el material más abundante era la madera, unas 3 veces más que los otros dos. También fue simbólico su final en 1936, ya que debido al efecto invernadero, creado por el vidrio, la madera de su interior estaba tan seca, que en el momento en que se declaró un incendio, éste se volvió incontrolable, haciendo inútil el esfuerzo de los bomberos para evitar su destrucción.
Para justificar esta visión fasista, se buscan teorías que encajen con el concepto de cambio cualitativo, que se corresponde con la idea de transición. Por ejemplo, en los años 70 se retoma la teoría económica de Schumpeter de la destrucción creativa, que explica que el avance del capitalismo no es lineal, sino que sufre momentos de crisis que se superan gracias a la innovación.
Esto surge en parte como reacción al informe del club de roma, aparecido en 1972, que lanza una alerta sobre los límites del planeta, y explica la imposibilidad de que el sistema económico crezca infinitamente, pues se sustenta en una base material finita.
Pero esta teoría, así como la idea de transición, se centra en la tecnología, sin analizar el flujo de materiales. Por ejemplo, se dice que el coche eléctrico es una tecnología descarbonizada, sin embargo, está hecho con acero cuya producción emite mucho CO2.
Se habla mucho de las energías renovables para producir electricidad, que es un vector energético que puede descarbonizarse relativamente bien, pero en cuanto a la producción de materiales, ahí la descarbonización se vuelve mucho más difícil.
Se supone que, en un relato fasista, el uso abundante de madera debería ser cosa del pasado. Sin embargo, todavía hoy, entre las industrias de producción de materiales, la del papel y cartón ocupa un lugar predominante, tan solo superado por la siderúrgica, la del cemento y la del plástico. La explicación de ello la encontramos en la enorme cantidad de embalajes que se usan hoy en día, para empaquetar todo tipo de productos.
En esta industria papelera encontramos otro ejemplo de que todo suma, pues al transformar la madera en pasta de celulosa se produce un líquido, conocido como licor negro, que se aprovecha para producir energía. Lo que provoca que la madera no sea solo una fuente de energía del pasado o de los países empobrecidos, sino que también se use mucho en los países enriquecidos.
Sobre la descarbonización de los países occidentales, pone el ejemplo del carbón quemado en Francia que, actualmente, es de unos 60 kg por persona y año. Aunque si lo que contabilizamos es el carbón quemado en todo el mundo, para producir bienes consumidos en Francia, esta cifra sube hasta los 1000 kg por persona y año, lo que hace un total de unos 68 millones de toneladas anuales. Así pues, respecto al pico del carbón quemado en Francia, que fue de 83 millones de toneladas en 1972, la reducción es solo de un 18 %, que se queda bastante corto, teniendo en cuenta que éste es el combustible fósil más contaminante.
También analiza en este libro los informes del Grupo Intergubernamental de Expertos sobre el Cambio Climático (GIEC), en concreto los del grupo 3, que es el que analiza las soluciones. Cuenta que los 3 primeros directores de ese grupo eran climatoescépticos, y su intención no era poner límites a la industria, estableciendo topes a las emisiones, sino poner el acento en la tecnología.
Esta tendencia se evidencia en sus contenidos. Por ejemplo, en el cuarto informe se habla mucho de la fusión nuclear, que dicen que podría estar operativa para 2050, lo cual es una previsión excesivamente optimista, pero aunque fuera acertada, esto daría lugar a unos pocos reactores en los países más ricos, nada que ver con electrificar el planeta con esta tecnología. En lo que se refiere a la sobriedad, hay que esperar hasta el sexto informe para ver aparecer este concepto, aunque así y todo, también en este informe se sigue poniendo el acento en las tecnologías, como el almacenamiento de CO2.
En estos informes del grupo 3 del GIEC se pone de manifiesto que es mucho más fácil hablar de aviones de hidrógeno que de decrecimiento, que es donde habría que poner el acento, para ver por donde hay que recortar. Por ejemplo, la producción de cemento emite mucho CO2, así que habría que decidir para qué se usa y para que no, si es para hacer una red de abastecimiento de agua en una ciudad que no la tiene, es legítimo usarlo; si es para hacer una autopista más en un país rico, igual no hace tanta falta.
Con todos estos ejemplos, por tanto, viene a mostrar cómo los recursos energéticos y materiales se relacionan entre ellos, crecen juntos, se acumulan y se complementan los unos a los otros. De manera que hay una evidencia histórica que contradice las teorías, expresadas por gobiernos y empresas, sobre las transiciones energéticas.
Este libro viene a ratificar, analizando lo sucedido a lo largo de la historia, algunas ideas que preconizamos desde este blog como son: que la tecnología no va a resolver los problemas ambientales a los que nos enfrentamos y que las instituciones actuales no van a hacer gran cosa mientras sigan instaladas en el paradigma del crecimiento económico.
Por último, a la espera de la aparición de la versión en castellano de este libro, os dejamos por aquí el índice del mismo.
Introducción. Una historia simbiótica de la energía. La transición inencontrable. Frescos transicionistas. Cuando cada tonelada cuenta.
A la tenue luz de una vela. La modernidad de la vela. Bajo las técnicas, la materia. Bajo la materia, el trabajo. La mala medida de la energía.
“La edad de”: el fasismo material y sus problemas. Seducciones del fasismo. ¿A quién pertenecerá la edad eléctrica? Un atajo tan brillante como engañoso. El fasismo material en la historia.
Una historia del carbón con aroma a madera. Los auténticos bosques subterráneos. Intercambios cruzados. Un lento desencastrado.
Timber palace. Los ferrocarriles eran de madera. Ladrillos y madera. Carbón y conservación.
Conexión carbono. Relaciones de acero. Bajo la carretera:los mineros. Carbón en los depósitos. Una unión cada vez más estrecha. Desplazar las montañas.
Carbon fallacy.
Las raíces del crecimiento. There will be wood. Interludio guerrero. Acumular capital. Envolver el crecimiento. Licores negros y “energía verde”.
La petrolización de la madera. La brutalidad del petróleo. El carbón de madera: una nueva energía.
Technocracy inc. Radicalismo energético. El futuro es logístico.
Los maltusianos atómicos. El futuro como presente ampliado. Pico del petróleo y meseta atómica. El clima: una alerta atómica.
La invención de la crisis energética. “Environmental backlash” Un choque y transiciones El efecto logístico.
El mapa tecnológico. La transición en cincuenta años. “Pensar el clima como un recurso” Exxon inventa el futuro “Living with climate change” ¿Tercer grupo o quinta columna? La crisis de los modelos.
Hace unos días, en un canal de Youtube que se llama “Questions de science” aparecía un pequeño fragmento de una charla del divulgador científico Étienne Klein. En ésta le preguntaban si sobre el debate energético, la única solución posible es la reducción drástica del consumo de combustibles fósiles. La charla es de diciembre de 2012, pero los once años transcurridos, no solo no desmienten su contundente respuesta, sino que confirman su validez. Lo primero que hace es una referencia a un artículo de la revista Nature que recoge los datos de consumo de petróleo, gas y carbón, y explica como dicho consumo, a nivel mundial, no para de aumentar. Opina que el descenso de consumo de combustibles fósiles solo se reducirá por el agotamiento de éstos, que emitiremos todos los átomos de CO2 que podamos, y que una vez hecho esto, será demasiado tarde para revertir la desregulación climática que se producirá. Dice que no ve la manera en que la gente de la tierra podamos tomar colectivamente la decisión de reducir el consumo de energía voluntariamente, porque desarrollamos todo tipo de mecanismos intelectuales para no creer lo que sabemos. Por último, le dice a la persona que preguntó: “Usted ha venido en coche, ¿no?”.
A pesar de la gravedad de la cuestión, el último comentario genera la carcajada del público. Es probable que se deba a que nuestra mente tiene asumido que hay una inercia social que es muy difícil, si no imposible, evitar, ya que, a pesar de se nos inculque el individualismo, en nuestro interior, aunque sea inconscientemente, está presente nuestra enorme interdependencia. Incluso entre las personas más concienciadas, no solo del cambio climático, sino de las demás catástrofes ambientales en marcha, es difícil encontrar a alguien que haya dejado de usar en su día a día los combustibles fósiles.
Así que es evidente que no van a servir solo las respuestas individuales sino que serán necesarias decisiones colectivas. En la gráfica vemos cómo a pesar de que cada vez hay más personas concienciadas con la degradación medioambiental, la evolución del consumo de combustibles fósiles sigue siendo ascendente.
La cuestión es, por tanto, cómo tomar esas decisiones colectivas para frenar la degradación medioambiental, que pasa inevitablemente por una reducción voluntaria del consumo de combustibles fósiles. Étienne Klein afirma no saber cómo articular la toma de esa decisión colectiva, porque hemos desarrollado herramientas intelectuales para no creer lo que sabemos.
Es cierto que resulta complicado que una especie renuncie al aprovechamiento de todos los recursos disponibles. Si metemos un cierto número de vacas en un cercado, aprovecharán toda la hierba disponible y, cuando haya abundancia, se reproducirán espontaneámente sin pensar que puede venir una época de escasez de comida. Así que cuando inevitablemente llegue esta situación, simplemente se reducirá su población hasta adaptarse a los recursos disponibles. Pero las personas no somos vacas, de nosotras se esperaría una mayor capacidad de anticipación ante los posibles escenarios futuros.
Sin embargo, a lo largo de la historia, son muchas las civilizaciones que no supieron evitar su desaparición, como cuenta Jared Diamond en su libro “Colapso”. En éste, además de contar varios de estos casos, analiza las causas que pudieron provocar la incapacidad de esas civilizaciones de reaccionar a tiempo, de la manera adecuada, para revertir la situación. Plantea varias situaciones:
El colectivo no es capaz de prever el problema.
El problema ya ha llegado pero el colectivo no lo percibe.
Se percibe el problema pero no se trata de resolver.
Se percibe el problema, se trata de resolver, pero no se consigue.
La información necesaria para prever el problema se tiene desde hace bastante tiempo. Según figura en la wikipedia, el efecto invernadero fue propuesto por Joseph Fourier en 1824, descubierto en 1860 por John Tyndall, investigado cuantitativamente por primera vez por Svante Arrhenius en 1896 y desarrollado desde 1930 hasta acabada la década de 1960 por Guy Stewart Callendar. Así que hace mucho tiempo que se conoce y que se investiga sobre él, pero no solo son previsiones: las temperaturas registradas los últimos años indican que la temperatura media de la tierra supera ya en más de un grado a la de referencia preindustrial, que es la media registrada entre los años 1850 y 1900.
Así que no solo se conoce el problema, sino que ya está presente, y se están comprobando sus efectos. Ya se ha generalizado el consenso, tanto a nivel científico como institucional. Los sectores negacionistas son cada vez más minoritarios, así que las personas que están al frente de las instituciones, salvo pocas excepciones, reconocen como prioritaria la lucha contra el cambio climático y afirman tener la intención de tomar las medidas necesarias para limitarlo.
Sin embargo, a pesar de las sucesivas cumbres del clima, las emisiones de CO2, no han cesado de aumentar, como se puede observar en la gráfica siguiente.
Estaríamos entonces en la cuarta situación: Se conoce el problema, se toman medidas para solucionarlo, pero estas medidas no funcionan.
Sobre las dificultades con que se encuentran los grupos humanos para evitar el colapso, Jared Diamond cita varias, entre las que podemos comentar algunas, buscando paralelismos con la situación actual, como por ejemplo:
Conflictos de intereses entre grupos que se ven afectados en diferente medida.
El cambio climático en marcha tiene un primer efecto, que es la elevación de las temperaturas medias. En principio, esto perjudica más a las zonas que ya son cálidas. Por un lado puede ser desagradable pasar calor, pero es más grave el efecto sobre los cultivos, porque puede haber problemas con la producción de alimentos. También hay que tener en cuenta la humedad, pues en climas secos el calor puede ser soportable, pero en las zonas con un elevado porcentaje de humedad ambiental, una elevación de las temperaturas puede hacer imposible la evacuación de calor a través de la transpiración, lo que puede provocar que algunas regiones del trópico resulten inhabitables. Un efecto secundario de temperaturas más altas es la elevación del nivel del mar. Sobre este asunto, en febrero de 2023, António Guterres, Secretario General de las Naciones Unidas, afirmó que “aunque el mundo lograra limitar a 1,5ºC el aumento de la temperatura global para fin de siglo, el nivel del mar se elevaría considerablemente, amenazando la existencia misma de algunas comunidades e incluso, de algunos países bajos. El peligro es especialmente grave para los casi 900 millones de personas que viven en zonas costeras a poca altura, es decir, uno de cada diez habitantes del planeta”. Ante esto, en países que no son demasiado cálidos, no tienen mucha humedad ambiental o no están a altitudes bajas, sus habitantes pueden pensar que no les afectará negativamente el cambio climático, incluso en países fríos pueden creer que mejorará su situación al volverse más templados. Sin embargo, el clima no es un sistema simple, en el que un aumento de la temperatura media provoque un aumento del calor en todas las regiones, sino que es un sistema complejo en el que puede haber efectos rebote inesperados. Debido por ejemplo a la alteración de las corrientes transoceánicas que regulan la temperatura del planeta. Una de ellas es la corriente de circulación meridional del atlántico, AMOC. Esta corriente se produce por el efecto de agua fría, profunda y dulce que partiendo de la zona ártica se dirige hacia el sur, pasando por ambas Américas, y después se mueve hacia el este, pasando por África, mientras que el agua oceánica más salada y cálida, proveniente de los océanos Pacífico e Índico, pasa por el extremo sur de África, gira hacia Florida y sus alrededores y continúa por la costa este de Estados Unidos hasta Groenlandia. Como se aprecia en el mapa, la parte fría de la corriente baña las costas de América y la parte cálida pasa por Europa, suavizando el clima de esta región.
Debido al cambio climático, se está produciendo un deshielo acelerado, y esto provoca que se viertan mayores cantidades de agua fría y dulce desde Groenlandia. Este flujo se mueve hacia el Atlántico Norte, ralentizando el movimiento de toda la corriente. Este fenómeno se viene estudiando desde hace años, pues se teme que llegue a producirse la parada total de esta corriente. Los estudios intentan averiguar cuándo se podría producir una parada total y qué consecuencias tendría. El Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) estima que la parada no se producirá antes de 2100, aunque estudios recientes arrojan resultados que acercan el colapso de la corriente a dentro de pocas décadas. En cuanto a las consecuencias, ya no pasaría el flujo de agua caliente por el lado este del Océano Atlántico, lo que provocaría, en esa zona, bajadas de temperatura entre 5 y 15 grados centígrados y esto significa gran parte de Europa sepultada bajo una enorme capa de nieve, o sea, inhabitable. Así que las consecuencias de la desregulación climática en curso son tan imprevisibles que ninguna región del planeta puede considerarse a salvo de situaciones problemáticas, ya que incluso las zonas que queden más habitables se encontrarán con la compleja situación de gestionar la llegada de millones de personas desplazadas.
Conflictos entre las medidas necesarias para resolver el problema y los valores dominantes de la sociedad.
En este aspecto, se produce un enorme choque entre la inevitable reducción de la producción y consumo de recursos materiales y el mito del progreso, en torno al cual se ha construido la civilización actual. Durante el periodo histórico de la edad moderna se producen una serie de cambios en el imaginario colectivo, hay mucho interés por explorar nuevos territorios, y se producen grandes avances en la navegación que permiten esas expediciones, surgen descubrimientos científicos que son difundidos gracias a la imprenta, inventada en esa época, se crean universidades, surge el racionalismo que ensalza la capacidad del ser humano para conocer la naturaleza y dominarla. Se desarrolla la idea de que el ser humano es creador de riqueza, y es lógico que se tenga esa sensación pues esa búsqueda de progreso se produce en un mundo con muchos recursos por conocer y aprovechar. Cuando se inicia la edad contemporánea se sigue manteniendo esa idea, siguen los avances científicos y tecnológicos que permiten seguir con el aumento de la producción, aparecen los combustibles fósiles que disparan la capacidad productiva, reafirmando la idea de progreso, que se traduce en el concepto de crecimiento económico. Y estas ideas no son discutidas por nadie, hasta mediados del siglo XX cuando se empieza a vislumbrar la posibilidad de que ese progreso, entendido como aumento de la producción de bienes, pueda no ser eterno. A partir de entonces, algunas personas empiezan a plantear la posibilidad de que existan límites materiales al crecimiento económico, que se manifiestan como escasez de recursos o como saturación de los sumideros de deshechos. Es destacable la aparición del libro “Los límites del crecimiento”, escrito por Dennis Meadows, Donella Meadows y Jørgen Randers, editado en 1972, donde se estudia esta cuestión y se hacen proyecciones sobre cómo evolucionará la producción agrícola, la producción industrial, la contaminación, la disponibilidad de recursos energéticos,… concluyendo como resultado de sus simulaciones por ordenador que, efectivamente, existen límites al crecimiento, pues este no puede darse de manera indefinida en un planeta de recursos finitos. A estas alturas está claro que el crecimiento económico depende de la producción de bienes y servicios, pero ahí el lenguaje peca de falta de precisión, pues el ser humano no produce nada, solo puede extraer y transformar recursos en bienes que nos resulten útiles, pero para ello deben existir esos recursos y aunque muy amplios y variados no son infinitos. En este momento, por tanto, hay quienes son conscientes de los límites y proponen un cambio en el imaginario colectivo, que acabe con el mito del crecimiento infinito y se asuma una gestión de los recursos de manera sostenible, lo que implicaría un decrecimiento económico desde el puto de vista de indicadores como el PIB. Este planteamiento sería el único que podría evitar un colapso, ya que los impactos ambientales son tales que solo se podrían suavizar empezando ya con esas medidas decrecentistas. Sin embargo, el peso de los valores dominantes es tal, que como decía Étienne Klein, hemos desarrollado todo tipo de mecanismos intelectuales para no creer lo que sabemos. Esto destaca especialmente en la teoría económica dominante, que considera que cuando un producto escasea “siempre” podrá sustituirse por otro, ya que la escasez producirá un aumento de precio y eso incentivará el desarrollo del sustituto, que aparecerá antes o después. Sin tener en cuenta que vivimos en un planeta finito y que este hecho desmiente, de manera indiscutible, el mito del crecimiento infinito.
Enfoques a corto plazo.
Esto se produce tanto a nivel institucional, como de empresas privadas, e incluso en las situaciones personales. La necesidad de desenvolverse en el día a día impide dedicar el tiempo necesario a planificar y ejecutar un cambio de rumbo. Por parte de las instituciones, los periodos de duración de los diferentes gobiernos, tanto locales, comarcales, estatales o supraestatales, suelen ser de 4 ó 5 años, según los países, con lo cual no pueden hacer planificaciones a largo plazo, además de dedicar mucho esfuerzo a la competición por alcanzar el poder. En cuanto a las empresas, tienen como principal objetivo la obtención de beneficios, así que también sus acciones están limitadas por el cortoplacismo, ya que pueden invertir en cambios que que les supongan reducción de ingresos a muy corto plazo, pero en seguida deben volver a la senda del beneficio. Por otra parte, las empresas, por su propia naturaleza, siempre van a intentar crecer y, como se ha comentado, solo el decrecimiento planificado podría evitar el colapso de la civilización. En lo que respecta a la población, pertenecemos a un sistema que nos deja muy poco margen de maniobra, pues para obtener los bienes necesarios para nuestra subsistencia, necesitamos dinero que nos permita adquirir esos bienes y, para ello, tenemos que trabajar en unas actividades determinadas, que ocupan la mayoría de nuestro tiempo y energía. Así que a los proyectos transformadores en los que nos podemos involucrar solo podemos dedicarle una pequeña parte de nuestro tiempo.
La psicología de la multitud.
Esto hace referencia a decisiones que podrían ser coherentes tomadas por una persona individualmente, pero que se convierten en catastróficas, si se deja arrastrar por la masa. Como hemos dicho, lo prudente sería dejar de usar combustibles fósiles, pero como decisión individual eso resulta muy difícil para una persona que ve como todo el mundo los sigue utilizando.
La negación psicológica.
Aquí hace referencia a la tendencia a ignorar aquello que nos genera una emoción dolorosa. Por ejemplo, en las poblaciones que están por debajo de una presa y que sufrirían las consecuencias de un reventón de ésta, en principio, sienten menos miedo las poblaciones más alejadas, que no se verían muy afectadas. Lógicamente el temor va aumentando a medida que nos acercamos a la presa, pero se llega a un punto, en el que las consecuencias empezarían a ser catastróficas, donde se activa este proceso de negación psicológica, de manera que el temor, paradójicamente, empieza a disminuir, hasta el punto que las poblaciones colindantes con la presa no sienten miedo, pues las consecuencias de una rotura serían tan graves que ni siquiera contemplan esa posibilidad. Ultimamente se ha acuñado un concepto que es el de ecoansiedad, que es aquella producida por el temor a las catástrofes ecológicas. Esta ecoansiedad empieza a estar presente en algunas personas pero, respecto a la población total, su número es aún muy reducido. Lo que indica que la gran mayoría de las personas estarían en la situación de negación psicológica.
La tragedia de los comunes.
Este es el dilema planteado por Garret Hardin, que se da cuando se comparte un recurso, pero cada quien actúa por su interés individual, sin pensar en el perjuicio colectivo. Un ejemplo es el caso de una pradera comunal en el que diferentes personas llevan sus animales para que pasten. Según Hardin, cada persona llevará tantos animales como pueda, aunque sepa que ya hay demasiados, pues su razonamiento es, si no los llevo yo, los llevará otra persona, así que este planteamiento se generaliza y se acaba agotando el recurso. Para evitar esta tragedia es necesario poner en práctica algún mecanismo de regulación. Hardin plantea dos posibilidades: la regulación estatal o la privatización. En el primer caso, el estado limitará el uso del recurso evitando que sea gastado más rápido que su tasa de regeneración; mientras en el segundo, será la persona propietaria quien velará, por su propio interés, por la preservación del recurso. Jared Diamond, por su parte, plantea de otra manera la cuestión de la regulación y afirma que esta puede enfocarse de arriba hacia abajo, que correspondería a la intervención estatal, o de abajo hacia arriba, que sería la gestión comunitaria. Las instituciones que regulan el uso de los recursos en la actualidad, tanto por su génesis como por su desarrollo posterior, funcionan claramente de arriba a abajo, de manera que la capacidad de actuación de la población está muy limitada. Así que suponiendo que la estabilidad climática es un común, este estaría gestionado de arriba hacia abajo por las instituciones estatales. Ya hemos citado en otras entradas los criterios de gestión que recopiló Elinor Olstrom, observando los comunes que funcionaban de manera exitosa, y ahí se explica que una gestión impuesta desde “arriba” dista mucho de ser la estrategia apropiada, más bien al contrario. Por su parte, en un artículo escrito por Silvia Federici y George Caffentzis, que también hemos recogido en el blog, en la categoría “Textos completos”, se afirma que no existen comunes sin comunidad y ahí puede estar la clave de la cuestión.
La humanidad no va a tomar las medidas necesarias para mitigar el cambio climático porque no funciona como una comunidad.
La llamada Comunidad Internacional no es tal, sino un conjunto de estados, enfrentados en luchas de poder, que a veces incluso acaban en situación de guerra.
Para que hubiera una auténtica Comunidad Humana, las instituciones deberían de emanar de las comunidades locales que habitan un cierto territorio, las cuales se coordinarían con otras comunidades a nivel biorregional; estas, a su vez, para determinados asuntos, deberían dialogar con otras biorregiones, para gestionar, por ejemplo, recursos como el agua, que puede circular en ríos que pasen por varias biorregiones; y de ahí, quizá sí se podría pasar a instituciones globales, que al ser creadas de abajo a arriba, en relaciones de apoyo mutuo y con mecanismos de deliberación colectiva, serían capaces de plantear medidas en beneficio del conjunto de la humanidad.
En el ámbito colapsista hay personas “moco” y personas “coco”. Las primeras son las moderadamente colapsistas y las segundas las completamente colapsistas. Esta simpática clasificación se la escuche hace algunos años a Antonio Turiel en una charla, en la que él mismo se autodefinía como “moco”, o sea, moderadamente colapsista. No sé si Antonio, viendo la inacción (o la acción en la dirección de siempre) de las autoridades, ha evolucionado en este tiempo a “coco”, pero quien seguro puede clasificarse en este grupo es el bretón Yves Cochet.
Yves Cochet, matemático de formación, es participante activo, desde los años 70, del movimiento ecologista francés. Empezó en las asociaciones “Bretaña viva” y “Agua y ríos de Bretaña” y, posteriormente, entró en política, participando en la candidatura ecologista a la elección presidencial de 1981. En 1984 formó parte del grupo fundador del partido ecologista “Los Verdes”, posteriormente, “Europa Ecología Los Verdes”. Llegó a ser Ministro de Medio Ambiente entre 2001 y 2002 y eurodiputado entre 2011 y 2014.
Junto a un grupo de personas, entre ellas Agnès Sinaï, fundó el instituto “Momentum”, siendo su presidente desde 2014. Momentum es un grupo de reflexión sobre la inminencia del colapso de la civilización termoindustrial y sobre las medidas a tomar para intentar reducir su amplitud. La revista “Le Point” presenta a Yves Cochet como un colapsólogo radical.
En 2020 publicó el libro “Devant l’effondrement. Essai de collapsollogie” (Ante el colapso. Ensayo de colapsología). En este libro expone su previsión de cómo puede desarrollarse el colapso y hace propuestas sobre cómo afrontarlo.
Ya en el prefacio deja clara su postura, escribiendo: “A veces me dicen “tu visión colapsista puede ser correcta, pero no propones soluciones para evitar el colapso”. Lo repito una vez más: No hay posibilidad de evitar el colapso sistémico mundial, solo hay orientaciones radicales y fundamentales para reducir su impacto considerable, es decir, reducir el número de muertes”.
Plantea que una de las orientaciones sería organizar el éxodo urbano y la construcción de biorregiones resilientes en materia alimentaria y energética.
Explica cómo la mundialización cesará con el colapso de los transportes internacionales, y que la alimentación local será la nueva norma alimentaria. Comeremos más local, más vegetal, más de estación y más bio, lo que será más fácil poner en práctica en el campo que en las ciudades, pronto vaciadas de habitantes.
Solo la cuestión del éxodo urbano y la alimentación muestra la radicalidad de las medidas a tomar y, simultáneamente, la casi imposibilidad de su aceptación política. Es por eso que será la necesidad, y no la voluntad colectiva, quien impondrá esas medidas.
Considera también que en el periodo de decrecimiento que se abre en el año 2020, la vida y la supervivencia en el campo será más fácil de organizar individual y políticamente.
Políticamente, propone la puesta en práctica de un comunalismo ecológico, de un municipalismo participativo, de una bioregión resiliente para la gestión democrática de los comunes, según preconizan personas como Murray Bookchin y Élinor Olstrom. Como ejemplos ya existentes de este tipo de biorregión cita la ZAD de Notre-Dame-des-Landes, en la que participan algunos centenares de personas y, de mayor dimensión, con varios millones de habitantes, la confederación de Rojava, en el norte de Siria.
EL COLAPSO
Para afrontar la cuestión empieza por dar una definición de colapso, que sería “el proceso a la salida del cual las necesidades de base (agua, alimentación, alojamiento, vestido, energía, movilidad, seguridad) no son satisfechas para una mayoría de la población por servicios enmarcados en la ley”. En este caso, este proceso concernirá a todos los países y todos los ámbitos de las actividades humanas, individuales y colectivas; se trata de un colapso sistémico mundial.
Algunos trazos característicos de este colapso serán:
La desestratificación, es decir, el debilitamiento de las diferencias de clase, pasándose a una sociedad más homogénea.
La desegmentación de la sociedad, en el sentido en que las diferencias horizontales entre sexos, entre etnias, entre religiones, etc., se difuminan a favor de una diferenciación geográfica: por un lado las personas próximas con quien se convivirá, independientemente de sus características (hombre o mujer, católico o musulmán,…), por otro, las lejanas que nos cocernirán raramente.
La desmovilidad, que indica la muy fuerte reducción del número y la distancia de los desplazamientos de bienes y personas, debido a la desaparición de los modos de transporte motorizados.
La desespecialización, tanto en el número de empleos diferentes como en las ventajas comparativas entre territorios. Como consecuencia, las personas, grupos y territorios serán más multifuncionales.
La descomplejización de la sociedad bajo el efecto del decrecimiento de la cantidad y diversidad de los intercambios de información, de servicios y de mercancías. Esta simplificación irá de la mano con una desestructuración de la sociedad, cuando las múltiples capas de la autoridad política se vean debilitadas o desaparezcan en favor de modos de vida y de instituciones locales más autónomas.
La despoblación. Sobre el conjunto del globo, las densidades de población bajarán por causa de guerras, hambrunas y epidemias.
Sobre el ritmo de evolución del colapso, la complejidad de la civilización actual, con su elevado grado de conectividad, harán que este se produzca de manera rápida, siendo posible desde 2020, probable en 2025 y cierto en torno a 2030.
¿CÓMO HEMOS LLEGADO AL BORDE DEL COLAPSO?
Sobre esta cuestión plantea los problemas que ha generado el modelo productivista, que nace con la emergencia de las sociedades industriales en el siglo XVIII y que concibe las relaciones sociales como enteramente estructuradas alrededor del sistema producción-consumo.
La producción-consumo obsesiva sustituye a las interacciones sociales. Los bienes intercambiados son vistos como extensiones de las personas que los cambian, el fetichismo de la mercancía cosifica las relaciones interpersonales.
El modelo económico neoclásico plantea que todos los productos del mercado y todos los factores de producción tienen sustitutos, y que el precio contiene toda la información que necesitan los agentes económicos (productores y consumidores) para tomar las decisiones óptimas. Este planteamiento abre la puerta a la creencia en el crecimiento infinito, ya que no existe la escasez absoluta, pues si un recurso escasea, el mercado provoca su encarecimiento, haciendo viable la aparición de su sustituto.
¿EXISTE UNA BUENA ECONOMÍA PARA EL PLANETA Y LA HUMANIDAD?
A continuación, propone otros modelos económicos que pueden ser compatibles con los ciclos naturales, como la economía ecológica, que intenta evaluar los precios de los servicios ecosistémicos, integrando la finitud de los recursos y la polución en el marco de la economía neoclásica; o la economía biofísica, que se basa en la dinámica de los flujos de energía y que trata de refundar completamente la economía.
Ambas escuelas comparten algunos principios, siendo el más importante de ellos el que reconoce la economía como un subsistema, que forma parte de un sistema primario finito y no creciente, que es el planeta tierra. En tanto que subsistema, la economía está sometida a los límites del sistema primario y debe obedecer a las leyes fundamentales de la ciencia, entre ellas a las de la termodinámica.
ESCENARIOS DEL COLAPSO
En la segunda parte del libro pasa a describir cómo puede desarrollarse el proceso de colapso, dividido en tres etapas sucesivas: el fin del mundo tal y como lo conocemos (2020-2030), el intervalo de supervivencia (2030-2040) y el inicio del renacimiento (2040-2050).
La primera parte se podría denominar el apogeo del colapso de la civilización industrial. Tal afirmación la considera apoyada por multitud de artículos, estudios e informes que se podrían considerar integrados en el concepto del “Antropoceno”, el cual debe ser comprendido en el sentido de ruptura en el seno del sistema Tierra, caracterizada por la superación irreversible de ciertos umbrales geobiofísicos globales. Pasados esos límites, la ruptura se hace inevitable, el sistema Tierra pasa a comportarse como un autómata que ninguna fuerza humana puede controlar.
Paralelamente a la perturbación de la dinámica de los grandes ciclos naturales del sistema Tierra, aparece otra causa, puramente psicosocial, que refuerza el avance hacia el colapso. Se trata del sistema de creencias dominante: el modelo liberal-productivista. Esta ideología es tan invasiva, que ninguna alternativa de creencias llegará a reemplazarla en tanto no se produzca el evento excepcional del colapso inminente, debido al triple crunch energético, climático y alimentario.
La segunda etapa, en los años 30, se anuncia como la más penosa, debido a la bajada de población mundial (causada por epidemias, hambrunas y guerras), a la escasez de recursos energéticos y alimentarios, a la pérdida de infraestructuras y a la quiebra de los gobiernos. Será una época de supervivencia, a escala local, fuera de las ciudades.
La depresión colectiva consecutiva al colapso del mundo y a la muerte de un gran número de personas, incitará a las supervivientes a practicar una solidaridad de proximidad para cimentar la cohesión de la comunidad local a la que pertenecerán.
Alrededor de los años 50, es de esperar una etapa de renacimiento en el transcurso de la cual los grupos humanos más resilientes, se reencontrarán con las técnicas iniciales de sustentación de la vida y de nuevas formas de gobernanza interna y de política exterior susceptibles de garantizar una estabilidad estructural, indispensable a todo proceso de civilización.
Habrá que reaprender una agroecología alimentaria, energética y productora de fibras para la ropa, cuerda y papel, la producción de sustancias como alcohol, amoniaco, sosa, cal,… Todo ello utilizando herramientas low tech aptas para ser fabricadas, mantenidas y reparadas a escala local.
En este punto, comenta que más de una pensará que estas previsiones son obra de un psicópata extremista. Dice que, al contrario, se estima demasiado racional para estar fascinado por la perspectiva del colapso, que no cesa de actuar para intentar evitar la catástrofe, que cree en la política, pero que intenta examinar las cosas lo más fríamente posible. Opina que los extremistas se encuentran del lado del pensamiento dominante (de la religión dominante, cabría decir), fundado sobre la creencia según la cual la innovación tecnológica y el retorno al crecimiento resolverán los problemas actuales.
ESTADOS SIMPLES PARA CADA BIOREGIÓN
Sobre las instituciones, prevé que las actuales, tanto locales como nacionales e internacionales habrán desaparecido a lo largo de los años 30, siendo sustituidas por micro estados que gestionarán las diferentes bioregiones.
En un informe del instituto Momentum titulado “Bioregions en Île de France 2050”, coescrito con Agnès Sinaï y Benoît Thévard, describe la bioregión como “territorio cuyos límites no están definidos por fronteras políticas, sino por límites geográficos. Esta visión concibe las personas que habitan un territorio, sus actividades y los ecosistemas naturales como una sola unidad orgánica en el seno de la cual cada sitio, cada recurso, del bosque a la ciudad, de las mesetas a los valles, es desarrollado de manera razonable apoyándose en las virtudes naturales del territorio.”
Sobre el micro-Estado, lo define como una comunidad humana autónoma, es decir, un nivel de organización territorial que no estará subordinado a ningún otro que le sea superior, formado alrededor de los valores republicanos, libertad, igualdad y, sobre todo, fraternidad y que contará con una “asamblea” y un “gobierno” que tendrá el monopolio de la violencia física legítima.
Las bioregiones no estarán necesariamente aisladas e independientes, podrán intercambiar recursos con otra bioregiones autónomas. Serán a la vez autónomas y dependientes.
ENERGÍAS 100 % RENOVABLES
Por más que haya quien la niegue, la realidad termodinámica se impone: la tasa de crecimiento de la producción planetaria de energía neta alcanzó su máximo a finales del siglo XX y no ha cesado de decrecer después. La producción neta de energía va pronto a encarar su declive terminal.
Teniendo en cuenta la importancia de la energía en toda la civilización y la loca exuberancia del consumo energético en los países industrializados, este único factor de decrecimiento de la calidad y cantidad de energía disponible, casi bastaría para explicar el colapso en el transcurso de los próximos años.
Por eso, nuestro escenario no contempla, hacia 2050, otra disponibilidad que la de ciertas formas de energía renovable. Nada de fósiles, nada de nuclear, nada de electricidad (incluso de origen renovable). El consumo de energía primaria será sin duda dividido por 20 hacia 2050, al desaparecer todas las fuentes industriales de producción.
Hacia la segunda mitad del siglo XXI las principales fuentes de energías renovables térmicas serán leña para calefacción, carbón vegetal y biogas. De manera complementaria, la domesticación elemental del agua y el viento, así como la utilización de animales de tiro, podrán proporcionar un poco de energía mecánica.
UNA ALIMENTACIÓN MÁS VEGETAL, MÁS LOCAL, MÁS ESTACIONAL
Tras un breve periodo en el que habrá aún acceso a los stocks alimentarios de la época industrial, habrá que aprender a cultivar el máximo de plantas comestibles posible. Una tarea importante es hacer bancos de semillas intentando recuperar las variedades tradicionales, pues las semillas híbridas que se usan ahora mayoritariamente, pierden propiedades con los años, no son como las semillas que el campesinado seleccionaba durante generaciones.
El choque alimentario será comparable al que se vivió en Cuba tras la caída de la URSS, en 1991. Cada metro cuadrado libre de La Habana y otros lugares fue cultivado. Por su parte, el consumo de carne se redujo cerca de un 90 % en 3 años. Así sucederá en muchas ciudades donde se aprovecharán todos los terrenos libres como bordes de carreteras, esquinas de calles, los terrenos delante y detrás de las casas, los porches, los tejados de cemento, los balcones y cristaleras orientadas al sur,…De manera que puedan cubrir buena parte de sus necesidades alimentarias; además podrán utilizar sus propios desechos como acolchado y compost.
En las bioregiones más rurales, los paisajes comestibles estarán constituidos de plantas leñosas y vivaces, más que de plantas anuales. Favoreciendo la cooperación ecosistémica entre las especies, el paisaje comestible puede alimentar durante años, sin destruir las especies y con un bajo mantenimiento.
En cuanto al régimen alimentario, se reducirá el consumo de carne a algún pollo de vez en cuando, se multiplicará por 5 el consumo de verduras, por 2 el de frutas locales de temporada, se reducirán a una cuarta parte las grasas y aceites, así como el azúcar y los lácteos y aumentará el consumo de castañas y harina de bellota.
UNA MOVILIDAD LOW TECH
Históricamente los agrupamientos humanos se establecían en las costas o a lo largo de los ríos. Desde el siglo XIX, el carbón y el tren permitieron la edificación de ciudades alejadas de los puertos. Durante el siglo XX, el petróleo, los coches y los camiones favorecieron una gran extensión de las zonas urbanas. En este momento de lucha contra el cambio climático y del pico de producción del petróleo, hay quien piensa que esta expansión del automóvil puede mantenerse pasando simplemente a otro tipo de carburantes.
Este objetivo resulta irracional. Según nuestra hipótesis de ausencia de electricidad en 2050, no tiene sentido el coche eléctrico, ni con hidrógeno ni con baterías. Ningún carburante podrá hacer perdurar la civilización termoindustrial, la mundialización intensiva de los intercambios, la movilidad a larga distancia y barata para la mitad rica de la humanidad actual.
La red de carreteras se deteriorará rápidamente. Algunos tractores podrían ser utilizados con aceite vegetal. La red de ferrocarril parece más resistente, pero exigirá mucho mantenimiento y una vuelta a la maniobra manual de las agujas. El material rodante, ligero, podría ser movido por locomotoras de vapor alimentadas con carbón vegetal, así como por trenes de pedales o a vela. Sin embargo, los medios de transporte mayoritarios serán la marcha a pie, la bicicleta y la tracción animal, por tierra; y por agua, la vela y las embarcaciones de remos.
Sería prioritario anticipar la fabricación masiva de bicicletas y la cría masiva de animales de tiro.
Llegado a este punto aclara, que aunque hagamos mucha incidencia sobre las condiciones materiales, estimamos que el fundamento de la buena vida en el futuro residirá en las relaciones humanas y las actividades culturales y artísticas. Sin embargo, tenemos el convencimiento que, sin una base modesta de necesidades materiales satisfechas, ninguna civilización, ninguna cosmología puede florecer.
En la tercera parte del libro explica como podrían surgir los miniestados de las bioregiones. Aclarando que la disminución del tamaño no tiene porque conllevar una regresión institucional, siendo posible encontrar a escala local, una personalidad jurídica generadora de derecho, incluyendo el derecho que limite su poder.
La última parte del libro la dedica a hablar de la negación del colapso hoy en día. Posición en la que se encuentran la mayoría de las personas e instituciones. Entre quienes vislumbran un posible futuro catastrófico distingue entre alarmistas y catastrofistas. Sobre las voces alarmistas, estas se dirigen a las autoridades para que se acometan reformas para mejorar la situación, haciendo propuestas como el desarrollo sostenible o la transición energética. Por su parte, la visión catastrofista, en la que incluye la colapsología, considera que la transición ecológica no es viable, que el colapso está próximo, que será brusco y brutal y que es urgente pensar en esos términos.
Indica que su visión y la del instituto Momentum no es fatalista, no suponen el fin de la reflexión ni de la acción. Al contrario, son una aspiración a una imaginación y a una creatividad nuevas, como nos encontramos a veces cuando la historia se intensifica. Explica también que después de 10 años examinando los aspectos materiales más crudos del colapso, sin abandonar esta tarea, están consagrando parte de su tiempo a la investigación de sus dimensiones sociales y psicológicas.
NUESTRA OPINIÓN
En colapsando que es gerundio, pensamos que el colapso será muy diferente según las zonas. Aquí en nuestro pueblo hace años que llevamos una vida cercana a cómo será el colapso, cultivando el huerto artesanalmente, con biciazada, con tracción animal…, moviéndonos en bicicleta o andando, llevando leña o heno con el carro tirado por un burro (en la primera entrada del blog hay una foto del carro lleno de heno)… En las ciudades, en cambio, pensamos que el choque va a ser mucho más brusco.
No pensamos, como plantea Yves Cochet, que no vaya a haber nada de electricidad. Puede haber momentos de caos, sobre todo al principio, pero en seguida se buscarán soluciones para aprovechar los recursos que puedan perdurar, como la hidroelectricidad, la eólica o la fotovoltaica, pero siempre a pequeña escala, con instalaciones para cubrir las necesidades a nivel local.
Nos parece muy interesante el concepto de bioregión, que nos recuerda la estructura de los caracoles zapatistas. Sobre este tema vamos a revisar las notas que tomamos cuando nos visitaron las zapatistas, para contar en una entrada cómo es su organización y cómo se podría adaptar a nuestra zona.
Yves comenta que habrá una desegmentación de la sociedad, con menos distinción de clases sociales. Esto podría facilitar el comunalismo, pero también existe el riesgo que en las etapas actuales, de inicio del colapso, empiecen a surgir gobiernos que adopten tendencias autoritarias, que puedan desembocar en el ecofascismo. Por eso, ahora nos parece muy importante poner en marcha proyectos colectivos que puedan inclinar la balanza hacia el eco-comunitarismo.
Otro aspecto muy importante que vemos es el psicológico. Quizás Yves da una visión un poco pesimista. Por nuestra parte, nos gusta incidir más en las oportunidades que se presentan, creemos que algunos cambios pueden ser a mejor. De entrada, se bajarán las emisiones de CO2, que es vital para el futuro inmediato. También se reducirá la capacidad de explotar a los países del Sur. A nivel personal, seremos más conscientes de la interdependencia, recuperando más las relaciones humanas y, aunque sea provocado por la necesidad, esto aportará grandes beneficios a nivel psicológico, al romper el aislamiento que predomina actualmente.
Cuando hablamos del posible colapso de ciertas estructuras que conforman la civilización actual, el ámbito donde más claro se vislumbra la cercanía del mismo es el energético. El declive de la disponibilidad de petróleo, es decir, la reducción de su flujo diario, es innegable desde que se comprobó la validez del modelo de Hubbert, que describe la evolución en el tiempo del número de barriles diarios que pueden extraerse de un yacimiento petrolífero. Este modelo se puede extrapolar para analizar la capacidad productiva de varios yacimientos en conjunto. En 1956, Marion King Hubbert presentó un estudio sobre la evolución de la extracción de petróleo de todo EEUU, en el que se preveía su cenit para principios de los años 70 y su declive a partir de ese momento. Cuando llegó esa fecha, los hechos demostraron la validez del modelo. Aplicándolo a la producción mundial, se obtiene una gráfica como la de la figura 1, en la que aparecen el número de barriles extraídos anualmente, tanto en su cantidad total, como neta, es decir, restando aquellos que se gastan en la propia extracción de petróleo.
Fig. 1. Evolución del flujo anual de barriles de petróleo en el mundo.
La Agencia Internacional de la Energía (AIE) informó que el pico de extracción de petróleo convencional se produjo en 2006, dato que coincide bastante bien con esta gráfica, según la cual, el declive de extracción de petróleo será muy acentuado en los próximos años. En el informe de la AIE de 2018, este organismo manda un mensaje a la industria petrolera, alertando que si no se aumentan las inversiones en la búsqueda de nuevos yacimientos, inversión que se viene reduciendo (por su escasa rentabilidad) desde 2014, la producción de petróleo puede reducirse a la mitad en fechas tan cercanas como 2025.
TRANSICIÓN, PERO ¿EN QUÉ SENTIDO?
Las evidencias sobre el declive de la extracción de petróleo son tan abundantes que hacen que cada vez queden menos personas que ignoren este tema, al igual que cada vez hay menos negacionistas sobre el cambio climático. Estas dos cuestiones, petróleo descendente y calentamiento global ascendente, están relacionadas por ser la quema de petróleo una gran contribuidora al efecto invernadero.
Las primeras investigaciones sobre el efecto invernadero y su influencia sobre el clima se iniciaron en el siglo XIX y, a lo largo de los años, han ido corroborando que estamos en un proceso de cambio climático, provocado por las emisiones de gases de efecto invernadero de origen antrópico, sobre todo, el CO2 producido por el uso masivo de combustibles fósiles. Estos estudios ponen de manifiesto la necesidad de reducir la emisión de gases de efecto invernadero, pues su influencia sobre el clima amenaza con producir desajustes que pueden provocar problemas, como sequías prolongadas, lluvias torrenciales, reducción de cosechas agrícolas e incluso que, en algunas zonas del planeta, se alcancen unos niveles de temperatura y humedad ambiental incompatibles con la vida humana.
Esta situación ha provocado reacciones tanto en el ámbito gubernamental, como en las iniciativas populares. Entre estas últimas destaca el movimiento de Ciudades en transición (Transition Towns) iniciado en 2005, en Totnes, Inglaterra, por iniciativa de Rob Hopkins y Naresh Giangrande. Este movimiento trata de modificar el funcionamiento de ciudades y pueblos fundamentándose en tres principios básicos, las tres erres: resiliencia, relocalización y regeneración. Su objetivo es avanzar hacia un modo de vida más eficiente, a través de proyectos como monedas sociales, bancos de tiempo, pequeños negocios locales, etc., introduciendo conceptos como soberanía alimentaria y energética, autogestión, sustentabilidad y con un claro propósito de reducir el consumo de recursos, desde un enfoque de simplicidad voluntaria.
En cuanto a la reacción institucional, la cuestión se plantea por primera vez en 1992, cuando se celebra la Cumbre de la Tierra en Río de Janeiro. Desde esa cumbre se suceden otras en Kyoto (1997), Copenhague (2009), Varsovia (2013), París (2015), Chile/Madrid (2019) y Glasgow (2021). En la figura 2 se muestra la evolución de las emisiones de CO2 y cómo han influido las sucesivas cumbres en dichas emisiones.
Fig. 2. Emisiones de CO2 e influencia de las cumbres del clima sobre ellas.
A la vista de la gráfica, no parece que las medidas tomadas en las cumbres del clima hayan tenido resultados satisfactorios en la reducción de emisiones de CO2. Así que no parece que el desajuste climático sea suficiente motivación para que los gobiernos tomen medidas eficaces a este respecto. Sobre todo, porque a diferencia de las iniciativas populares, la transición promovida por los gobiernos no contempla la opción de un decrecimiento económico.
Por otra parte, una transición energética, va a suponer una novedad histórica, ya que la aparición de una nueva fuente de energía, normalmente no ha supuesto una sustitución de las que se usaban antes, como se refleja en la figura 3, si no más bien una suma a las que ya había.
Fig. 3. Consumo mundial de energía de diferentes fuentes en toneladas equivalentes de petróleo.
Tenemos por tanto dos problemas, que aunque desde ámbitos diferentes, uno en el lado de la disponibilidad de recursos y otro en el de la contaminación, convergen en una conclusión: se impone un cambio en el modelo energético hacia uno que no cuente con el petróleo entre sus ingredientes. Ante esto hay dos posturas: la de quienes asumen una reducción en el consumo de energía, entendiendo que se puede asumir una sobriedad voluntaria, que no tiene porque suponer una merma en la satisfacción de las necesidades humanas y que incluso es una oportunidad para mejorar nuestro modo de vida; y la que plantea una búsqueda desesperada de nuevas fuentes de energía que permitan mantener los niveles crecientes de consumo.
Desde la segunda postura, la que pretende mantener el modelo crecentista actual, las esperanzas están puestas en los avances tecnológicos: eficiencia energética, desmaterialización de la economía, mecanismos de captura de CO2, el hidrógeno como vector energético, sistemas de energías renovables, etc.
OPCIONES DE LA ENERGÍA NUCLEAR
Un campo en el que las personas tecno-optimistas tienen puestas muchas esperanzas es el de las tecnologías nucleares, pues las cantidades de energía que se liberan en las reacciones a nivel del núcleo atómico, son mucho mayores que las que dependen de las interacciones gravitatorias y electromagnéticas.
Para hacernos una idea de la cantidad de energía que se maneja en los enlaces nucleares, por ejemplo, tenemos que un gramo de uranio 235, cuyos núcleos se fisionan (se dividen en otros más pequeños), puede liberar unos 80.000 millones de julios (J, unidad de energía del Sistema Internacional); mientras un gramo de petróleo, al quemarlo, solo produce alrededor de 36.000 J, o sea que la cantidad es más de 2 millones de veces superior en una fisión nuclear que en una reacción de combustión.
Si pensamos en el hidrógeno, la energía de enlace de 2 átomos de dicho elemento, unidos químicamente para formar una molécula de H2 es de 4,5 electrón-voltios (eV, unidad de energía que se usa cuando se manejan cantidades muy pequeñas, como aquí que hablamos de solo dos átomos); por otro lado, si los núcleos de esos dos átomos se hubieran unido para formar helio, habrían liberado una energía de unos 7 millones de eV, así que también cuando se fusionan los núcleos atómicos tenemos valores de energía más de un millón de veces superiores a los de las reacciones químicas.
La explicación a tal cantidad de energía liberada reside en que el interior del núcleo existe una potente fuerza, que es necesaria para explicar su composición, ya que en él se encuentran los protones de carga positiva que tienden a repelerse, y que así harían si no fuera por esta fuerza nuclear, que es muy superior a la electrostática de repulsión. En los átomos con núcleos muy pesados, al haber muchos protones, la fuerza de repulsión entre ellos se hace muy grande y eso le permite competir con la energía nuclear fuerte (una de las dos interacciones nucleares, a la otra se la llama débil).
Así pues, en átomos muy pesados, es factible provocar su ruptura, que incluso se puede producir de manera espontánea. Uno de estos materiales es el uranio, del que existen varios isótopos (distintas versiones que se diferencian por el número de neutrones) todos ellos con 92 protones, pero algunos con más neutrones, como el uranio 238 (U238) y otros con menos, como el U235. Ambos pueden romperse espontáneamente, en un átomo de helio y otro de torio, pero en ese aspecto, el U235 es más activo. Por eso, desde que se formó la tierra, ambos han ido desapareciendo, pero mientras que del U238 queda un 50 % del original, del U235 solo queda un 1%.
Como el uranio es un material que se encuentra en una cantidad finita, hay que contar con las reservas que hay, para conocer su proyección de cara al futuro. En la figura 4 se muestra el consumo de uranio a lo largo de los años y las previsiones a futuro.
Fig. 4. Curva de extracción de uranio y perspectivas de futuro.
Se está investigando en la utilización de otros materiales fisibles, en el enriquecimiento del uranio gastado en las centrales para que resulte útil otra vez, nuevos modelos de centrales, etc. Pero teniendo en cuenta que las centrales nucleares aportan alrededor del 10% de la electricidad mundial (un 2% de la energía primaria total); a la vista de la gráfica; considerando que la AIE reconoció el pico del uranio en 2016 y su posible escasez para 2025; por mucho que mejore la tecnología, no es previsible una transición energética con mucha presencia de centrales nucleares.
Pero si no hay muchas espectativas para la fisión nuclear, ¿qué pasa con la fusión? Ahí es donde ponen su esperanza la mayoría de personas tecno-optimistas y es lo que vamos a analizar a continuación. Para empezar, comentar que cuando antes se han citado las centrales nucleares, no ha hecho falta especificar que se trataba de centrales de fisión, porque de fusión, aún no hay ninguna, todos los proyectos están en la fase de investigación, incluido el ITER, que es el de mayor presupuesto y sobre el que centraremos el análisis.
EL PROBLEMA DE LA BARRERA DE POTENCIAL
Antes de entrar en los desafíos tecnológicos que hay que superar para llegar a tener la primera central de fusión, es interesante entender un concepto que explica por qué, conociéndose casi a la vez la teoría física que describe ambos procesos, las centrales de fisión empezaron a funcionar unos años después de entender la radiación nuclear, mientras que a la primera central de fusión, siempre le quedan 50 años para estar lista (que es el chascarrillo típico que se dice sobre esta tecnología).
En los sistemas de producción de energía basados en combustible (deberíamos decir transformación de energía porque esta no se puede crear, solo cambiar de forma, pero como se usa habitualmente, aquí también lo haremos, aunque con esta idea presente), siempre hay una barrera llamada de potencial, que sujeta la reacción y que nos permite elegir el momento de su uso. Si no hubiera una barrera de potencial en un tronco de leña, este ardería espontáneamente. Para que se inicie el proceso de emisión, hay que aportar la energía suficiente para superar la barrera de potencial y, a partir de ahí, la propia emisión de energía de una parte del combustible, sirve para que se siga produciendo la que se denomina reacción en cadena. En la figura 5 se muestra un esquema intuitivo para entender los conceptos de barrera de potencial y reacción en cadena, en ese caso se trata del potencial gravitatorio, de la energía cinética que adquiere una bola al caer por una rampa y de la transmisión de energía por colisión.
Fig. 5. Barrera de potencial y reacción en cadena.
Por ejemplo, para iniciar la combustión de un gas, basta con la energía de una pequeña chispa obtenida al frotar un metal y una piedra, como sucede en un sencillo mechero; para prender un papel, necesitamos acercarle una llama durante unos segundos; para que arda un tronco, tiene que estar expuesto a una llama un rato mayor. En el caso del uranio, el número de protones es tan elevado que la repulsión que se ejercen tiende a romper el núcleo, su estabilidad solo es posible gracias a la interacción nuclear fuerte que opera entre sus nucleones (neutrones y protones que forman el núcleo). Estos se mantienen unidos por mediación de unas partículas de energía llamadas gluones, que producen una fuerza de enlace nuclear, mayor que la fuerza de repulsión debida a la carga eléctrica. Se crea así una barrera de potencial que da estabilidad al núcleo de uranio. Pero esta barrera no es demasiado grande, así que aportando una pequeña cantidad de energía se puede iniciar la reacción en cadena.
Como se comentó antes, en el uranio esta reacción se puede producir espontáneamente, gracias a un fenómeno cuántico denominado efecto túnel, según el cual existe una pequeña, pero no nula, probabilidad de que parte de un núcleo desafíe la barrera de potencial, como si a través de un túnel pasara al otro lado de la barrera. Aunque esta probabilidad es muy pequeña, pues si no, todo el uranio que había en el planeta ya se habría descompuesto. En las centrales nucleares, no se espera la fisión espontánea. Se bombardea con neutrones que rompen el núcleo e inician la reacción en cadena, pues en la fisión, se producen más neutrones con gran energía, que rompen otros núcleos y, además, producen calor, que se usa para poner agua en ebullición, que mueve una turbina y genera la electricidad de la central.
El hecho de que en el U238 haya más neutrones, que aportan gluones sin añadir repulsión, hace que su núcleo sea más difícil de romper que el del U235, que es, por tanto, el que nos interesa a estos efectos. En un trozo de mineral de uranio actual hay un 99,3% de U238 y un 0,7% de U235, así que para que sirva como combustible nuclear, hay que enriquecer el mineral hasta llegar a un 5% de U235.
Pero si en la fisión de átomos pesados, la barrera de potencial a superar es asequible, lo que ha permitido el desarrollo de centrales basadas en ese proceso, no sucede lo mismo en el caso de la fusión. Por una parte, tenemos la repulsión entre los protones, que se debe a la interacción electromagnética, y que se puede calcular con la ley de Coulomb, que nos dice que esa fuerza es directamente proporcional a las cargas eléctricas e inversamente proporcional al cuadrado de la distancia entre las partículas.
Por otro lado, tenemos la interacción nuclear fuerte que actúa para mantener unidos los protones en el núcleo. Pero mientras la interacción electromagnética es de alcance infinito (por muy lejos que estén las cargas su efecto siempre se siente), la interacción nuclear fuerte solo actúa cuando las partículas están a distancias tan pequeñas como el tamaño de los núcleos, que son del orden de las billonésimas de milímetro. Así que para que se unan dos protones, tenemos que acercarlos a esa distancia.
Por hacernos una idea, podemos calcular la fuerza necesaria para acercar dos protones a una distancia de 3 billonésimas de milímetro. Basta con introducir, en la fórmula de Coulomb, la carga de los protones y dicha distancia. El resultado es de 25,6 Newtons, es decir, que si pudiéramos introducir los dos protones en un cilindro con un émbolo, sobre el que ponemos un peso, para empujar los protones, bastaría con poner 2,6 kg. Esta cantidad no parece muy grande, ¡pero es para unir solo dos protones!, si nos vamos a cantidades a nuestra escala, teniendo en cuenta que, por ejemplo, en un gramo de protones hay 600.000 trillones de ellos, las magnitudes de las fuerzas y energías que se manejan se disparan en esa proporción.
Evidentemente, no se pueden coger protones sueltos y apretarlos unos contra otros. La manera de superar la barrera de potencial es acelerando los átomos de hidrógeno para que, a velocidades muy grandes, colisionen entre sí, y eso se consigue a elevadas temperaturas. En el sol, que es nuestro auténtico reactor nuclear de fusión, pues de ahí proviene la gran mayoría de la energía que usamos, estas reacciones se producen gracias a las elevadas presiones y temperaturas que se dan en su interior. Para conseguir la fusión aquí, hay que imitar esas condiciones.
ESTADO ACTUAL DE LA FUSIÓN
Para hacernos una idea de las dificultades técnicas, pensemos que en los experimentos de fusión se alcanzan temperaturas del orden de 150 millones de grados. A esas temperaturas, el hidrógeno no se encuentra en estado gaseoso, sino que pasa a un cuarto estado de la materia, que es el estado denominado plasma, donde se forma una especie de sopa de núcleos con los electrones desacoplados de su átomo original. La primera dificultad surge con el recipiente que puede contener el plasma a esa temperatura, pues cualquier material se fundiría al instante, así que no puede haber ningún recipiente material.
Una manera de mantener unido el plasma es confinarlo en un campo magnético, que se puede hacer y, de hecho, se hace. Conseguir un campo magnético es muy sencillo, se puede hacer con una simple pila, que alimente un cable enrollado sobre un trozo de hierro. Pero si el campo magnético a generar, como en este caso, es muy grande, la corriente que circulará por los cables también será muy grande, así como el calentamiento del mismo. Para evitar este efecto de calentamiento de los cables, se utilizan superconductores que trabajan a temperaturas muy bajas, cercanas a cero grados kelvin. Así que en una misma máquina, tenemos unas partes a 150 millones de grados y otras a casi 273 bajo cero.
A pesar de las enormes dificultades, los avances en fusión nuclear han sido constantes, pero aquí queremos precisar hasta dónde llegan esos avances y si es factible esperar soluciones desde esta tecnología para una supuesta transición energética.
Para cualquier fuente de energía es importante conocer lo que se llama la tasa de retorno energético, que es el cociente entre la energía obtenida y la energía que se ha utilizado en el propio proceso. En fusión nuclear se suele utilizar la letra Q para designar a la ganancia de energía. La diferencia entre la ganancia de energía y la TRE, es que la primera se puede evaluar en diferentes fases del proceso, mientras que la TRE informa de la rentabilidad energética total, siendo el cociente entre la energía final obtenida y toda la energía utilizada, desde la extracción y transporte de los combustibles, durante todas las fases de operación del sistema.
Para que se produzca la fusión deben cumplirse tres condiciones: una temperatura muy elevada, la suficiente densidad de partículas de plasma y el suficiente tiempo de contención. Estas tres condiciones determinan el valor de Q obtenido. En la figura 6 podemos ver la evolución de estos tres parámetros y el avance de Q, en los diferentes experimentos de fusión nuclear que se han ido realizando.
Fig. 6. Evolución de Q en los experimentos de fusión nuclear.
Los proyectos que aparecen en la gráfica se basan en la tecnología Tokamac, que utiliza el confinamiento magnético del plasma. Tanto el primero, un proyecto soviético de 1969, llamado T3, como el segundo, el proyecto TFR, francés, de 1974, se quedaron muy lejos de la ganancia de energía. En 1984 el Alcator C, desarrollado en EEUU, logró una Q de 0,001, o sea, por cada kilovatio-hora de energía invertida se recuperaba 1 watio-hora. Un año antes, en 1983, se había iniciado el proyecto europeo JET, que tras 14 años de desarrollo, en 1997, alcanzó un valor de Q de 0,67, que se mantuvo como record hasta 2021, cuando se alcanzó el valor de 0,7 en la Instalación Nacional de Ignición de EEUU (en este caso no se usa el confinamiento magnético sino otra técnica llamada confinamiento inercial con laser). Los otros puntos de la gráfica aún no se han alcanzado, son las previsiones para el ITER, en fase de montaje y para DEMO cuyo diseño se prevé para 2029. El objetivo es alcanzar una Q 10 para ITER y Q 25 para DEMO.
En este punto es muy importante aclarar a qué se refiere el valor de Q, como explica la física alemana Sabine Hossenfelder en un vídeo titulado “Nuclear con-fusion”. Y es que los valores de Q indicados se refieren a la ganancia de energía en el plasma, es decir, la energía que sale del plasma dividida entre la energía que se le aportó, pero no se cuenta el resto de consumo de energía necesario en las demás fases de la operación. En el caso del ITER la potencia de entrada en el plasma es de 50 megavatios (MW) y la salida de 500 MW, de ahí resulta la Q de valor 10, pero este es el valor de Q plasma, que no puede ser considerado una tasa de retorno energético (TRE), que sería lo relevante. Más cercano a una TRE sería la Q total, es decir, el cociente entre la energía final (eléctrica) y la energía consumida en todo el sistema. Más cercano, pero ni siquiera sería una TRE precisa, ya que para ello habría que incluir también la fase de obtención y procesamiento del combustible.
En el caso del ITER, la potencia de operación total es de 440 MW (no solo los 50 que se aplican al plasma). Por otra parte, los 500 MW que produce el plasma habría que transformarlos en electricidad, con un rendimiento, siendo muy optimistas, del 50 %, con lo que la potencia eléctrica de salida alcanzaría como mucho los 250 MW. Si dividimos esta salida entre los 440 MW de entrada, resulta una Q total de 0,57, y esa sí se acercaría más a una tasa de retorno energético que nos indicaría de manera mucho más clara en qué punto se encuentra esta tecnología. Si hiciéramos el mismo cálculo para JET, la Q plasma de 0,67 correspondería a una Q total de 0,01.
PREVISIÓN OPTIMISTA PARA LA FUSIÓN COMERCIAL
Se denomina “break even” a la situación en la que la energía invertida es igual a la energía generada, lo que daría un valor de Q igual a uno. Alcanzar este punto tendría un valor simbólico pero todavía alejado de una posible rentabilidad, que se estima para valores de Q a partir de 10. La confusión que denuncia Sabine Hossenfelder hace referencia a que cuando se habla del ITER, sus responsables citan el Q plasma, llamándole solo Q, sin especificar, lo que puede confundirlo con el Q total. En su propia página WEB indican que “ITER está diseñado para producir un retorno de energía diez veces mayor (Q=10)”. Si el Q total del ITER fuera 10, realmente se superaría el “break even” y se acercaría a valores de viabilidad de la fusión, pero como hemos visto, su Q total se queda lejos de este valor y bastante por debajo de un “break even” relevante.
Sabiendo ahora el verdadero alcance del ITER que lograría una modesta Q total de 0,57, podemos ver más datos sobre este proyecto. Primero aclarar que el ITER no está diseñado para producir electricidad, es nada más (y nada menos como reto científico) un gran laboratorio donde se va a experimentar la fusión, para comprobar si se puede alcanzar un Q plasma de 10.
La idea del programa ITER surge en noviembre de 1985, en la cumbre de Ginebra, donde varios países deciden colaborar en la investigación de la fusión nuclear. Dos años más tarde se concluyó un acuerdo entre la UE, Japón, la URSS y los EEUU, para concebir una instalación internacional con el nombre de ITER (International Thermonuclear Experimental Reactor), cuyos estudios de concepción arrancan en 1988, seguidos por varias fases de estudios técnicos cada vez más precisos, hasta la validación de su concepción definitiva en 2001. El acuerdo ITER se firmó oficialmente el 21 de noviembre de 2006 en París y los primeros trabajos, de preparación del terreno, se iniciaron en 2007 en Saint Paul-lez-Durance (Francia), donde se está montando la instalación.
Hoy en día trabajan miles de personas, tanto en Francia, como en otros países de Europa, además de en China, India, Japón, Corea del Sur, Rusia y EEUU, para construir la máquina de fusión magnética más potente de la historia, con un coste que rondará los 24000 millones de euros, convirtiéndose así en uno de los proyectos más costosos de todos los tiempos, tras el programa apolo, la estación espacial internacional, el proyecto Manhattan y el desarrollo del GPS.
En este momento, está construido el edificio que albergará el reactor y se está procediendo a su montaje. Se espera la obtención del primer plasma para 2025, en 2028 arrancarán las pruebas de baja potencia con hidrógeno y helio, en 2032 se iniciarán los test de alta potencia con esos mismos gases, y tres años más tarde, en 2035, comenzarán las pruebas de alta potencia con deuterio y tritio, que son los isótopos del hidrógeno con los que se realizará la fusión nuclear. Además de las pruebas de fusión de deuterio y tritio, en ITER informan que se experimentará la producción de este último elemento, ya que “el suministro mundial de tritio no es suficiente para cubrir las necesidades de las futuras centrales eléctricas”.
Fig. 7. Características de Tore Supra, JET, ITER y DEMO, donde aparece Q plasma como Q, sin especificar.
Así que si todo va bien, se espera iniciar la fusión de deuterio tritio para 2035, y si se cumplen las expectativas, en algunos años de pruebas, se podría alcanzar un Q plasma de 10, que correspondería, como máximo, a un Q total de 0,57. Paralelamente, se habría finalizado el diseño conceptual del proyecto DEMO (DEMOnstration Power Plant) en el que se probaría la producción de electricidad a partir de la fusión, y se iniciaría su montaje en 2040, con una finalización prevista en 2051, cuando comenzarían las pruebas para comprobar la viabilidad comercial de esta tecnología, de la que se esperaría (según este optimista calendario) tener alguna central productiva funcionando a lo largo de los años 60 del siglo XXI.
POSIBILIDADES DE LA FUSIÓN EN EL TIEMPO DE TRANSICIÓN
Teniendo en cuenta que el ITER llegaría como mucho a una TRE de 0,57 (siempre que pueda producir su propio tritio y considerando un rendimiento muy alto en la transformación de calor a electricidad), por mucho que DEMO triplicara este rendimiento, podría llegar a una TRE mayor de 1, logrando así la rentabilidad energética, pero se quedaría aún lejos del 10 que se puede considerar como referencia para acercarse a una posible viabilidad económica. Así que la fecha de 2060, más que a una previsión optimista, se parece al cuento de la lechera.
Si contamos con la opinión de expertos en la materia, podemos hablar de Jean Marc Jancovici, ingeniero consultor en energía y clima, fundador de la consultora Carbone 4, que asesora a diferentes organizaciones para su transformación hacia la descarbonización y el cambio climático y del think-tank The Shift Proyect, que tiene como objetivo rediseñar la economía para lograr la transición del carbono. Cuando le preguntan por la transición energética, Jean Marc se muestra favorable a la energía nuclear de fisión, pero descarta la fusión nuclear, pues estima que esta no estará disponible antes de los años 80.
Por su parte, Alex Martín, ingeniero industrial, especializado en técnicas energéticas, que hizo prácticas en el JET y que actualmente trabaja en el ITER como director de la cámara de vacío, afirma que la fusión nuclear “no es para mañana, esta es la idea, esto es una apuesta a muy largo plazo, […], es extremadamente difícil, […], el coste del proyecto es caro, […], lo estamos haciendo así porque otras alternativas no han salido mejor, […], la promesa de ITER se va a cumplir, tarde o temprano, [pero] va a llevar tiempo, puede llevar todavía 100 años”.
Teniendo en cuenta que la AIE prevé una bajada de la producción de petróleo cercana al 50 % para 2025 y que la ONU ha reconocido la necesidad de alcanzar la neutralidad de carbono para 2050, incluso la fecha superoptimista de los años 60, para disponer de la fusión nuclear, deja a esta tecnología totalmente fuera de una posible transición energética.
Así lo consideran también el físico Antonio Turiel, experto en energía e investigador del CSIC y Grégory de Temmerman, investigador especializado en materiales metálicos y energía, que trabajó durante 18 años en fusión nuclear, los 6 últimos en el ITER. En una entrevista en el podcast sismique, Grégory explica como fue su proceso, ya que cuando empezó su tesis en 2003, se suponía que el ITER estaría funcionando en 2016, así que cuando se revisó la fecha para 2035, entendió que la fusión seguía estando lejos y, preocupado por el cambio climático, decidió abandonar el ITER, cosa que hizo en 2020, para dedicarse a estudiar la transición energética.
Por último, no me resisto a incluir algunos extractos de la noticia dada por Jesús Díaz en El confidencial, aparecida el 24 de febrero y actualizada el 14 de marzo de 2022, porque pone de manifiesto las dificultades de una empresa tan compleja como es el ITER, pero sobre todo, porque me parece muy graciosa la forma de contarlo: “Han paralizado la construcción del reactor de fusión nuclear ITER por defectos de fabricación importantes. Es el enésimo parón y retraso por ahora indefinido […]. En un episodio chapucero digno de Pepe Gotera y Otilio —que el ‘New Energy Times’ relató el pasado noviembre—, la ASN (autoridad de seguridad nuclear) afirma que los dos sectores se cayeron al suelo en la fábrica y “sufrieron distorsión dimensional”. En otras palabras: se abollaron. Aun así, los enviaron al centro ITER para su reparación e instalación, en vez de hacerlo en la fábrica […]. A pesar de los defectos conocidos, su propuesta fue instalarlos de todas formas y arreglar los desperfectos dentro del pozo del tokamak. Finalmente, la operación se canceló porque —si algo fuera mal— la organización no podría desinstalar los sectores y el proyecto terminaría en desastre después de miles de millones de euros invertidos.”.
Fuentes:
Fernández Durán, Ramón y González Reyes, Luis (2018), “En la espiral de la energía. Historia de la humanidad desde el papel de la energía (pero no solo)”, Libros en acción (Ecologistas en acción).
Turiel, Antonio, (2020), “Petrocalipsis, crisis energética global y como (no) la vamos a solucionar”, Alfabeto.
https://www.reddetransicion.org
https://www.iea.org
https://www.foronuclear.org
https://www.iter.org
Canal de youtube de Le Réveilleur, (jul. 2019), Les ressources d’uranium.
Canal de youtube de Sabine Hossenfelder, (oct. 2021), Nuclear con-fusion.
Canal de youtube de Monsieur Bidouille, (oct. 2021), À l’intérieur d’ITER -Visite du chantier du plus gros tokamak du monde.
Canal de youtube de Monsieur Bidouille, (jul. 2022), ITER est il obsolète? -L’avenir de la fusion nucléaire.
Canal de youtube de Quantum Society, (mar. 2021), Javier Santaolalla entrevista al ITER, entrevista a Alex Martín.
Podcast sismique, (jun. 2021), Fusion nucléaire: la panacée?, entrevista a Greg de Temmerman.
¡Traed madera, traed madera! Gritaba Groucho en la película “Los hermanos Marx en el Oeste” y con esa madera hacían que el tren avanzara a toda velocidad. ¡Billets, billets! Exclama Héctor de Miguel en el programa “Hora veintipico” cuando las instituciones inyectan dinero para relanzar la economía. Parece lógico que igual que el combustible mueve una máquina, el dinero mueve la economía, pero en realidad hay una gran diferencia.
El combustible es una sustancia que cuando se quema emite energía, al ser la combustión una reacción exotérmica. Si la combustión se hace en el interior de una máquina, esta transforma la energía en trabajo que se puede aprovechar para desplazarnos, en el caso del tren, para arar la tierra, si la máquina es un tractor, etc.
El dinero en cambio, no es una sustancia. Puede estar representado por un billete, por una moneda, por un número apuntado en una cuenta, pero en ningún caso es un objeto, es simplemente una convención. Aparentemente mueve montañas, pero es solo una apariencia, quien realmente las mueve es el trabajo humano.
Se estima que una persona puede desarrollar una potencia de alrededor de 100 vatios, pero con ingenio, recursos y la tecnología apropiada, podemos, literalmente, mover montañas. Un ejemplo lo tenemos en Las Médulas, en la provincia de León, donde las montañas fueron totalmente transformadas, y además fue hace 2000 años, cuando aún no se usaban los combustibles fósiles.
Antes de la aparición del dinero, la gente tenía claro que un bien se producía como fruto de un trabajo. Para producir hortalizas había que remover la tierra, poner la semilla, quitar hierbas, etc.; para producir una cuchara de madera, había que cortar una rama, tallarla, etc. Pero después de muchos siglos usando el dinero, parece que algunas personas han olvidado esto y piensan que es el dinero el que produce los bienes.
Hay un proverbio del pueblo Cree que dice “Solo después que el último árbol sea cortado, solo después que el último río haya sido envenenado, solo después que el último pez haya sido atrapado, solo entonces nos daremos cuenta que no nos podemos comer el dinero”. A estas alturas, con un calentamiento global que ya se hace sentir, una pérdida de biodiversidad sin precedentes, una degradación del suelo en aumento, y altísimos niveles de contaminación en el agua y en la atmósfera, todavía hay quien no se ha dado cuenta y piensa que la tecnología y el sistema económico que han causado estos problemas los van a resolver.
En el siglo XVIII surgió una escuela de pensamiento económico, la fisiocracia, que consideraba que solo la naturaleza es capaz de producir excedente económico, al producir más recursos que los insumos utilizados, siendo muy crítica con el mercantilismo, que no produce nada. El modelo actual, en cambio, concede excesiva importancia al mercado y al dinero que se mueve en él, considerando que los recursos naturales, en conjunto, son ilimitados. Se puede acabar un recurso, pero si eso sucede, siempre aparecerá otro que sustituirá la función que el primero cumplía.
Las escuelas económicas que actualmente predominan son: La keinesiana, que considera que el Estado debe intervenir para regular el mercado, sobre todo en tiempos de crisis; la liberal, que rechaza la intervención del Estado, afirmando que el mercado se regula solo; y la schumpeteriana que pone el acento en la innovación y la capacidad emprendedora. De cada una de ellas pueden surgir distintas propuestas sobre cómo crear y mover el dinero, en qué sectores invertir, de qué manera hacerlo, pero lo que tienen en común es que no analizan los recursos disponibles. Eso lo delegan en la ciencia, de la que siempre esperan una respuesta, aunque puede que en algún momento no la haya.
Eso sucede con la actual crisis energética. El pico del petróleo convencional se produjo en 2006, desde entonces, los petróleos no convencionales han conseguido mantener un alto nivel de producción, pero eso solo ha sido un parche temporal, que ya se acaba.
Ahora que la inflación se está disparando, nos explican que es culpa del parón del COVID y de la posterior impresión de dinero y planes de estímulo de EEUU, que inyectaron dinero en la economía, cuyo efecto se trasladó a los precios internacionales; que a esto se le suma el impacto de la guerra de Ucrania,… pero no se plantea la cuestión central: El dinero solo sirve si existen recursos materiales y energéticos que sustenten su valor.
La drástica disminución de la disponibilidad de energía nos aboca a un descenso de la economía (en su acepción original de recursos para cubrir necesidades) y a un colapso de la crematística, que es el enriquecimiento, o sea la economía financiera, que se basa en la especulación y que no puede funcionar en la fase de decrecimiento a la que estamos abocados. Pues según cálculos del economista francés Gäel Giraud, cada punto de crecimiento del PIB se compone en un 60% de aumento de energía, en un 10% de eficiencia energética y el 30% restante es el aporte de capital y trabajo. Así que por mucha innovación que se introduzca en la ecuación, no puede haber crecimiento económico sin aumento en el consumo de energía.