El Progreso Económico Capitalista Desde La Revolución Industrial Hasta Su Actual Crisis

Antonio García-Olivares y  Amaya Beitia (2019), Intersticios 13 (1), pp. 23-44.

Transcribimos el texto del artículo publicado, al que hemos añadido únicamente algunas figuras.

Resumen:

El presente artículo analiza las formas que han tomado las relaciones entre las prácticas económicas industrial-capitalistas del siglo XIX, XX y actuales, por un lado; las prácticas de poder y administración estatal de los estados desarrollados por otro; y la idea moderna y contemporánea de progreso. Analizamos el impacto que ha tenido la gran aceleración económica de la post-guerra sobre los trabajadores y los ecosistemas mundiales, y la gran crisis de modelo económico y de cosmovisión que se produce entre 2008 y la actualidad. Finalmente, estudiaremos las reformulaciones críticas que se están haciendo de la idea de progreso desde escuelas de pensamiento como la economía ecológica, el decrecimiento y los movimientos sociales anticapitalistas.

Palabras clave: progreso; capitalismo; revolución industrial; crisis de civilización

 Introducción

El ensamblaje en Europa entre prácticas de poder estatal, prácticas económicas capitalistas (la “memorable alianza” estudiada por Weber (1981 [1927])) y una cosmovisión sancionadora de dicha alianza (la ideología del progreso), es clave para entender la evolución de las sociedades desde la revolución inglesa hasta el presente. A este sistema económico-político-ideológico lo hemos denominado “programa del progreso” en un artículo previo (García-Olivares 2011).

En dicho artículo analizamos la articulación de tal cosmovisión, y del conjunto de prácticas económicas y políticas asociadas, durante la Revolución Inglesa y las décadas que le siguieron. En este artículo analizaremos su evolución a lo largo del desarrollo del capitalismo, con especial énfasis en el periodo que va de la Revolución Industrial hasta nuestros días, donde ha entrado en una crisis que consideramos terminal, debida a motivos ecológicos.

Desarrollo económico entre los siglos XVI y XVIII

En su estudio del capitalismo entre los siglos XV y XVIII Fernand Braudel enfatiza que es necesario distinguir entre los intercambios de mercado o “economía de mercado” y la economía capitalista. Los primeros consistirían en los intercambios cotidianos en los mercados locales o a corta distancia, e incluso los que tienen lugar en un radio más amplio, siempre que sean previsibles, rutinarios y abiertos, tanto a los pequeños como a los grandes comerciantes. Los segundos serían los controlados por el pequeño grupo de los grandes negociantes, “amigos del príncipe, aliados o explotadores del Estado” (Braudel 1985).

mercadomedievalok_Grande

Representación de un mercado semanal en el Antiguo Régimen

Los primeros, están regulados por la competencia, mientras que los segundos son oligopólicos y generan grandes beneficios y acumulación de capital, tanto más cuanto que el comercio a larga distancia sólo se reparte entre unas pocas manos.

Este fenómeno es visible en las ciudades italianas desde el siglo XII, en París desde el XIII; o en Alemania desde el siglo XIV. Estos grandes comerciantes, tienen contactos y alianzas con los príncipes, utilizan el crédito y las letras de cambio y cuentan con información privilegiada y cultura. Además, el gran comerciante no se especializa como hacen los pequeños comerciantes y artesanos, sino que, por el contrario, cambia a menudo de actividad comercial. Esto se debe a que, los grandes beneficios cambian sin cesar de sector. Tanto los mercados como el capitalismo fueron minoritarios hasta el siglo XVIII, para crecer exponencialmente después (Braudel 1985).

Braudel está de acuerdo con Weber en que el capitalismo ha conseguido prosperar de forma especialmente rápida cuando se ha aliado o identificado con el Estado. En las ciudades-estado de Venecia, Génova y Florencia, la élite del dinero fue la que ejerció el poder. En Holanda del siglo XVIII la aristocracia de los Regentes gobernó siguiendo el interés, y a veces las directrices, de los hombres de negocios, negociantes y proveedores de fondos. En Inglaterra, tras la revolución de 1688, se llegó a un compromiso entre Estado y burguesía similar al que se había ensayado en Holanda. En Francia, tras la revolución de 1830, la burguesía consiguió instalarse por fin dentro de los gobiernos.

Las nuevas familias burguesas, cuyas fortunas proceden del capital comercial y financiero, van desplazando a la antigua aristocracia feudal de los puestos relevantes de gobierno. Esto fue posible en el marco político del feudalismo europeo pero, como enfatiza Braudel, hubiera sido impensable en la China clásica o en los estados islámicos. Según Braudel, la sociedad europea del final del feudalismo “es una sociedad en la cual la propiedad y los privilegios sociales se encuentran relativamente a salvo, en la cual las familias pueden disfrutar de aquellos con relativa tranquilidad, al ser la propiedad sacrosanta (Braudel 1985).

Vernet-marseille-1754

Intérieur du Port de Marseille, obra de 1754 de Joseph Vernet.

Según algunos autores, este contexto político es específico del feudalismo europeo. En China, los exámenes estatales para el mandarinato garantizan que las fortunas amasadas por las familias que consiguen poner a uno de sus miembros en el funcionariado no pueden acumularse a lo largo de generaciones. Los que logran ascender a la cima no pueden colocar a sus hijos en el sistema saltándose el sistema de exámenes; y las familias que lograban hacerse ricas mediante los negocios eran sospechosas para el Estado, que se otorgaba de modo exclusivo el derecho sobre la tierra, el derecho de recolectar impuestos y el control de las empresas mineras, industriales y mercantiles. En China el Estado nunca permitió el aumento de poder de los comerciantes capitalistas (Braudel 1985; Needham 1954; 1977; 1986).

Carneiro expuso su teoría de que los grandes estados de la antigüedad fueron capaces de controlar directamente las actividades económicas de altos excedentes debido a factores ecológicos típicos de las cuencas fluviales de regadío rodeadas por desiertos (Carneiro 1970). Wittfogel  subrayó también la facilidad de centralización que tienen esta clase de economías de regadío dependientes de un sistema de gestión del agua (Wittfogel 1979). Harris (1985, 1986) ha defendido también estos mecanismos como explicación de la asimetría entre los débiles “estados dependientes de la lluvia” europeos y los despóticos estados “de regadío” de China e India, así como Mesopotamia y Egipto en la antigüedad. Sea o no esa la explicación última de la asimetría entre el poder de los estados en China y en Europa, el caso es que debido a ella esa “alianza memorable” entre burguesía y Estado, que describió Weber, estaba imposibilitada desde el principio en China.

La hipótesis de Weber de que el capitalismo moderno es una creación de los puritanos del Norte de Europa es falsa según Braudel, porque los países del norte de Europa no inventaron nada, ni en la técnica ni en el manejo de los negocios. Por el contrario, Amsterdam se limitó a copiar a Venecia, del mismo modo que Londres copiará a Amsterdam posteriormente, y Nueva York a Londres (Braudel 1985). Sí hay acuerdo en que Inglaterra experimentó una temprana revolución agrícola durante el siglo XVIII, provocada por la aceleración de la concentración de la propiedad del suelo a partir de 1760, por las leyes de cercamientos, que aceleró la migración de trabajadores sin tierras hacia las ciudades. El ambiente social inglés ya en el siglo XVII adscribía la posición social principalmente según las propiedades poseídas, antes que según la tradición o el rango. Y la orden parlamentaria de vallados completó la transformación de los antiguos derechos en derechos de propiedad individual intercambiables en el mercado. Esto puso a Inglaterra a la cabeza de las transformaciones favorables a la expansión de los mercados de productos agrícolas e industriales pero estas transformaciones podrían haberse producido en cualquier otro país de Europa, pues las precondiciones esenciales para la industrialización se daban en toda Europa (Kemp 1986).

Podríamos preguntarnos por qué fue entonces Inglaterra y no otro país europeo quien tomó la delantera en el desarrollo industrial capitalista. Tal como subrayó Hobswaum (1964) los avances técnicos ingleses estaban muy por detrás de los franceses en 1750. Una hipótesis sugerente es que pudo ser el hecho de que la primera revolución “burguesa” (1689) de Europa triunfase en Inglaterra la que fuese decisiva para dar a este país la ventaja frente a otros países europeos. En efecto, las citadas leyes de cercamiento no habrían sido tan fácilmente aprobadas y puestas en práctica, si el parlamento y las instituciones inglesas no hubiesen estado controlados desde dentro por la burguesía. Entre fines del s. XV y todo el XVI la usurpación violenta de tierras y su conversión en pastizales era violencia individual, contra la que luchó en vano la legislación durante 150 años. En cambio, en el siglo XVIII la ley se había convertido en vehículo de usurpación con las “Bills for Enclosures of Commons”.

Los detalles de este proceso han sido discutidos por Anderson (1987); Bloch (1970); Dobb (1971); Hibbert (1953, p. 16); Hilton (1987); Aston y Philpin (1988); Marx (1995 [1873], vol. 1, T.3, XXIV); North (1981); Parain et al. (1985); Wallerstein (1984); y Wallerstein (1987, p.144).

Como subraya Ingham (2008), la creación de los primeros bancos centrales, y con ello la institucionalización del dinero-crédito capitalista, fue el elemento más importante en el que cristalizó la “alianza memorable” (Weber 1981 [1927]) entre el Estado y la burguesía tras la revolución inglesa. La separación gradual del dinero del metal precioso escaso posibilitó el vasto incremento de su oferta que financió la enorme expansión de la producción y el consumo.

La creación del Banco de Inglaterra, en 1694, fué precipitado fue el incumplimiento de la deuda contraída por Carlos II con los comerciantes de Londres en 1672. El conflicto entre la burguesía y la monarquía culminó en la oferta del trono al rey holandés Guillermo de Orange, avezado en finanzas, en la Revolución Gloriosa de 1688. Basadas en técnicas que habían utilizado por primera vez las ciudades-estado italianas, las finanzas holandesas habían creado un “banco público” que prestaba al Estado depósitos basados en la promesa del rey de pagar la deuda, exactamente del mismo modo que los bancos privados habían empezado a hacer.

col_boe_0803_large

A View of the Old Bank of England, London, c.1800, obra de Thomas Hosmer Shepherd (1792–1864), Bank of England Museum.

La oferta del trono inglés a Guillermo se hizo junto a un acuerdo constitucional político y fiscal por el que el nuevo monarca estaba obligado a aceptar su dependencia financiera respecto al Parlamento por medio de un acuerdo vinculante. El préstamo adquirido a largo plazo para financiar el gasto de Guillermo se realizó por medio de la adopción de estas nuevas técnicas de banca pública y representó una alianza entre la burguesía y el Estado. El Banco de Inglaterra se financió con un capital de 1,2 millones de libras procedentes de los comerciantes londinenses, que se prestó a Guillermo a un interés del 8 por ciento y, a su vez, se basó en impuestos y derechos arancelarios. El préstamo y la promesa del Rey de su reintegro se consideraban el “activo” del Banco, y por consiguiente se convirtieron en la base para la emisión de nuevos préstamos de sus billetes a prestatarios privados, por la misma cantidad de 1,2 millones de libras (Ingham 2008). En esencia, las normas de la nueva práctica bancaria habían doblado el dinero disponible para la economía, la mitad para iniciativas públicas y la mitad para iniciativas privadas.

Como Ingham (2008) sugiere, , cientos de bancos locales replicaron el mismo proceso para fabricar dinero durante el siglo siguiente, y los acuerdos para producir el dinero-crédito capitalista se imitaron con varios grados de éxito en todos los países del mundo occidental. Es un mecanismo que conecta las finanzas capitalistas con el Estado en una relación de ventaja mutua en la que a los dos les interesa su supervivencia y prosperidad. Además, con esta innovación, se logró mayor estabilidad, más flexibilidad en la oferta de dinero, y con ello un crecimiento económico más rápido.

Desarrollo Económico entre la revolución industrial y nuestros días

Como han demostrado Polanyi (1989), Hobsbawm (1977) y Wallerstein (1989), la creación de un sistema liberal de laissez-faire en Reino Unido, de un sistema de importación de materias primas de las colonias, y de un sistema de exportación de manufacturas inglesas, fueron creadas por el Estado, con la ayuda de leyes creadoras de mercados de trabajo, leyes liberalizadoras, tarifas proteccionistas, primas a la exportación, ayudas indirectas a los salarios y ocupación militar de colonias. Además, para los autores liberales, el estado debía evitar el exceso de regulación, pero era imprescindible para asegurar la seguridad de la propiedad privada y la libertad económica, de las que surgiría el progreso de las naciones (Laski 1939).

Según Erik Hobsbawm (1964: 73), la producción textil inglesa utilizaba la lana de sus ovejas y el lino y estaba orientada al consumo doméstico. Pero gracias al control de los mercados coloniales, muchos burgueses encontraron favorable usar algodón importado de la India en sus tejidos. La ventaja del algodón era que, al proceder de los territorios coloniales, “su abastecimiento podía aumentarse y su precio reducirse con los drásticos procedimientos utilizados por los blancos en las colonias”, esto es, utilizando trabajo esclavo o servil.

Tal como él nos indica, de una producción textil orientada al consumo doméstico y que utilizaba lana se fue pasando a una producción basada en el algodón y orientada a la demanda europea y, más tarde, fue convirtiendo también a sus posesiones coloniales en mercados para sus exportaciones textiles. Con este fin, el Estado británico forzó la desindustrialización de la India, que pasó de exportadora a convertirse en una gran importadora de prendas de algodón. La estabilidad de este comercio internacional era controlada en gran parte por la potencia militar de la marina inglesa (Hobsbawm 1964).

Los artículos industriales habituales en el siglo XVIII, tales como ropa, artículos de madera y metal, y otros artículos útiles para la agricultura o los hogares, se producían principalmente a través del putting-out system en el que el productor directo trabajaba en su propia casa o taller. Sin embargo, el crecimiento de los mercados interno y externo estimulaba a mayores inversiones en la producción para el mercado, y puso al descubierto las limitaciones que tenía la organización industrial existente. Este sistema tenía ventajas para el capitalista, como la de evitarle grandes inversiones en capital fijo, pero le impedía supervisar y controlar la continuidad y calidad del suministro (Kemp 1986). Para aprovechar las nuevas oportunidades de beneficio, se reunieron en grandes talleres a los trabajadores que realizaban tareas similares, como el hilado o el bordado.

Ante una demanda de textiles creciente, la sustitución del trabajo a domicilio por la fábrica produjo una acumulación progresiva de innovaciones tecnológicas que favorecieron el aumento de la productividad del nuevo sistema, la sustitución del trabajo artesano por máquinas, y la aplicación de la energía no humana a las máquinas. Inicialmente, las fábricas textiles se construyeron junto a cascadas o flujos fluviales, donde podía utilizarse la energía hidráulica para mover las máquinas. El número de fábricas que usaban máquinas de vapor movidas con carbón sólo igualó a las movidas por energía hidráulica alrededor de 1830 en Inglaterra, 55 años tras la invención de Watts. Esta conversión a la energía del vapor no tuvo lugar porque fuera más barata, que inicialmente no lo era, sino porque permitía a los propietarios el instalar sus fábricas en las propias ciudades o sus alrededores, donde tenían acceso a mano de obra desempleada, abundante y barata (Angus 2016, Cap. 8).

sewingroom_lg

Como indica Angus (2016, Cap. 8), la producción de hierro se continuó haciendo con carbón vegetal obtenido de madera hasta bien entrado el siglo XVIII, debido a que las impurezas contenidas en el carbón mineral lo hacían inviable para la reducción del mineral de hierro. Desde hacía varios siglos se conocía en Europa la destilación del carbón mineral bituminoso, calentándolo a temperaturas de 500 a 1100 °C sin contacto con el aire, para producir un carbón, llamado coque, que tenía la pureza suficiente para la reducción del hierro. Sin embargo, el uso de esta técnica sólo se extiende alrededor de 1800, y posibilita que la construcción de locomotoras de vapor y vías férreas se libere del cuello de botella que suponía la escasez de madera. El siglo XIX fue el siglo de la construcción de vías férreas y locomotoras en toda Europa y EEUU. El carbón fue también incorporado en los motores de los barcos de guerra y los mercantes. Esto desequilibró el poder militar hacia las naciones occidentales. El año 1880 puede considerarse como el del nacimiento del complejo militar-industrial, inicialmente asociado al carbón y los motores de vapor (Angus 2016, Cap. 8).

Como describe Hobsbawm (1977), durante la primera mitad del siglo XIX,  la industria textil (y en particular el algodón) fue la primera y única industria británica en la que predominaba la fábrica moderna. La producción fabril en otras ramas textiles se desenvolvió lentamente antes de 1840, y en las demás manufacturas era insignificante. Pero en esa  primera mitad del siglo XIX se iniciaron las grandes fundiciones de hierro y acero, que iban a marcar la siguiente fase del desarrollo industrial. Durante toda la historia anterior, la demanda de hierro había sido esencialmente militar. Pero esto comenzó a cambiar a partir de la invención del ferrocarril, y la construcción de la primera línea férrea en la zona minera de Durham en 1825 para sacar el carbón hasta el mar. En las dos primeras décadas del ferrocarril (1830-1850), la producción de hierro en Inglaterra ascendió desde 680.000 a 2.250.000 toneladas, es decir, se triplicó. También se triplicó en aquéllos 20 años la de carbón, desde 15 a 49 millones de toneladas. En 1800 Inglaterra producía 10 veces más carbón que países como Francia o Alemania, y a lo largo del siglo XIX multiplicó su producción por 23, aunque para entonces había sido superada por la producción de Estados Unidos. Este crecimiento de la siderurgia derivó principalmente del tendido de las vías, pues cada milla de raíles requería unas 300 toneladas de hierro (Hobsbawm 1977).

original-1156946-1

Según este historiador, salvo Inglaterra y algunos pequeños territorios fuera de ella, el mundo económico y social de 1840 no parecía muy diferente al de 1788. La mayor parte de la población seguía siendo campesina, y los movimientos económicos continuaban sometidos al ritmo cíclico de las buenas y malas cosechas. Así, el período de verdadera industrialización en masa no se produjo en Europa hasta después de 1848. La industrialización fabril apenas si había comenzado en los países del continente europeo, y a mediados del siglo XIX (1848) sólo una gran economía estaba empezando a industrializarse, la británica (Hobsbawm 1964; Lopez Navarro 2018). Los demás estados europeos pudieron observar cómo el ensamblaje de economía industrial y política estatal colonialista estaba permitiendo al Reino Unido empezar a dominar el mundo.

Laski (1939), Polanyi (1989), Hobsbawm (1977) y Wallerstein (2016) han descrito cómo la creciente implantación de políticas liberales por el Estado estaba sumiendo en la inseguridad económica a los sectores más pobres de la población. Con las revoluciones de 1848, los capitalistas se dieron cuenta de que los levantamientos anti-conservadores liderados por los liberales se radicalizaban con mucha facilidad, de la mano de las masas más empobrecidas. En la segunda mitad de siglo, se van convenciendo de que sólo un estado reformista puede protegerlos del descontento de los trabajadores organizados. Tras la mitad de siglo, el “Estado fuerte” se va convirtiendo en un “Estado de bienestar” (Wallerstein 2016, Cap. 3). Esa dinámica se reforzará tras la revolución rusa de 1917 y en la guerra fría de la postguerra.

De acuerdo con Villares y Bahamonde (2001), en el período entre 1850 y 1874 Europa asistió a un período de crecimiento y cambio económico sin precedentes históricos. La industrialización del continente comenzó con el ferrocarril y la industria siderúrgica, aprovechándose de la experiencia previa del modelo inglés. Recurrió en gran medida a la financiación externa, lo que la hizo dependiente de la banca. El Estado desempeñó un papel protagonista como motor de la industrialización, en especial en Rusia, pero también en la Europa central y occidental (Alemania, Francia, Bélgica) y mediterránea (Portugal, España, Italia)  (R. Villares; Bahamonde, A 2001). Eric Hobsbawm (1977: 46) define estas décadas como: “el período en el que el mundo se hizo capitalista y una significativa minoría de países ‘desarrollados’ se convirtieron en economías industriales”. Entre 1850 y 1870 la producción mundial de carbón se multiplicó dos veces y media, la producción mundial de hierro en unas cuatro veces, y la potencia de vapor total en cuatro veces y media (Hobsbawm 1977:46).

En la minería, la impredictibildad de las localizaciones de los minerales aconsejaba buscar una fuente de energía independiente de los cursos fluviales. Los experimentos para conseguir un motor capaz de elevar el agua, mediante el vacío producido por la condensación del vapor, habían logrado construir, a mediados del siglo XVII, una primera máquina de escasa potencia y limitada aplicación, desarrollada por Savery. Newcomen combinó la presión de vapor con la atmosférica para producir una máquina mucho más eficaz, aunque muy consumidora de combustible. La máquina de vapor de Watt logró suministrar potencia sin ayuda de la presión atmosférica, y contribuciones posteriores la hicieron más eficiente que otras (Hulse 1999).

De 1850 a 1900, las innovaciones tecnológicas con aplicación industrial se aceleran, unidos en muchos casos a los laboratorios científicos, que empiezan a entrar en la industria (Hobswam 1977). En especial, las relacionadas con la industria textil, la producción barata de acero, la producción industrial de aluminio y de sosa cáustica, y los nuevos explosivos químicos que estallan por percusión como la nitrocelulosa y la nitroglicerina, así como la dinamita. Se desarrollan también los fertilizantes sintéticos, como los superfosfatos, el nitrato sódico y el abono de potasio (Bilbao y Lanza 2009).

El descubrimiento del motor de explosión en 1880, y el del aeroplano en 1903, permitieron que una fracción del petróleo que las refinerías desechaban por  inútil y peligrosa, la gasolina, tuviera una creciente utilidad en los nuevos motores (Angus 2016, Cap. 8). Estos motores de combustión interna eran más compactos que los de vapor y tuvieron una gran importancia en la I Guerra Mundial, en todos los vehículos terrestres y también en buques y submarinos.

Distintos descubrimientos e inventos comenzaron a modificar la vida cotidiana de la población occidental (Bilbao y Lanza 2009): telégrafo de Morse; en 1876, primera llamada telefónica (Bell y Meucci); en 1877, fonógrafo de Edison, quien en 1879 diseña la primera bombilla eléctrica; en 1885, primer automóvil (Benz), movido por Nafta. A la vez, las ciencias bio-médicas, con el apoyo de laboratorios y universidades financiados por el estado, revoluciona el saber con la evolución darwinista, la herencia genética de Mendel, la desinfección en la cirujía de Joseph Lister, el éter en la anestesia, el descubrimiento de Koch de los bacilos que producen la tuberculosis y el cólera, el suero antidiftérico, la pasteurización, las primeras vacunas, y la aspirina (1897).

Entre 1874, y 1893, se produce una larga crisis en los países industrializados, a pesar de que la producción mundial continuó creciendo, sobre todo en EEUU y Alemania, y la revolución industrial se extendió a nuevos países como Suecia y Rusia (Lopez Navarro 2018). Sin embargo, se estaba produciendo una fuerte caída de los precios de las mercancías, que en el Reino Unido fue de un 40% entre 1873 y 1896. La industrialización de nuevas economías en el período anterior y la mejora de las comunicaciones habían aumentado el número de competidores, por lo que la caída de los precios no pudo compensarse mediante una expansión del mercado. La consecuencia fue que cayeron las tasas de beneficios de los productores, y los menos “competitivos” fueron a la quiebra (Hobswam 2009, cap. 2).

Curiosamente, los trabajadores industriales de Europa ganaron poder adquisitivo durante esta crisis. Por un lado, se beneficiaron de la caída de los precios de los alimentos y las mercancías industriales. Por otro lado, las posibilidades de emigración a América redujeron la competencia en el mercado de trabajo al dar una salida a los europeos más pobres (Paramio 1988: 85).

Segunda Revolución Industrial, Taylorismo y Fordismo

La crisis de finales del siglo XIX generó un nuevo modelo de negocios caracterizado por la concentración de empresas, que logró evitar la fuerte competencia determinada por la caída de los precios. Se crearon grandes empresas industriales y financieras al mismo tiempo que se expandía el motor de electricidad y explosión. A diferencia del vapor, estas dos tecnologías pudieron adaptar su tamaño al consumo doméstico. Un tercer elemento convergente fue la creciente dificultad para exportar en la Europa nacionalista de antes de la guerra, que favoreció el desarrollo de los mercados internos (Hobsbawm 2009).

La caída de los beneficios en el período de la crisis sugirió que los métodos tradicionales y empíricos de organizar las empresas no eran adecuados. Hacia finales del siglo XIX, los obreros seguían teniendo el control del “saber hacer”, lo cual les permitía cierta autonomía para “dirigir, regular y controlar ellos mismos su proceso de trabajo y fijar el tiempo asignado para su realización” (Neffa, 1990:104). Por ejemplo, las fundiciones de acero de gran calidad y de gran duración todavía eran llevadas a cabo por obreros especialistas de salarios relativamente altos (Othón Quiróz 2010: 76). Sin embargo, en la última década del XIX, la inventiva y saber hacer del obrero se vio golpeada por dos frentes: (i) la estandarización de las operaciones del Taylorismo; y (ii) el modelo de eliminación de los obreros cualificados, generalmente sindicalizados, representado en la figura de Andrew Carnegie, quien en 1892 decidió terminar con los trabajadores calificados de su planta en Homestead (Lens, 1974:74; Othón Quiroz 2010:76).

Taylor (1911) elaboró un sistema de organización racional del trabajo que se basaba en la observación del proceso de trabajo de los obreros y su forma de usar las herramientas. El fin era maximizar la eficiencia del uso de las máquinas y herramientas, mediante la división sistemática de las tareas, la organización del trabajo en sus secuencias y procesos, y el cronometraje de las operaciones, más un sistema de motivación mediante el pago de primas al rendimiento, suprimiendo toda improvisación en la actividad industrial (Coriat 1991). Taylor propuso aplicar sus métodos no sólo en las fábricas, sino en toda la sociedad.

Taylorismo

A principios del siglo XX, la racionalización del saber hacer obrero de Taylor da un nuevo salto con los elementos que introdujo Henry Ford. Los más característicos fueron: la línea de montaje; la producción en serie; la estandarización e intercambiabilidad de las piezas; la exportación como medio importante de expansión comercial; el principio de la participación en los beneficios de todo el personal; y un sistema de ventas a crédito que permitía a todos sus trabajadores poseer un automóvil (Jaua Milano 1997).

Gracias al fordismo aparece una nueva clase trabajadora, la del obrero especializado que sólo controla una parte muy concreta de la línea de producción. Su status crecerá con respecto al del antiguo proletario de la industrialización, pero nunca volverá a controlar todo su proceso de trabajo como el antiguo artesano (Coriat 1991). El fordismo consiguió construir un sistema de producción mercantil estándar y una norma de consumo de masas coherente con él, abriendo el escenario para una clase media que simbolizaría el “american way” (Krugman 2009).

Ford T linea de ensamblaje 1923

Entre 1894 y 1914 transcurren veinte años de prosperidad. La crisis previa puso fin al liberalismo económico, la libre competencia y las empresas familiares y trajo consigo la aparición de las grandes sociedades anónimas modernas, los oligopolios, un reforzamiento del Imperialismo, que triplicó el comercio internacional de materias primas, y la incentivación de la innovación tecnológica. En esta “segunda revolución industrial” se incorporaron a la vida moderna el teléfono y la telegrafía sin hilos, el fonógrafo y el cine, el automóvil y el aeroplano, y despegó la industria petrolera.

Las nuevas ramas “estelares”, las industrias basadas en la química, la electricidad, y el motor de combustión, permitieron acumular grandes beneficios a los oligopolios (Hobsbawm 2009). En 1916, Lenin calculó que el 1 por ciento de las empresas en los Estados Unidos era responsable de casi la mitad de toda la producción, y que menos del 1 por ciento de las empresas en Alemania utilizaban más de las tres cuartas partes de todo el vapor y la energía eléctrica” (Angus 2016). Las 200 mayores compañías norteamericanas pasaron de tener el 35% del volumen de negocios en 1935 al 47% en 1958, según este autor. Con ello, los acuerdos entre oligopolios pasan a tener una posición dominante en la política económica, por encima de la competencia de mercado.

La revolución industrial había creado una economía global que vinculaba a los países desarrollados con los no desarrollados. Esto despertó el interés de los estados de los países desarrollados en aquellos otros países y en sus recursos. El control político de nuevos mercados parecía conveniente para colocar a las empresas nacionales en situación de monopolio en nuevos territorios y exportar allí cualquier “sobreproducción” que pudiera producirse en el país occidental. El resultado fue el reparto imperialista de las zonas no ocupadas del tercer mundo y el aumento del intervencionismo estatal en la economía global (Hobsbawm 2009). Este autor sugiere que la conquista por el propio estado de territorios y razas exóticas fue interpretado por amplias clases sociales occidentales como un signo del poder de la propia nación y de la propia raza, por lo que el imperialismo tenía también una función aglutinadora ante la desigualdad que el capitalismo estaba generando entre clases sociales.

La gran inflexión de la II Guerra Mundial y el Boom de la Postguerra

El fin de la II Guerra Mundial dejó a EEUU indemne y con un PIB casi doble que antes de la guerra. Casi dos tercios de la producción industrial estaban concentrados en este país. En particular, la industria del petróleo era la más fuerte del mundo: seis de cada siete barriles de petróleo que usaron las fuerzas aliadas en la guerra habían procedido de la industria norteamericana. La política del estado norteamericano de poner todas las industrias al servicio de la guerra pero garantizando a la vez amplios beneficios a sus propietarios, condujo a un rápido crecimiento de los grandes oligopolios y del PIB. Las virtudes aparentes de una economía de guerra permanente fueron aplicadas en las décadas posteriores mediante un keynesianismo de guerra fría que preparaba una posible III Guerra Mundial con la URSS a la vez que prevenía la inestabilidad social que tendría lugar si volvieran los tiempos de un desempleo masivo (Angus 2016).

Tras la rendición de Alemania, muchos empresarios despidieron a gran parte de sus trabajadores, a la vez que la desaparición de los controles de guerra provocaba inflación en los precios de los productos básicos. Ello, unido a la memoria del sufrimiento popular durante la guerra, provocó en 1945 y 1946 la mayor oleada de huelgas que se haya producido nunca en EEUU. La reacción de las clases propietarias fue un endurecimiento legislativo contra las huelgas “irresponsables”, promoción de los líderes sindicales afines al sistema, y promesas económicas a los obreros moderados. La consecuencia fue un pacto de facto entre los líderes corporados y públicos con los líderes sindicales “legítimos” en el que los sindicatos cederían a sus empleadores el derecho absoluto a controlar las fábricas, establecer precios, e introducir unilateralmente maquinaria; y si los líderes sindicales hacían cumplir los acuerdos de no huelga y disciplinaban a los obreros indisciplinados, los empleadores garantizarían aumentos constantes en los salarios, aceptarían a los sindicatos como representantes legales de los empleados, y no bloquearían la aprobación de leyes de bienestar social (Yates, Naming the System; citado por Angus 2016).

Los Angeles Oil extraction

Campo petrolífero en Signal Hill (Los Angeles) alrededor de 1937

La Gran Aceleración económica que se produjo tras la guerra, hasta 1973 (Edad Dorada del Capitalismo), fue alimentada por un precio del barril de crudo que en Arabia Saudí fue de menos de 2 USD en todo el periodo entre 1950 y 1973, un periodo en el que el consumo mundial  de energía se triplicó. Como resume Angus (2016): “A principios de 1950, existían cuatro motores clave del gran boom: una poderosa base industrial en los Estados Unidos, concentrada en unos pocos cientos de corporaciones gigantes y dominada por el sector del petróleo / automotriz; un presupuesto militar grande y creciente; una fuerza laboral disciplinada y salarialmente segura, purgada de militantes y de militancia; y un suministro aparentemente infinito de energía barata.”

Angus (2016) recoge una cita de John Bellamy Foster que sintetiza muy bien el punto de inflexión ecológico que generó la economía de la postguerra: “En el período posterior a 1945, el mundo entró en una nueva etapa de crisis planetaria en la cual las actividades económicas humanas comenzaron a afectar de manera completamente nueva las condiciones básicas de la vida en la tierra. Esta nueva etapa ecológica estaba conectada con el aumento, a principios de siglo, del capitalismo monopolista, una economía dominada por grandes empresas, y las transformaciones que la acompañan en la relación entre la ciencia y la industria. Los productos sintéticos que no eran biodegradables -que no podían descomponerse mediante ciclos naturales- se convirtieron en elementos básicos de la producción industrial. Además, a medida que la economía mundial continuó creciendo, la escala de los procesos económicos humanos comenzó a rivalizar con los ciclos ecológicos del planeta, abriéndose como nunca antes a la posibilidad de un desastre ecológico planetario.”

Después de la guerra, la alianza del capital oligopólico con el New Deal socialdemócrata llevó el consumo masivo a sus últimas consecuencias. La publicidad, activamente planificada por la tecnoestructura corporativa (Galbraith 1978), promovió “paquetes estándar” de objetos domésticos que se presentaron como necesarios para las crecientes clases medias (Berend 2006, p.245-255). La obsolescencia planificada, propuesta por Bernard London en 1932, se incorporó a muchos diseños industriales, la re-estilización permanente de objetos y modas se extendió, el viejo consumismo “ostentoso” analizado por Veblen se convirtió en consumismo obligatorio, y el hedonismo fue considerado respetable al ser coherente con este nuevo estilo de vida.

new-deal-roosevelt

Según Wallerstein (2010), el estado socialdemócrata agregó estabilidad, racionalidad y escala a ese consumo social, en particular: (i) mediante sistemas legales para la integración controlada de las demandas salariales, y (ii) a través de sueldos indirectos desde el Estado, el cual socializa algunos mínimos de capacidad de consumo privado a través de la educación, la vivienda, el transporte público, las carreteras asfaltadas, la protección social, el desempleo y el apoyo a la jubilación. El auge económico mundial llevó a los empresarios a creer que las concesiones a las demandas de sus trabajadores les costaban menos que las interrupciones en el proceso productivo. Ello facilitó la promoción de la Vieja Izquierda desde una posición de marginalidad política en la década de 1870 a una de centralidad política y fortaleza alrededor de 1950 (Wallerstein 2010). El Boom mejoró las condiciones de vida de 2/3 de la clase trabajadora de los países occidentales entre 1950 y 1973, pero no afectó prácticamente a las poblaciones de los países no-desarrollados (Amin 2012).

Las economías de guerra que ensayaron los países en lucha durante la II Guerra Mundial habían generado una gran concentración del capital en unas pocas grandes empresas oligopólicas, que fueron las que se pudieron aliar con los estados. Esta concentración de capital dio ventajas comparativas a esas empresas que, al acabar la guerra, fomentaron una concentración general de empresas en todos los sectores que, o se volvían oligolios ellas también o quedaban subordinadas a las decisiones de los oligopolios. Como subraya Samir Amin (2012), en la década de 1980 la economía estaba controlada por “monopolios generalizados” originarios de EEUU, Europa Occidental  y Central y Japón. Esto significa que desde esas fechas los oligopolios y monopolios ya no son como “islas en un océano de empresas que no lo son”, sino que controlan el conjunto de todos los sistemas productivos. Las pequeñas y medianas empresas, e incluso las grandes empresas que no son aún oligopolios, se han convertido en subcontratadas de los monopolios (y grandes oligopolios)  o están atrapadas en las redes de los medios de control político y de precios de los grandes oligopolios de cada sector. Esta concentración del capital hace que la nueva clase dirigente esté constituída por decenas de miles de personas y no por millones de ellas, como en la antigua burguesía.

dreamstime_s_45872095

La crisis de los setenta y el neoliberalismo

Entre 1967 y 1977 se produce una caída en la tasa de ganancias en las principales economías capitalistas, aunque no hay unanimidad sobre su causa (Altvater 2011, Presentación). La crisis impulsó un discurso neoliberal que promovía el desmembramiento de la institucionalidad laboral alcanzada en el Estado de Bienestar y un nuevo proceso de liberalización de la economía mundial. Las fuerzas derechistas mundiales trataron de evitar el estancamiento revirtiendo todas las mejoras que los estratos inferiores habían logrado durante los años dorados: reduciendo los costos de producción, destruyendo el estado de bienestar y ralentizando el declive del poder de Estados Unidos. Para mantener la acumulación de capital, se inventaron nuevos productos financieros y “especulaciones” de capital, mientras que se fomentó el consumo a través de tarjetas de crédito, endeudamiento y la confianza en que el crecimiento futuro devolvería las deudas. Con ello, el tamaño de las burbujas especulativas que se mueven a través del sistema global ha alcanzado niveles sin precedentes (Wallerstein 2010).

El “neo-liberalismo” ha sido aceptado por políticos y estados, los cuales han creado una nueva institucionalidad donde la gran mayoría de los trabajadores se encuentran obligados a aceptar condiciones laborales precarias (Jaua Milano 1997). De acuerdo con Ingham (2008) el capitalismo continental “de mercado coordinado” tendía a favorecer pactos a largo plazo entre dirección y trabajadores, para favorecer la productividad a largo plazo de la empresa; con el capitalismo financiero promovido por el neoliberalismo las propias empresas se convierten en activos y objeto de compraventa para los “fondos de capital riesgo”, que promueven su revalorización a corto plazo, la disminución inmediata de costes laborales y la pérdida de poder de directivos y trabajadores en favor de los accionistas. La disminución del miedo al comunismo por las élites, tras el fin del “comunismo” en la URSS en 1991, contribuyó a reforzar esa presión sobre los trabajadores.

El resultado ha sido que, entre 1978 y 2018, el salario mínimo de los trabajadores estadounidenses se ha hundido un 30 por 100, al mismo tiempo que la demanda era alentada o se mantenía mediante el fomento de la deuda de los hogares. Análogamente, en Europa Occidental “desde hace treinta años, la parte del ingreso nacional pagada como salario se ha ido contrayendo a favor de los beneficios, y dentro de la porción salarial, cada vez ha ido a parar más a los situados en la cúspide” (Fontana, citado por Carrillo, 2018).

Ante la dificultad, detectada en los setenta, de mantener a la vez las tasas de beneficio y el enorme sistema consumista, los grandes oligopolios y los partidos liberales y socialdemócratas han apostado por reducir salarios y estado de bienestar al mínimo viable, y exportar el pago del consumo actual y de los riesgos presentes a un futuro (e hipotético) crecimiento, mediante las deudas y los seguros financieros.

Un endeudamiento descontrolado para estimular el consumo condujo a la crisis del 2008. La causa de la crisis no fue, sin embargo, sólo financiera. Aparentemente, fué desencadenada también por los altos precios del petróleo que impuso la OPEP y la rigidez creciente de la producción de crudo a medida que se acerca su cénit (Martínez Alier 2009, p. 1105; Murray & King 2012).

La expansión de las operaciones financieras especulativas basadas en la deuda y los seguros han hecho que una parte importante de la nueva clase dirigente se haya enriquecido en unos pocos años, y no en varios decenios como sus predecesores. La ideología “tradicional” del capitalismo subrayaba las virtudes de la propiedad en general, en particular de la pequeña y mediana, considerada como fuente de emprendimiento, progreso tecnológico, y beneficio social. Esto ha dejado de encajar con los nuevos ganadores, que sin embargo benefician supuestamente a la sociedad al pertenecer a la esfera de personas influyentes y con quienes los políticos deben contar para tomar decisiones. Debido a ello, la nueva ideología ha empezado a ensalzar a los “ganadores” y a despreciar a los “perdedores”, sin más matizaciones. Este “darwinismo social” está muy cerca de la ideología que regula las relaciones en una banda de gángsters pues, en ambos casos, el “ganador” tiene casi siempre razón, aunque los métodos que utiliza para ganar rocen lo ilegal o ignoren los valores morales comunes (Amin 2012). Pero estos individuos ya no son llamados “magnates ladrones” como a mediados del XIX, sino “grandes financieros y banqueros” (Carrillo 2018, p. 18).

El capitalismo contemporáneo en los países occidentales es por esencia, según Samir Amin, un “capitalismo de amigotes” o clientelar, debido a que la mayor parte del PIB es producido por oligopolios, llamados “los mercados”, que se mueven fuera del mercado, ese sí competitivo, de las pequeñas empresas de barrio. Los estados no tienen más remedio que contar con el poder de presión, influencia e inversión de esas enormes corporaciones. Como los estados no se atreven a tomar decisiones económicas que perjudiquen a tales corporaciones, que en gran parte los financian, la democracia se convierte en una “democracia de baja intensidad”, limitada sólo a tomar decisiones no económicas, mientras “los mercados” toman las decisiones de política económica fundamentales mediante comisiones tecnocráticas e instituciones transnacionales constituidas por economistas expertos (Carrillo 2018, pp. 16 y 18).

El capitalismo de monopolios generalizados ha dividido también a la clase media, que se va diferenciando cada vez más entre (i) la clase media que trabaja directamente para los oligopolios, recibe salarios más altos que otros asalariados, constituye el 15-20% de la población y mayoritariamente defiende el capitalismo y sus valores, y (ii) el resto de asalariados, que trabajan en condiciones precarias o están desempleados.

En el actual neoliberalismo corporativo el estado ha disminuido su labor reguladora en economía, pero sigue siendo fundamental: no sólo defiende los mercados para las corporaciones asentadas en su territorio, y sostiene el sistema de patentes, los derechos de propiedad y el orden social; además, tras la crisis del 2008, ha introducido un keynesianismo para las élites que socializa las pérdidas de los oligopolios “demasiado grandes para caer” (Harvey 2012, cap. 5). Krugman (2011), Ingham (2008) y Martínez Alier (2009), sugieren liberar al Estado del credo neoliberal, y volver a la regulación keynesiana que ha sido la norma en las economías de mercado coordinadas (CME) hace algunas décadas.

Un rescate keynesiano dirigido a los ciudadanos y no a los bancos permitiría aliviar las deudas del 80% de la población (Martínez Alier, 2009). Además, un aumento de la regulación y de la inversión estatal podría facilitar el despegue de un nuevo ciclo de crecimiento basado en un despliegue masivo de energía renovable y “economía verde” (Rifkin 2011). Sin embargo, los límites ecológicos y de recursos energéticos y minerals hacen muy improbable que tal ciclo fuera duradero, al menos dentro de un sistema de crecimiento capitalista, como veremos en la última sección .

Evolución de la cosmovisión del Progreso desde las revoluciones burguesas

 La concepción del progreso que tenían los puritanos de la revolución inglesa era la de que la Providencia ha establecido un proyecto de salvación en la Tierra, que los justos deben preparar mediante su trabajo mundano. El reformismo social y político parecen nacer entonces, como productos de esa síntesis puritana entre milenarismo y la ética puritana de la santificación mediante el trabajo (García-Olivares 2011). Una de las consecuencias que tuvo ese “Programa del Progreso” fue definir la industrialización progresiva y el desarrollo económico como una meta colectiva (García-Olivares 2011). Pero en una cultura dominante racional y paternalista, como la europea de los siglos XVIII y ss., la organización instrumental necesaria para cumplir dichos fines son las organizaciones racional-burocráticas (Weber 1981 [1927]; Moya 1984, p. 184). El Estado burocrático, bajo una forma crecientemente racionalizada, es aceptado socialmente tras las revoluciones burguesas como un modo de promover los fines progresistas y garantizar los medios para su consecución. También las empresas van adoptando crecientemente una organización paternalista racionalizada. Sólo grupos minoritarios, como los anarquistas de finales del XIX, rechazaron tales organizaciones paternalistas y racional-burocráticas.

Pensadores utópicos, como Rousseau (1712-1778), Owen (1771-1858), Saint-Simon (1760-1825), Fourier (1772-1837) y Comte (1798-1857), estaban de acuerdo en que las instituciones pueden tener un papel importante en el progreso moral, la felicidad, y en el progreso material y técnico. Varios de estos pensadores se preocuparon especialmente del concepto de igualdad material como objetivo de un progreso bien entendido. Anarquistas como Proudhon y Leroux rechazaron las burocracias pero también consideraron al avance de la igualdad como el fin principal del progreso futuro.

En el siglo XVIII la idea de progreso como Providencia divina da paso a la idea de progreso como desarrollo secular de las artes y las ciencias, naturales al género humano. La fe en la providencia es suplantada por la creencia en “leyes históricas” inmanentes. Turgot fue quien mejor expresó este viraje. En 1750, en su “Cuadro filosófico sobre los progresos sucesivos del espíritu humano” viene a decir: no es que seamos más brillantes que los antiguos, sino que nuestras ideas y conocimientos se basan en los aprendidos de las generaciones pasadas, por lo que el conocimiento es acumulativo. Según Bock (1978), Descartes tenía una opinión similar.

En el siglo XVIII Montesquieu y otros autores mencionaron causas y leyes naturales para explicar los diversos tipos de cultura y civilización, como la diferencia de los climas, los tipos de gobierno, en especial los tiránicos y opresivos, los sucesos políticos como las guerras, y/o los sucesos económicos como la apertura de nuevos mercados (Nisbet 1991, Martínez Casanova 2004). Turgot fue el primero en decir que las diferencias eran sobre todo diferencias en el grado de avance en las artes y en las ciencias. Tanto en su Historia Universal como en sus “Reflexiones sobre la formación y la distribución de la riqueza”, publicada en 1769, Turgot subrayó que todas las formas de progreso de las artes, las ciencias, etcétera, dependen del crecimiento económico y los “excedentes económicos” y afirmaba que ambos dependían de la libertad de que gozaran los individuos. Adam Ferguson (1723-1816) parecía estar de acuerdo con esta idea cuando afirmaba que “el avance social era producto de la naturaleza humana en su automanifestación bajo circunstancias favorables” (Bock 1978), esto es, que el esfuerzo humano y su procura existencial, egoísta a veces, cuando se encontraba en el marco social adecuado (la libertad de comercio,  de pensamiento y de innovación) producía un progreso auto-sostenido.

Pensadores como Hume (1711-1776), Priestley (1733-1804) o Gibbon (en 1737-1794) eran muy conscientes de los momentos oscuros y de decadencia en las naciones, cuyo desarrollo sufre ciclos ascendentes y descendentes; y Voltaire (1694-1778) señalaba que no hay ninguna ley histórica que garantice la victoria de la razón. Pero en general, los pensadores ilustrados pensaban que cada renacimiento cultural alcanzaba cotas superiores a las logradas por el ciclo anterior.

El crecimiento económico y técnico de Europa entre 1750 y principios del siglo XIX es tan alto que John Adams, en el prefacio de su Defense of the Constitutions of Government of the United States, afirma: “las artes y las ciencias (…) la navegación y el comercio [han provocado] unos cambios que habrían asombrado a las más refinadas naciones de la antigüedad”. O como decía Jefferson: “A lo largo de los siglos la barbarie ha ido retrocediendo conforme se iban dando nuevos pasos adelante, y confío en que con el tiempo acabará por desaparecer de la tierra”. O como lo expresaba Benjamín Franklin en 1788: “es posible que podamos llegar a evitar las enfermedades y vivir tanto tiempo como los patriarcas del Génesis”; o en otra carta de 1780: “es imposible imaginar a qué altura podremos llegar dentro de mil años, gracias al constante aumento del poder del Hombre sobre la Materia” (citados por Nisbet 1991).

Este “progreso” de las sociedades es interpretado a la vez como perfeccionamiento técnico o cognoscitivo, como perfeccionamiento ético, como incremento de la felicidad de los seres humanos, como aumento de la libertad (y retroceso de la tiranía), como aumento del poder de los Estados y del Orden social y como aumento de la prosperidad.

Tras las revoluciones francesa y americana (finales del s. XVIII) lideradas en gran parte por burgueses, y durante el liberalismo del s. XIX, el progreso moral se considera derivado del crecimiento económico y de la liberación de los despotismos y opresiones. Algunos autores liberales, como el propio Adam Smith, establecen la causación del modo siguiente: libertad (política y económica) →prosperidad y crecimiento económico → progreso moral. A mediados del s. XIX, está ampliamente difundida la fórmula: “la liberalización crea progreso” (Hobswam 1977, “El Gran Boom”). El gran crecimiento económico europeo entre 1848 y 1875 parece confirmar esta idea, y la de que el progreso está garantizado, al menos si se protege la libertad política y económica y el capitalismo liberal.

Pese a la diferencia entre la selección natural y la supuesta selección a nivel social, algunos pensadores liberales entendieron la competencia en el mercado entre los individuos (y empresas) mejores y más eficientes como una especie de mecanismo que selecciona a lo mejor y hace progresar la sociedad. También Marx reconoció haberse inspirado en Darwin para enunciar su teoría de la progresión de la sociedad a través de los distintos “modos de producción” a través de la “lucha de clases”, que hace evolucionar a las “fuerzas productivas” y a la igualdad social. Algunos nacionalistas se inspiraron también en la teoría de Darwin para afirmar que las naciones y razas luchan entre sí, y las más creadoras o poderosas consiguen la hegemonía sobre las otras, moviendo la Historia hacia delante.

La superioridad de la civilización europea sobre el resto del mundo era tan visible que alimentaba un imaginario colectivo megalómano y racista entre la mayoría de los europeos decimonónicos, y se fundamentaba en una prosperidad sin rival de los países europeos. Sin embargo, tal prosperidad se fundamentaba en el intercambio desigual que los estados nacionales europeos imponían sobre sus imperios (Amin 2012). La política económica era proteccionista para con las naciones europeas pero librecambista para las colonias, cuyos mercados debían estar abiertos a la importación de productos europeos y a la exportación de materias primas.

Un poder naval y militar superior y una firme voluntad de los estados europeos de imponer tal sistema económico estuvieron detrás de ese intercambio desigual y destructivo para con las colonias. Carey (1851), el economista estadounidense asesor del presidente Abraham Lincoln, defendió un sistema proteccionista para EEUU con el argumento de que el sistema británico de libre comercio promovía la esclavitud de los pueblos y había arruinado a Irlanda, a la India, y a China.

Desembarco_en_Cotonou_de_tropas_senegalesas._Le_Petit_Journal,_21may1892

Tras la I y II Guerra Mundial, los horrores a los que condujo el nazismo y el fascismo, las bombas nucleares, la guerra fría y el miedo al holocausto nuclear, la confianza en que nos encaminamos a un mundo feliz cayó a mínimos. También quedaron debilitados el racismo y el darwinismo social, aunque éste ha mantenido cierta influencia entre pensadores neo-liberales. Sin embargo, las nuevas terapias médicas, la carrera espacial y las aplicaciones de la microelectrónica sostuvieron la confianza en un avance científico-técnico aparentemente imparable.

El output económico crece además exponencialmente durante 20 años tras la guerra, en el marco de un “capitalismo keynesiano” que incorpora algunos de los objetivos del progresismo utópico y marxista, junto con el del crecimiento económico promovido por un capitalismo con fuertes instituciones reguladoras y negociación colectiva entre trabajadores y capitalistas. Veinte años de crecimiento ininterrumpidos crean las clases medias más amplias y prósperas de la historia en Norteamérica, Europa, Japón y Australia.

Una componente importante de lo que las personas corrientes concebían, y siguen concibiendo, como progreso tras la revolución industrial es la prosperidad. Los habitantes decimonónicos de los países más prósperos de Europa identificaban el progreso que veían en sus sociedades con el grado de prosperidad relativamente mayor de que gozaban los pueblos europeos en relación con otros pueblos. También relacionaban el progreso de Europa con sus mayores logros culturales, artísticos, científicos y militares, pero estos logros derivaban en gran medida de esa relativamente mayor prosperidad. Tras ella se encontraban los altos excedentes que proporcionaban ese ensamblaje financiero entre estados y burguesía (Ingham 2008) y el imperialismo de estos estados hacia países menos poderosos (Amin 2012).

En la segunda revolución industrial, el creciente ensamblaje de las prácticas científicas con las empresariales engendra un boom de innovaciones que fascina a los modernistas. Éstos siguen relacionando al progreso con el aumento de prosperidad, los logros sociales y el aumento de poder estatal, pero empiezan a concebir ese progreso como algo garantizado por los avances científicos.

El gran boom de la postguerra reafirma estas ideas, pero añade algunos matices: la prosperidad se asocia con el consumo de masas, el despilfarro, el consumismo, y un suministro creciente de servicios por el estado. La antigua ética calvinista de la prosperidad frugal ha dejado de ser un valor-guía dominante.

Tras la experiencia de todo el siglo XX, la idea de Marx de que el capitalismo sólo progresa destruyendo el medio natural y creando desigualdad social se ha vuelto una evidencia ampliamente compartida. Un investigador tan meticuloso como Wallerstein (1988) defiende que la depauperización que el capitalismo ha engendrado en el proletariado mundial no ha sido relativa, sino absoluta: “El trabajador industrial sí [está en unas condiciones notablemente mejores hoy que en 1800], o al menos muchos trabajadores industriales. Pero los trabajadores industriales siguen constituyendo una parte relativamente pequeña de la población mundial. La abrumadora mayoría de los trabajadores mundiales, que viven en zonas rurales u oscilan entre estas y los suburbios de la ciudad, están en peores condiciones que sus antepasados hace 500 años”.

mineros africanos

Foto de David Fig,  https://arrezafe.blogspot.com/2016/12/el-nuevo-saqueo-de-africa-david-fig.html

Con el giro de los años 80 hacia un capitalismo de libre mercado, los políticos se sintieron atraídos por la opinión de los economistas neoliberales de que la forma más eficiente y justa de organizar las preferencias colectivas de individuos racionales e interesados era a través de un mecanismo de mercado libre de regulación. Insistieron en que era necesario apretarse el cinturón, ser más individualistas, competir más, y renunciar a algunos servicios del estado del bienestar. Sin embargo, afirmaron que el capitalismo, así modificado, seguiría trayéndonos crecimiento económico y mayor prosperidad general.

Por ello, las clases medias occidentales, surgidas del capitalismo keynesiano de la post-guerra y ahora debilitadas por las políticas neo-liberales favorecidas por los gobiernos, han ido perdiendo los grandes ideales sociales utópicos, pero algunas de sus expectativas de progreso permanecen vivas, en la forma de expectativas de un crecimiento, o al menos mantenimiento, de los niveles adquisitivos, la calidad de vida, bienestar, justicia y oportunidades existentes en las sociedades occidentales. Estas esperanzas han sido alimentadas por las evidencias del crecimiento económico del Gran Boom post-guerra, por la publicidad consumista, y por los partidos políticos liberales y socialdemócratas.

Un análisis de Bauby y Gerber (1996) basado en encuestas realizadas en Francia, observó que en 1972 un 43% estaba de acuerdo con el enunciado “el progreso tecnológico aporta más bienestar que malestar”, mientras que en 1993 el porcentaje había bajado al 22%. Estos analistas observaban que en la percepción de la población en general, sobre todo las clases populares, la ciencia y tecnología, al igual que los poderes públicos, eran parte de un mundo lejano sobre el cual la población no tenía mucho que decir. Aún así, los científicos e investigadores eran el grupo de líderes en quien más confiaban para mejorar las condiciones de vida de la humanidad (40%), muy por delante de los empresarios (20%) y de los dirigentes políticos (16%). El 83% tenía confianza en que la ciencia encontraría soluciones a la contaminación ambiental, aunque el 53% no creía que la ciencia pudiera resolver el problema del hambre en el mundo ni el desempleo (Mulás 1998).

Las sociedades de finales de siglo XX perciben que el crecimiento de prosperidad que nos trae el capitalismo es muy desigual: exorbitante para el 1% de la población, apreciable para el 15% de profesionales de clase alta y media-alta (y para los obreros industriales de los países de alto crecimiento, como China), imperceptible para las clases medias y trabajadoras de las naciones occidentales, e imperceptible o negativo para los trabajadores no occidentales.

La crisis económica que se inició en 2008 ha acelerado la degradación de la confianza en la prosperidad futura en la mayoría de la población, tal como muestra la encuesta realizada en Chile (GFK 2017). Estos son los porcentajes que en 2009 y 2017, respectivamente, respondieron que había una “probabilidad alta o muy alta de que”:

  1. a) “Un joven inteligente pero sin recursos ingrese en la universidad”: 52-49%;
  2. b) “Una persona que tiene un negocio o una pequeña empresa la convierta en una empresa grande y exitosa”: 49-36%;
  3. c) “Cualquier trabajador adquiera su propia vivienda”: 55-35%;
  4. d) “Una persona de clase media llegue a tener una muy buena situación económica”: 49-30%;
  5. e) “Un pobre salga de la pobreza”: 27-17%.

Por otro lado, durante la revolución industrial, el modernismo y gran parte del siglo XX el progreso era considerado consecuencia de una serie de valores asociados al sistema: la iniciativa individual, la honestidad, el respeto al derecho, la solidaridad para con los otros ciudadanos. La nueva ideología recuperada por el neoliberalismo, el “darwinismo social”, nos acerca sin embargo a un sistema sin valores compartidos, salvo el auto-interés y el “sálvese quien pueda”. En este contexto, muchos de los contenidos de la antigua idea de progreso modernista se han perdido. Aparte de una esperanza, muy incierta, en un aumento, o al menos mantenimiento, de la prosperidad futura, sólo sobreviven como componentes de esa idea los “avances” científico-técnicos, los nuevos tratamientos médicos ante las grandes enfermedades y el crecimiento del PIB. Sin embargo, aún esto es poco firme, pues los grandes avances científico-técnicos pertenecen a un mundo ajeno al control mayoritario, tal como mostraba la encuesta francesa comentada; los avances terapéuticos cada vez son menos accesibles a las masas de escaso poder adquisitivo; y el crecimiento del PIB mejora la prosperidad del 20% de la población con puestos relevantes en los grandes oligopolios, pero apenas afecta a la prosperidad del 80% de la población, que mantiene su precariedad independientemente de ese crecimiento (tal como expresa la encuesta chilena comentada arriba). Con todo ello, se va extendiendo la idea de que el progreso no es ninguna ley natural inevitable, como se llegó a creer durante los “treinta años gloriosos” del capitalismo (1945-1975), y que afecta además de manera muy diferente, e incluso opuesta, a diferentes clases y grupos sociales.

Por ello, el hombre occidental contemporáneo aprecia en su justa medida el stock de capital acumulado en tecno-ciencia, infraestructuras y servicios públicos, y su potencial para mantenernos a los occidentales separados de las penurias que sufren los países no desarrollados, pero advierte que esta relativa prosperidad está cada vez menos asegurada y que hay que luchar socialmente por mantenerla.

En cuanto a los países no desarrollados, están dejando de intentar imitar en todo a los países desarrollados: “Los países desarrollados y muy especialmente Estados Unidos de América no son modelos a seguir porque nunca los alcanzaríamos y porque deben su poderío a la explotación colonial del mundo subdesarrollado. [Así mismo]… el propio modelo de la sociedad norteamericana que se  nos quiere imponer, muestra serios signos de decadencia. Sólo basta mirar su crecimiento dramático de la pobreza; la crisis de su sistema educativo; su déficit fiscal sin precedentes; el incremento de la violencia, de la drogadicción y otros problemas sociales en los que son líderes del mundo moderno” (Mendoza 1992).

 

Los términos Progreso y Crecimiento puestos en cuestión

 El último ciclo económico, basado en la globalización y el endeudamiento, toca a su fin con la crisis de 2008, y hay dudas fundamentadas de que pueda dar paso a un nuevo ciclo ascendente.

Un consenso creciente entre los investigadores de recursos naturales, política energética y cambio climático es que el crecimiento exponencial de consumo de recursos que la economía capitalista provoca chocará en cuestión de décadas con el tamaño finito del planeta y sus recursos. El cénit de producción de petróleo convencional se produjo, según los informes de la Agencia Internacional de la Energía, en el 2005, y distintos autores predicen el cénit de producción de todos los líquidos derivados del petróleo para pocos años después del 2020. El cénit de producción energética procedente de todos los combustibles fósiles (petróleo, gas y carbón) agregados ha sido predicho para el 2028, con una incertidumbre de 8 años arriba o abajo (García-Olivares & Ballabrera 2015).

Algunos autores han defendido que el mercado capitalista y los grandes oligopolios responderían a esta amenaza mediante una inversión creciente en energías renovables, iniciando así una sustitución masiva que llevaría a una economía verde y sostenible.  Sin embargo, Smith (2016) argumenta que el concepto de  “capitalismo verde” o “capitalismo sostenible” es un oxímoron, debido a los factores siguientes:

(1) El móvil de los empresarios y accionistas es el beneficio, y provoca un efecto macroeconómico que es el crecimiento. Tal crecimiento provoca una demanda creciente de recursos que antes o después choca con los límites de un planeta finito.

(2) La desmaterialización absoluta, que permitiría seguir creciendo mientras disminuye el consumo de recursos, no se observa en la economía global. Sólo se han producido casos de desmaterialización relativa (por unidad de PIB generado).

(3) Los directivos corporativos sólo son responsables ante sus accionistas, de modo que o anteponen la ganancia a la sostenibilidad general o son despedidos.

(4) Las empresas en competencia están bloqueadas por una especie de “dilema del prisionero”: la primera que anteponga la sostenibilidad a los beneficios, pierde competitividad y puede ser expulsada por las otras de su cuota de mercado.

(5) Los intentos de “internalizar” los costes ecológicos mediante leyes fracasan muchas veces porque disminuyen la competitividad y hacen cerrar empresas que generan empleo. Un ejemplo de esto son los intentos de acabar con las empresas del carbón en muchos países.

(6) Las industrias esencialmente insostenibles deberían cerrar, pero no lo van a hacer ellas mismas. Sería necesaria su nacionalización; pero ello choca frontalmente con la forma desregulada que el capitalismo se ha dado a sí mismo para superar la crisis de los setenta.

(7) La cultura del despilfarro y el consumismo ha sido creada por el capitalismo y debería ser desmontada en aras de la sostenibilidad. De nuevo esto exigiría una intervención política sobre la economía global que es incompatible con el contemporáneo capitalismo neoliberal.

La conclusión que se deriva de ello es que el capitalismo es esencialmente contrario a la sostenibilidad y, a la vez, incapaz de salir por sí mismo de su dinámica de acumulación ampliada. Las próximas décadas, por tanto, asistiremos con toda probabilidad a una importante crisis energética. A esta crisis es altamente probable que se añadan varias crisis ecológicas importantes, que se esbozan a continuación:

– La producción agrícola podría entrar en crisis debido a los factores siguientes: (i) La productividad de los principales granos se ha saturado en unas 7-8 t/ha por más fertilizantes que les echamos (Food Outlook 2012); (ii) El fertilizante fósforo se produce mediante extracción minera, y su cénit de producción se espera para 2040-2050; (iii) La agricultura intensiva capitalista degrada continuamente los suelos:10 Mha de tierras son abandonadas cada año debido a ello (Pfeiffer 2006); (iv) La superficie media de tierra cultivable por persona es en 2018 de unas 0.18 Ha, aunque las personas de alto poder adquisitivo utilizan una cantidad mucho mayor (debido a su alto consumo de carne). Como la población mundial crecerá hasta 9.700 millones en 2050, según el escenario medio de la ONU, y la superficie fértil y su productividad no crecen, la superficie media y los alimentos per cápita sólo pueden disminuir en el futuro. (v) Limitación del agua dulce: 1.700 millones personas viven de acuíferos que están declinando por sobreexplotación (Gleeson et al. 2012).

– La pérdida de biodiversidad, los nitratos procedentes de la agricultura, y el cambio climático están volviendo a los ecosistemas muy frágiles. Se han predicho puntos de no-retorno para los ecosistemas para 2025-2045, con “sorpresas locales y globales” (Barnosky et al. 2012).

– La crisis climática reducirá la productividad de los principales cereales mundiales entre un 20 y un 40% hacia 2100 según los informes del IPCC (2012).

– Metales fundamentales para la industria, como el Cu, Li, Ni, y Pt-Pd, podrían comenzar su declive si son utilizados en una futura transición a una economía 100% renovable, volviendo imposible la continuación del crecimiento (García-Olivares et al., 2012; García-Olivares y Ballabrera 2015).

Todas estas crisis ambientales superpuestas detraerán probablemente recursos económicos importantes en las próximas décadas, lo cual contribuirá a una caída de las tasas de crecimiento, si no a un declive del PIB global. Por ejemplo, la limitada disponibilidad de agua dulce puede restringir el crecimiento económico de cuatro maneras: (1) incrementando la mortalidad y la miseria cuando un número creciente de personas encuentre difícil satisfacer necesidades humanas básicas como beber, lavarse, y cocinar; (2) reduciendo la producción agrícola de las tierras actualmente en regadío; (3) poniendo en riesgo minerías e industrias que requieren agua como input; y (4) disminuyendo la producción energética que requiere agua. Los intentos de evitar cualquiera de estos cuatro impactos empeorará la situación en al menos uno de los otros tres (Heinberg, 2011).

Incluso si lográramos soslayar las crisis ecológicas citadas, y las principales naciones del planeta se pusieran de acuerdo para implementar coordinadamente una economía global 100% renovable, como sería necesario, tal economía no podría seguir creciendo muy por encima de una producción eléctrica de unos 12 TWa/a, debido al agotamiento de las reservas de Cu, Li, Ni, y Pt-Pd (García-Olivares et al. 2012; García-Olivares 2015). Ello exigiría a la economía funcionar en estado estacionario, como proponen Daly y Farley (2004). El problema es que en un sistema en el que el dinero se crea a través de préstamos bancarios, nunca existe suficiente dinero para pagar todas las deudas más sus intereses. El sistema solo continúa funcionando mientras esté creciendo. Si este crecimiento se ralentiza o se para, la consecuencia es una destrucción de la riqueza y la deuda y un aumento de los precios (Heinberg 2011). Debido a ello, y a la tendencia de la tasa de ganancia a caer en situación de no-crecimiento más competencia, una economía estacionaria es algo prácticamente incompatible con un sistema capitalista con mercados (García-Olivares y Solé 2012).

En este contexto, crecen las propuestas que tratan de sustituir la antigua idea-guía del crecimiento por otras como la de “desarrollo”, centrado en la calidad, y no en la cantidad de valor obtenido y consumido; o la idea de “desarrollo sostenible” (Martínez Casanova 2004).

La antigua idea de que el progreso estaba relacionado con un plan de la divina providencia fue dejando paso en el siglo XIX a la de que eran la libertad, el liberalismo y la actividad económica las que la garantizaban. Actualmente, la indefectibilidad de ese progreso es lo que parece estar en cuestión, debido a: (i) las evidencias de la asociación del crecimiento capitalista con las guerras y el imperialismo que nos han asolado a lo largo de todo el siglo XIX y XX hasta la actualidad; (ii) las crecientes evidencias de finales del siglo XX de que el capitalismo no puede funcionar sin crear desigualdad; (iii) la acumulación de riesgos que se atisban en las próximas décadas sobre la disponibilidad energética, los recursos materiales, los ecosistemas, y el clima; y (iv) por la inestabilidad que se percibe en un capitalismo financiero que está basado en la deuda y en el crecimiento que permite pagarla, pero que está destruyendo los recursos que le permitían crecer.

¿Por qué las clases medias y trabajadoras aceptan en relativa calma el statu quo y la degradación de sus derechos sociales? Nuestra hipótesis es que, debido a que el crecimiento del PIB mundial sigue siendo apreciable, la mayor parte de los trabajadores empleados y clases medias están convencidos aún de que el capitalismo “nos devolverá a la senda del crecimiento” (en los países occidentales) o “nos está llevando a una mayor prosperidad” (en países como China y la India). El “cash nexus”, la confianza en el crecimiento futuro, y en la fortaleza del sistema capitalista, siguen así intactos en la mayoría de la población.

Sin embargo, el actual enlentecimiento del crecimiento global podría verse acelerado en las próximas décadas, como vimos, por el impacto de varias crisis ecológicas globales que amenazan con alcanzar puntos de no-retorno. En la década de 2030, con los combustibles fósiles en declive, una instalación insuficiente de fuentes energéticas renovables, y algunas de las crisis ambientales antes comentadas en pleno desarrollo, es muy probable que se produzca una situación estructural de crecimiento cero. En esa nueva coyuntura de estancamiento permanente, es de esperar un renacimiento de las grandes movilizaciones sociales (García-Olivares y Solé 2012). La ideología de que el capitalismo nos devolverá una vez más a la “senda del crecimiento” y la prosperidad no podrá ser creída por más tiempo, y la idea-guía de la “sostenibilidad” ganará fuerza en detrimento de la de “progreso”.

En medio de fuertes convulsiones, y si la movilización social es suficiente, es probable que el sistema capitalista deje paso, en las décadas que siguen a la de 2030, a un sistema post-capitalista capaz de generar prosperidad sin necesidad de crecimiento (Jackson 2009). En otro lugar, denominamos a ese futuro sistema “economía simbiótica” para diferenciarla de la economía “parasitaria” para con las sociedades y los ecosistemas que caracteriza al capitalismo monopolista actual. Para lograr tal transformación será crucial que las movilizaciones sociales, y los nuevos partidos post-capitalistas, consigan romper la actual asociación casi simbiótica entre los grandes oligopolios y los políticos profesionales (García-Olivares y Solé 2012). Un primer paso para lograrlo será, como apuntó Samir Amin (2012), la nacionalización o municipalización de todos los oligopolios, empezando por los estratégicos: las grandes empresas productoras de energía, las redes eléctricas, las empresas extractoras y recicladoras de metales, las grandes empresas químicas y petro-químicas, y las empresas de gestión de todo el ciclo del agua dulce. Un segundo paso importante será favorecer legislativamente a las empresas cooperativas y de economía solidaria, que son las únicas capaces de mantener servicios útiles y empleos en condiciones de crecimiento cero y no beneficio.  Otros cambios legislativos deberían controlar tanto la transición a energías renovables como la eliminación rápida de industrias y actividades que solo producen lo que John Ruskin llamó illth (lo opuesto a la riqueza), como la producción de armas, la publicidad y la agricultura industrial (Angus 2016).

Otro aspecto importante e inevitable será la articulación de nuevos valores alrededor de esa nueva idea-guía de la “sostenibilidad”, para sustituir a los antiguos valores en crisis. Como afirman lúcidamente Ana Barba y Juan Carlos Barba, en su blog del Colectivo Burbuja, si antaño la izquierda política se definía por la lucha de clases y el análisis marxista, hoy, los partidos emergentes de la izquierda, se definen por sus valores identitarios, como son la democracia, la libertad, la justicia social, la igualdad, el feminismo, el ecologismo, la tolerancia ante modos sociales diversos y la apuesta clara por la solidaridad y el valor de la comunidad. Estos valores pueden ser los gérmenes de los valores del futuro post-capitalista.

WORLD SOCIAL FORUM

Reunión del Forum social mundial en Porto Alegre, 2005

Estos valores son cercanos a los del movimiento Justicia Global y los Foros Sociales Mundiales, que han promovido, desde Seattle en 1999, la convergencia de muchos movimientos sociales y ambientales en una lucha común contra el sistema capitalista. Autores tan diferentes como el marxista Angus (2016, cap. 13) y el sociólogo de la ciencia Latour (2017) coinciden en que estos activistas, de la mano de científicos que conocen a fondo la gravedad del estado del sistema Tierra, deberán convertirse en “tribunos de la plebe” y a la vez en “tribunos de la Biosfera” (en términos de Latour, “representantes” y “portavoces”) ante las innumerables agresiones del capitalismo contra ellos.

Otros valores que estarían asociados probablemente con una economía sostenible y cuasi-estacionaria son: el buen vivir, la calidad de vida y el consumo responsable (superando el antiguo consumismo);  la sociabilidad, la responsabilidad social y la equidad (frente al antiguo individualismo); desarrollo de lazos sociales como la reciprocidad, la ayuda mutua, el don, la cooperación y la redistribución, además del intercambio mercantil; valoración de la belleza y la resiliencia natural (en lugar de considerar la naturaleza como un recurso económico); participación política, democracia económica, toma permanente de decisiones via Internet (en sustitución de la partitocracia plutocrática aliada de los oligopolios); simbiosis con la biosfera e integración en ella (en sustitución de la “lucha con la naturaleza”). O’Neill et al. (2010) han propuesto valores similares para una futura economía sostenible y estacionaria.

Por otra parte, el índice económico PIB deberá dejar paso a indicadores que no se limiten a medir la cantidad de intercambios mercantiles, sino que incluyan variables de desarrollo cualitativo. Se ha propuesto, por ejemplo, el GPI (“Genuine Progress Indicator” o indicador de auténtico progreso), que mediría una serie de indicadores tales como: el gasto en bienes útiles, la esperanza de vida, la calidad educativa, niveles de atención sanitaria, de educación, longitud de la jornada laboral, cantidad de entornos naturales visitables, calidad y cantidad de servicios de transporte público, atención a los dependientes, índices de igualdad, niveles de criminalidad, creatividad artística, calidad del agua, niveles de contaminación, cantidad de residuos producidos, entre otros.

 

Referencias

 Altvater E. (2011): El fin del capitalismo tal y como lo conocemos. El Viejo Topo, Barcelona.

Amin S. (2012): El Capitalismo Contemporáneo. Libros El Viejo Topo, Barcelona.

Anderson, P. (1987): El Estado absolutista. Siglo XXI, Madrid.

Angus I. (2016): Facing the Anthropocene: Fossil Capitalism and the Crisis of the Earth System. Monthly Review Press.

 Aston, T. H. y Philpin, C. H. E. (eds.) (1988): El Debate Brenner, Estructura de clases agraria y desarrollo económico en la Europa preindustrial. Ed. Crítica, Barcelona.

Barba Álvarez A. (2010): “Frederick Winslow Taylor y la administración científica: contexto, realidad y mitos”, Gestión y Estrategia 38, 17-30.

Barnosky, A.D., E.A. Hadly, J. Bascompte, E.L. Berlow, J.H. Brown, M. Fortelius, W.M. Getz, J. Harte, A. Hastings, P.A. Marquet, N.D. Martinez, A. Mooers, P. Roopnarine, G. Vermeij, J.W. Williams, R. Gillespie, J. Kitzes, C. Marshall, N. Matzke1, D.P. Mindell, E. Revilla, A.B. Smith (2012): “Approaching a state shift in Earth’s Biosphere”, Nature 485, 52-58.  doi:10.1038/nature11018

Berend, I. T. (2006): An Economic History of Twentieth-Century Europe- Economic Regimes from Laissez-Faire to Globalization. Cambridge University Press, Cambridge, UK.

Bilbao L. M. y Lanza R. (2009): Historia Económica, 2º Semestre (Estudios de Grado en ADE). UAM Curso 2009-2010.

Bloch M. (1970): French rural history. University of California Press.

 Bock, K.  (1978): “Teorías del progreso, el desarrollo y la evolución.” En Bottomore, T. y Nisbet, R. (compiladores). Historia del análisis sociológico. Ed. Amorrortu. B. A. 1978, p. 61.

 Braudel Fernand (1985): La Dinámica del Capitalismo, Alianza Editorial, Madrid.

 Carneiro R. L. (1970): “A theory of the origin of the State”, Science 169, 733-738.

Carey H. C. (1851): The Harmony of Interests, J. S. Skinner, Philadelphia.

Carrillo G. (2018): La “Desintegración Civil del Demos Moderno. Sobre la Naturaleza de la Ruptura Política en las Sociedades Financiarizadas”, Intersticios 12, 5-23.

Coriat Benjamin. (1991): El taller y el Cronometro. Ensayo sobre el Taylorismo, Fordismo y la producción en masa, Siglo XXI, Madrid.

Daly H., Farley J. (2004): Ecological Economics: Principles and Applications. Island Press, Washington D.C.

Dobb M. (1971): Estudios sobre el desarrollo del capitalismo, Siglo XXI, Buenos Aires.

Food Outlook (2012): Global Information and Early Warning System. Food and Agriculture Organization of the United Nations. http://www.fao.org/docrep/016/al993e/al993e00.pdf

García-Olivares A. (2011): “El programa del progreso en occidente”. Intersticios 5, 63-78.

García-Olivares A., Ballabrera J., García-Ladona E., Turiel A. (2012): “A global renewable mix with proven technologies and common materials”, Energy Policy 41, 561-574.

 García-Olivares, A., Ballabrera, J. (2015): “Energy and mineral peaks, and a future steady state economy”, Technological Forecasting & Social Change 90, 587-598.

García-Olivares A, Solé Jordi. (2012): “End of growth and the structural instability of capitalism—From capitalism to a Symbiotic Economy”, Futures 68, 31-43.

García-Olivares A. (2015): “Substitutability of Electricity and Renewable

Materials for Fossil Fuels in a Post-Carbon Economy”, Energies 2015, 8, 13308–13343; doi:10.3390/en81212371

GFK (2017): Encuesta Nacional Bicentenario. Pontificia Universidad Católica de Chile y GfK Adimark.

Gleeson T, Wada Y, Bierkens M F P, van Beek L P H (2012): “Water balance of global aquifers revealed by groundwater footprint”, Nature 488, 197-200. Doi:10.1038/nature11295

 Harvey D. (2012): El enigma del capital y las crisis del capitalismo, Akal, Madrid.

Harris, M. (1985): Introducción a la antropología general, Alianza Universidad.

 Harris, M. (1986): Caníbales y Reyes, Los Orígenes de las Culturas. Salvat y Argos Vergara.

Heinberg, R. (2011): The End of Growth, New Society Publishers. Vancouver.

 Hibbert, A. B. (1953): “The Origins of the Medieval Town patriciate”, Past and Present 3, 15-27.

 Hilton, R. (1987): La transición del feudalismo al capitalismo, Ed. Crítica, Barcelona

Hobsbawm, E. (1964): Las Revoluciones Burguesas, Ediciones Guadarrama, Madrid.

Hobsbawm, E. (1977): La era del capital, Barcelona, Labor.

 Hobsbawn, E. (2009): La era del imperio (1875-1914), Buenos Aires, Crítica.

 Hulse David K (1999): The early development of the steam engine; TEE Publishing, Leamington Spa, UK

 Ingham, Geoffrey (2008): Capitalismo. Alianza Editorial, Madrid.

Jackson, T. (2009): Prosperity without Growth. Economics for a Finite Planet. Earthscan, London, Sterling, VA.

Jaua Milano, E. (1997): Del Fordismo a la Flexibilidad Laboral: Supuestos, crisis y realidades de la regulación social. Biblioteca Omegalfa. https://www.omegalfa.es/bienvenida.php

Kemp, T. (1986): La revolución industrial en la Europa del siglo XIX, Orbis, Barcelona

 Krugman Paul. (2009): The conscience of a liberal, Reclaiming America from the right. Penguin Books.

Krugman, P. (2011): “Titulaciones y dólares”, periódico “El País”, 13 MAR 2011, Madrid.

IPCC (2012): “Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation. A Special Report of Working Groups I and II of the Intergovernmental Panel on Climate Change”, C.B. Field, V. Barros, T.F. Stocker, D. Qin, D.J. Dokken, K.L. Ebi, M.D. Mastrandrea, K.J. Mach, G.-K. Plattner, S.K. Allen, M. Tignor, P.M. Midgley (Eds.), Cambridge University Press, Cambridge, and New York, 582 pp.

Laski H. J. (1939): El liberalismo europeo. Fondo de Cultura Económica, Mexico D. F.

 Latour B. (2017): Cara a cara con el planeta: Una nueva mirada sobre el cambio climático alejada de las posiciones apocalípticas. Buenos Aires, Siglo Veintiuno Editores.

Lopez Navarro E. (2018): Las Etapas del Desarrollo Industrial en el Siglo XIX. Scribd.

Martínez Alier, J. (2009): “Socially sustainable economic degrowth”, Development and Change 40(6): 1099–1119.

Martínez Casanova, H. J. 2004. La industrialización en Calera de Víctor Rosales y sus repercusiones en la calidad de vida (1980-1995). Tesis Doctoral. http://www.eumed.net/cursecon/libreria/2004/hjmc/hjmc.htm

Marx K. (1995 [1873]): El Capital, Vol. 1, Fondo de Cultura Económica, Mexico.

Moya, C. (1984): Señas de Leviatán, Alianza Ed., Madrid.

Mendoza Sánchez, Juan Carlos (1992): “La revolución científico-tecnológica, sus efectos socioeconómicos y su importancia en la estrategia del capital transnacional”, Relaciones Internacionales No. 53,  p. 27.

Mulás P. (1998): “La Tecnología en los Desarrollos Social y Económico”, en: Casalet M. (Comp.): Tecnología: Concepto, Problemas y Perspectivas. Siglo XXI editores, Madrid.

Murray J. & King D. (2012): “Oil’s tipping point has passed”, Nature 481, 433-435.

Needham, J. (1954): Science and Civilization in China, volume 1. Cambridge University Press, Cambridge, UK.

– (1977): La gran titulación. Ciencia y sociedad en Oriente y Occidente, Alianza Editorial, Madrid.

– (1986): Science and Civilization in China, Volume 4, Part 2. Taipei: Caves Books Pty. Ltd.

 Nisbet, R. (1991): Historia de la Idea de Progreso, Gedisa. Barcelona.

North D. C. (1981): Estructura y cambio en la historia económica. Alianza Univ., Madrid.

 Othón Quiroz, J. (2010): “Taylorismo, fordismo y administración científica en la industria automotriz”, Gestión y estrategia 38, 75-87.

 Parain, Charles; Vilar, Pierre y otros (1985): El feudalismo, Sarpe, Madrid.

Paramio Ludolfo (1988): Tras el Diluvio. La Izquierda Ante el Fin de Siglo, Madrid, Siglo XXI.

Polanyi (1989). La gran transformación.

Rifkin, J. (2011): The third industrial revolution; How lateral power is transforming Energy, the Economy and the World. Basingstoke, UK: Palgrave Macmillan.

Smith, R. (2016): Green Capitalism: The God That Failed London: WEA/College Publications.

 Taylor, W.F (1911): Principles of Scientific Management, New York and London, Harper & brothers.

Villares, R; Bahamonde, A. (2001): El mundo contemporáneo, Siglos XIX y XX. Taurus. Madrid.

Wallerstein E. (1984): El moderno sistema mundial II. El mercantilismo y la consolidación de la economía-mundo europea, 1600-1750. Siglo XXI España.

Wallerstein E. (1987): “Braudel, el capitalism y el Mercado”, Monthly Review (selección de artículos de junio de 1987), Ed. Revolución.

Wallerstein E.(1989): The Modern Worldsystem-III .The Second Era of Great Expansion of the Capitalist World-Economy, 1730-1840s. Academic Press, Inc. Harcour Brace Jovanovich Publishers.

Wallerstein E. (2010): ”Structural crises”, New left Review 62, 133-142.

Wallerstein E. (2016): El moderno sistema mundial IV: El liberalismo centrista triunfante. Siglo XXI, España.

 Weber M. (1981 [1927]): General Economic History, New Brunswick, NJ: Transaction Publishers.

Wittfogel, K. A. (1967): Oriental Despotism, A Comparative Study of Total Power. Yale University Press.

La construcción colectiva del conocimiento científico y su divulgación

A mediados de marzo envié un artículo al blog “Revista 15-15-15” con un texto que continuaba la interesante discusión iniciada por Emilio Santiago Muiño en el mismo foro. Debido a los problemas de salud de uno de los editores, la publicación del artículo empezó a demorarse, por lo que opté por publicarlo en el blog de Autonomía y Bienvivir, donde salió a mediados de abril. Una semana después de la aparición de este artículo apareció en el blog “Revista 15-15-15” una réplica de Pedro Prieto y otra de Carlos de Castro, publicadas una detrás de otra en un mismo post en dicho foro. Me sorprendió la rapidez de la publicación de esta respuesta a mi artículo, en comparación con la lentitud (comprensible) del proceso de publicación de mi artículo original. Entendí algo mejor esta falta de imparcialidad editora al observar que los autores de la réplica son miembros del consejo de redacción de la “revista” y, además, los principales contribuidores a dicha “revista” con 13 y 11 artículos publicados en la misma, respectivamente.

En la mayoría de revistas científicas o profesionales los miembros del consejo de redacción hacen funciones de asesoría editorial, orientación de la línea editorial de la revista, promoción de la misma, revisión de artículos externos, planificación y gestión. Hay algunas que permiten publicar en la revista a los miembros del consejo de redacción, pero suelen exigir en esos casos que se respete un sistema de doble anonimato, para que los otros miembros del consejo de redacción o los revisores puedan evaluar la calidad del artículo sin conocer que el autor es un colega de la misma redacción; y suelen limitar el número de artículos escritos por miembros del consejo de redacción a un porcentaje del orden del 20% del total de artículos de la revista.

Cuando no se respetan esas políticas editoriales de calidad e imparcialidad ante los artículos recibidos, el foro no se suele llamar “revista”; hay otras calificaciones más apropiadas como “blog”, “foro de discusión”, “revista de la asociación X”, “grupo de presión” o “lobby” X, etc. Por eso he empezado denominando “blog” a la llamada “Revista 15-15-15”. No tengo nada contra los blogs, todo lo contrario, pero creo que no hay que confundir a la gente. Un foro digital donde los editores no sólo filtran los contenidos y la rapidez con la que aparecen, sino que ellos mismos publican sus propios artículos cuando quieren no es una revista; es un blog.

Pero volviendo al tema que nos trae, la respuesta de Pedro Prieto me parece mesurada, respetuosa y defendible. Él adopta en algunos casos perspectivas diferentes a las que yo adopto, y ambas posturas pueden ser defendidas y beneficiar al lector; por ello, no voy a añadir nada a sus comentarios. Por el contrario, la respuesta de Carlos de Castro me parece que no tiene prácticamente ninguna relación con lo que yo estoy argumentando o, si la tiene, denota una comprensión nula de cómo se producen los consensos científicos.

Como muchas personas, incluidas algunos científicos, no entienden cómo se generan los consensos colectivos que llamamos “verdades científicas”, creo que puede ser útil resumir aquí el libro Ciencia en acción, del prestigioso sociólogo de la ciencia Bruno Latour. En ese libro, Latour analiza empíricamente cómo se generan tales acuerdos colectivos. El lector interesado puede encontrar también información útil en el resumen de la sociología del conocimiento, y de la sociología del conocimiento científico contemporáneo que publicamos en otro lugar.

La diferencia entre ciencia en construcción versus ciencia establecida

Latour nota que hay en realidad dos ciencias, o fases cualitativamente diferentes del proceso científico, y que se dicen cosas diferentes en cada fase. Las dos fases son: la ciencia ya sistematizada y la ciencia que crea nuevos constructos teóricos. La distinción procede de Reichenbach, quien denominó a las dos fases contexto de justificación y contexto de descubrimiento, respectivamente.

Dos caras de la ciencia

Mientras que la Filosofía clásica de las ciencias se dedicó tradicionalmente a preguntarse qué rasgos de la ciencia, una vez sistematizada, la hacen tan diferente (y poderosa), Latour y otros sociólogos de la ciencia creen que es más fructífero preguntarse cómo construye la ciencia su conocimiento y su poder, y cómo una controversia científica se convierte en una verdad científica.

Para ello, analiza con perspectiva de antropólogo un caso concreto de producción de hechos científicos: la historia de las controversias que condujeron al “descubrimiento” de la hormona estimulante de la hormona del crecimiento.

En los comienzos de una controversia científica, los científicos contendientes describen el comportamiento de los hechos observados por ellos en una forma que sea ensamblable dentro de afirmaciones con una modalidad positiva; y tienden a describir los hechos observados por sus contendientes insertándolas en proposiciones con modalidad negativa.

Modalidades positivas: son enunciados que apartan a una afirmación de sus condiciones de producción, haciéndola suficientemente cerrada para inducir otras afirmaciones seguras. Modalidades negativas: son enunciados que llevan una afirmación en la dirección opuesta, hacia sus condiciones de producción y a explicar en detalle por qué es sólida o débil.

 

En las primeras fases de la controversia, Latour detecta afirmaciones de modalidad positiva procedentes del Dr. Schally y de su grupo, tales como las siguientes:

 

  1. “La estructura primaria de la hormona estimulante de la hormona del crecimiento (GHRH) es Valina-Histidina-Leucina-Serina-Alanina-ÁcidoGlutámico-ÁcidoGlutámico-Lisina-AcidoGlutámico-Alanina”.
  2. “Ahora que el Dr. Schally ha descubierto [la estructura primaria de la GHRH], es posible comenzar los estudios clínicos en hospital, para tratar ciertos casos de enanismo, dado que la GHRH activaría la hormona del crecimiento de la que carecen”.

Pero, tras su publicación en revistas científicas, aparecen afirmaciones de modalidad negativa procedentes de un grupo de trabajo diferente:

“El Dr. Schally ha afirmado durante años, en su laboratorio de Nueva Orleáns, que [la estructura primaria de la GHRH era Val-His-Leu-Ser-Ala-Glu-Glu-Lys-Glu-Ala]. Sin embargo, por alguna extraña coincidencia, esta estructura es la misma que la de la hemoglobina, un componente corriente de la sangre y un contaminante frecuente del extracto purificado de cerebro, si es manipulado por investigadores incompetentes”.

La forma de insertar el hecho en la proposición ya está sugiriendo a otros investigadores cómo deben valorar y utilizar la información del Dr. Schally: como un artefacto derivado de una manipulación incompetente, que debe ser ignorado.

La siguiente generación de artículos se vuelve entonces crítica, pues desequilibrará la controversia hacia un lado u otro, según los distintos autores encuentren que las afirmaciones así construidas por ambos grupos son o no útiles para reforzar las afirmaciones derivadas de su propio trabajo de hacer hablar a los hechos. Así, en un workshop sobre el tema, un tercer grupo de investigadores hace pública la siguiente interpretación:

“Si hay una “extraña coincidencia”, reside en el hecho de que la crítica al descubrimiento de la GHRH por el Dr. Schally ha sido realizada de nuevo por su viejo enemigo, el Dr. Guillemin… Respecto a la homonimia de estructura entre la hemoglobina y la GHRH, es algo factible que nada prueba en contra del descubrimiento”.

Sin embargo, un cuarto grupo responde:

“No es posible que la sangre transporte dos mensajes homónimos sin perturbar (el metabolismo). Se trata de una equivocación evidente de Schally; Guillemin siempre ha sido más fiable que él”.

A medida que la controversia se encarniza, entran en la discusión cuestiones de fisiología, personalidades de los agentes, métodos de trabajo y detalles del procedimiento de laboratorio de ambos. Schally defiende sus afirmaciones con una red de referencias a sus métodos, que a su vez referencian a otros trabajos: 35 artículos y 16 libros entre 1971 y 1978. O aceptas su afirmación, o te lees los artículos y los desmontas uno por uno.

Latour observa que en la producción científica de conocimiento hay una retórica, al igual que en las discusiones comunes, pero lo que hace la discusión científica es hablar en nombre de los procesos reales (construir hechos en forma linguística) y apoyar sus afirmaciones introduciendo muchos más recursos que la retórica común. Por ejemlo, apelaciones al comportamiento habitual de ciertos artefactos de observación y cómo ese comportamiento apoya la interpretación que estoy proponiendo.

En paralelo con la controversia científica, se va generando en los años siguientes una red de apoyos a ambas afirmaciones, por parte de profesionales (y stakeholders: partes interesadas) que están interesados en el posible uso de los nuevos hechos. Así, se produce la siguiente conversación en un hospital:

Médico-1 (como si resumiera un antiguo debate): “Teniendo en cuenta que existe una nueva cura del enanismo, ¿cómo puede usted decir eso?”

– Médico-2: “¿Una nueva cura? ¿Cómo lo sabe? Eso se lo ha inventado usted.”

“Lo he leído en una revista”.

“Habrá sido en un suplemento en color…”

“No, fue en The Times y el que lo escribía no era un periodista sino alguien con un doctorado”.

“¿Y eso qué importa? Probablemente era un físico en paro que no sabe diferenciar el RNA del DNA”.

“Pero referenciaba un artículo publicado en Nature por el premio Nobel Andrew Schally y seis colegas, un estudio financiado por el Nacional Institute of Health y la National Science Foundation, en el que se exponía cual era la secuencia de la hormona que estimula la hormona del crecimiento. ¿Eso no significa nada?”

– “¡Vaya! Debería haber empezado por ahí… Sí, me temo que algo tiene que significar”.

 

La fuerza de la razón o la disputa por encajarse en la red de afirmaciones y objetos científicos

 

Obsérvese que la situación retórica de la conversación anterior se invirtió cuando uno apoyó su afirmación en un Nature, un Nóbel, seis coautores y dos instituciones importantes.

Lo que Latour observa es que, una vez cerrada una controversia, la ciencia se suele desmarcar de la retórica y opone su “razón” a los argumentos de autoridad. Sin embargo, mientras la controversia no está cerrada, los científicos buscan todos los recursos prácticos posibles para construir una retórica suficientemente poderosa, de modo que un grupo de investigación pueda enrolar las prácticas y afirmaciones de otros grupos, y de las autoridades, dentro de sus propias afirmaciones.

Para triunfar, las afirmaciones que son coherentes con las propias prácticas deben ser vistas por los demás investigadores como ensamblables con sus propias afirmaciones. Esto genera una red no-subjetiva de prácticas de conocimiento que Lakoff caracteriza como un sistema de metáforas especialmente coherentes y consistentes entre sí, pero que incluye también afirmaciones sobre el comportamiento de objetos de observación y artefactos técnicos, que supuestamente se comportan como afirma nuestro discurso y no como afirman otros discursos.

La “fuerza de la razón” consiste en la estabilidad de la asociación de esa red de actantes (investigadores, artefactos y agentes interesados).

Si un investigador ve que una afirmación no encaja en la propia red de apoyos y por tanto la amenaza, trata de minar los apoyos de la afirmación. Un modo de hacerlo es relativizando las referencias o reinterpretándolas o cambiando el sentido de sus implicaciones. Ejemplo en una publicación de Guillemin:

“El concepto, hoy bien establecido, de control neurohumoral de las secrecciones adenohipofisiarias, indica la existencia de un factor hipotalámico estimulante de la hormona del crecimiento (GRF) (ref. 1) que tiene como contrapartida inhibitoria a la somatostatina (ref. 2). Hasta ahora el GRF hipotalámico no ha sido caracterizado de forma inequívoca, a pesar de algunas afirmaciones prematuras de lo contrario (ref. a Schally)”

“Se ha propuesto una estructura para el GRF (ref. a Schally); sin embargo, recientemente se ha mostrado (ref. a Veber et al.) que no se trataba de GHRH sino de un contaminante secundario, probablemente un fragmento de hemoglobina.”

Schally, sin embargo, responde en otra publicación suya: “D. F. Veber et al. han señalado la similitud entre la estructura de nuestro decapéptido y el radical amino de la cadena beta de la hemoglobina porcina (ref. 32). Queda aún por establecer en qué medida esta observación es significativa”.

Como puede observarse, la referencia de Veber no decía exactamente ni lo que ahora le hace decir Guillemin ni lo que le hace decir Schally. El propio Veber, al leer ambos artículos, debe de tener dudas sobre cuáles son las implicaciones reales de su observación.

Cuando la controversia es suficientemente aguda, los recursos anteriores pueden no ser suficientes para desanimar al grupo contrincante y casi cada palabra del artículo debe ser defendida mediante recursos externos.

Ejemplo de un artículo en que Guillemin argumenta estar haciéndolo mejor en su laboratorio que Schally:

“En la intervención quirúrgica se encontraron en el páncreas dos tumores separados (ref. 6); los tejidos tumorales fueron troceados e introducidos en nitrógeno líquido a los 2 o 5 minutos de la resección, con la intención de extraer de ellos GRF … El extracto de ambos tumores presentaba actividad estimulante de la hormona del crecimiento, con un volumen de elusión igual al del GRF hipotalámico (Kav = 0.43, donde Kav es la elusión constante) (ref. 8). El volumen de actividad del GRF (ref. 9) era insignificante en uno de los tumores (0.06 unidades de GRF por miligramo (peso neto)), pero extremadamente alto en el otro (1500 unidades de GRF por miligramo (peso neto)), 5000 veces más que en el hipotálamo de las ratas (ref. 8)”.

Aquí cada palabra está tan pensada como en una jugada de ajedrez. El párrafo se entiende mejor como respuesta anticipada a posibles objeciones de competidores escépticos:

¿Cómo podría estar usted haciéndolo mejor que Schally con cantidades tan ínfimas de su sustancia en el hipotálamo?

Encontramos tumores que producían grandes cantidades de la sustancia, lo cual permitía que su aislamiento fuera mucho más fácil de lo que lo era para Schally.

¿Está usted bromeando? Estos son tumores pancreáticos, y usted está buscando una sustancia hipotalámica ¡que se supone proviene del cerebro!

Muchas de las referencias indican que, a menudo, se encuentran sustancias del hipotálamo también en el páncreas, pero de todas maneras tienen el mismo volumen de elusión; esto no es decisivo, pero es una prueba bastante buena, suficiente en cualquier caso, para aceptar el tumor tal cual, con una actividad 5000 veces mayor que la hipotalámica. No se puede negar que es un regalo caído del cielo.

¡Un momento! ¿Cómo puede estar usted seguro de ese 5000?, ¿no puede sencillamente estar inventándose las cifras? ¿Se trata de peso en seco o peso húmedo? ¿De donde proviene el criterio?

Bien. En primer lugar se trata de peso en seco. Segundo, una unidad de GRF es la cantidad de una preparación purificada de GRF proveniente del hipotálamo de las ratas que produce una estimulación medio-máxima de la hormona del crecimiento en el bioensayo de monoestrato de células pituitarias. ¿Está usted satisfecho?

Tal vez, pero ¿cómo podemos estar seguros de que estos tumores no se han deteriorado después de la intervención quirúrgica?

Fueron troceados e introducidos en nitrógeno líquido entre 2 y 5 minutos después. ¿Dónde podría encontrarse mejor protección?

Schally utiliza argumentos igual de detallados en sus artículos, pero usando sólo informaciones que encajen con su red de afirmaciones, y no con la de Guillemin.

El desenlace de la controversia la produjo la siguiente generación de artículos, que mostraron al grupo de Schally, al de Guillemin y al de Veblen de qué forma encajaban sus afirmaciones con las del resto de investigadores y usuarios.

Latour analizó las publicaciones de todos los autores que citaron posteriormente a Veblen, y observó lo siguiente: todos toman el trabajo de Veblen como un hecho bien establecido, dicen que la hemoglobina y la GRHR tienen la misma estructura y usan este hecho para minar la pretensión de Schally de haber descubierto la GHRH, que ahora escriben entre comillas. 

Esto fue catastrófico para las afirmaciones de Schally, que se encontraron sin poder seguir ensamblándose con el resto de la literatura y con las prácticas médicas interesadas en la hormona.

A partir de ese momento, la línea de trabajo de Guillemin quedó libre para desarrollarse sin competidores importantes. Pero ¿Y si esto no es suficiente para creer a Guillemin? La ciencia no es sólo una retórica que busca ensamblarse con muchos apoyos. Tiene una segunda característica: Se incluye en los artículos y documentos al propio referente del que se habla, para no depender sólo de asociaciones humanas. El investigador se convierte en portavoz de la hormona.

Ejemplo en otra publicación de Guillemin: “La purificación final de este material mediante HPLC analítico de fase inversa produjo tres péptidos altamente purificados con actividad GRF (véase fig. 1)”.

Sigue una figura en la que se aprecia una curva con tres grandes picos y un pie de figura con un texto que explica cómo leer la figura:

“Purificación final del GRF mediante el HPLC de fase inversa. La columna (Ultraesfera C18), 25 por 0.4 cm, tamaño de partícula 5-(pu)m, fue eluida con un gradiente de acetonitrilo (—-) en ácido heptafluorobutírico al 0.5% (en volumen) a una velocidad de flujo de 0.6 mL/min. Se recogieron fracciones (2.4 mL) tal como se indica en la abcisa, y se usaron algunas porciones para bioensayos (ref. 7). Las barras verticales representan la cantidad de hormona del crecimiento segregada en el ensayo por cada fracción del efluente, expresada como porcentaje de la cantidad de hormona del crecimiento segregada por las células pituitarias que no recibieron tratamiento. AUFS, escala completa de unidades de absorción.”

La leyenda nos dice que los picos no son una mera retórica visual, sino el producto de un cromatógrafo líquido de alta presión, y se dan los parámetros de su funcionamiento. Estas inscripciones representan al referente objetivo o “parte más objetiva del referente”. Los detalles de funcionamiento y calibración del cromatógrafo son apoyados en referencias técnicas anteriores, que se ramifican hacia el pasado hasta alcanzar la física básica fundacional del campo técnico.

Si el disidente quiere seguir dudando, debe construir un laboratorio competidor o inspeccionar el laboratorio donde se generan tales inscripciones experimentales.

El disidente ve inscripciones sobre un papel o una pantalla, no la hormona misma. Y, superpuesto con estas inscripciones visuales, escucha unos comentarios verbales proferidos por el investigador, que actúa como portavoz o presentador de lo que está escrito en el visor del instrumento.

Para Latour un Portavoz es la persona que habla por otros, personas o cosas, que no hablan. Por ejemplo, un delegado sindical es un portavoz, porque representa a personas que pueden hablar pero que, en la práctica, no pueden hablar al mismo tiempo. El investigador representa a moléculas que no pueden hablar, en principio, pero a las que se les hace expresar su voluntad y hablar gracias a aparatos intermediarios.

Enfrentarse a un portavoz no es enfrentarse a una persona aislada, sino con él mas las muchas cosas o personas en cuyo nombre está hablando. Sin embargo, el crítico siempre puede sospechar que lo que el portavoz está diciendo es sólo su propio deseo y no lo que las cosas (o personas) mismas dirían. ¿Es el cambio de pendiente que observamos realmente la misma que la que provoca la morfina? Podría suceder que todas las sustancias químicas provocaran el mismo cambio de pendiente. O posiblemente, el investigador, que tanto deseaba que dicha sustancia reaccionara igual que la morfina, confundió dos jeringas sin darse cuenta e inyectó dos veces morfina, produciendo formas idénticas.

El éxito o fracaso de la portavocía depende de la solidez de esa asociación
del portavoz con las acciones de las cosas en cuyo nombre habla:

Un escéptico aún podría intentar algo antes de abandonar su escepticismo: modificar algunos de los elementos de los que depende la generación de la inscripción, para observar la robustez del resultado.

Un ejemplo de esto lo proporciona el caso Blondot, un físico de Nantes, que realizó el descubrimiento de unos rayos distintos a los rayos X y, en honor de su ciudad, los denominó “rayos N”. Durante unos pocos años los rayos N tuvieron todo tipo de desarrollos teóricos y muchas aplicaciones prácticas, curando enfermedades y situando a Nantes en el mapa de la ciencia internacional. Un disidente estadounidense, Robert W. Wood, no creyó en los artículos de Blondot, pese a estar publicados en revistas prestigiosas y decidió visitar su laboratorio. Durante un tiempo Wood se enfrentó allí a evidencias incontrovertibles. Blondot se apartó y dejó que los rayos N se inscribieran en una pantalla colocada frente a Wood. Pero el obstinado Wood se quedó en el laboratorio manipulando el detector de rayos N. En determinado momento, quitó subrepticiamente el prisma de aluminio que estaba enfocando los rayos N. Pero Blondot, en el otro lado de la habitación tenuemente iluminada, continuaba obteniendo el mismo resultado sobre la pantalla, incluso en ausencia del supuesto foco. Por lo tanto, la inscripción sobre la pantalla provenía de otra cosa.

El portavoz se transforma de alguien que habla en nombre de otros, en alguien que sólo se representa a sí mismo, a sus deseos y fantasías. En función de sus pruebas de resistencia, los portavoces se convierten en individuos subjetivos o en representantes objetivos.

¿Es legítimo pasar de lo que se ve en tres hámsters a lo que ocurre dentro de los mamíferos en general? ¿De un tumor al GRF? ¿De unos pocos retazos de evidencia a una ley universal? El éxito o fracaso de este mecanismo de la inducción, tan frecuente en la teorización científica, no parece obedecer a ninguna regla lógica. Si hay un número suficiente de investigadores a los cuales esta inducción concreta les sea útil para sus propias afirmaciones e inducciones, la utilizarán como una regla que darán por válida con generalidad, mientras que si no les encaja a un número suficiente de investigadores la generalización no triunfará y será olvidada.

Cuando ocurre lo 1º, la controversia empieza a estar cerrada, y empiezan a aparecer afirmaciones que parecen referirse a “cajas negras” que nadie puede tratar de reabrir, por tratarse de “hechos”. En nuestro caso, esto ocurrió a finales de los sesenta y principios de los setenta. La controversia se dio por cerrada y empezaron a utilizarse afirmaciones del tipo siguiente:

“Existe una sustancia que regula el crecimiento corporal; esta sustancia está regulada por otra, llamada GRF; se compone de una cadena de 44 aminoácidos (los aminoácidos son los bloques con los que están construidas todas las proteínas); dicha cadena ha sido descubierta por el premio Nobel de Fisiología y Medicina de1977, Roger Guillemin.”

Guillemin-Schally-Yalow

Hay que decir, en favor de la Academia Nobel, que ésta reconoció no sólo el éxito final de Roger Guillemin, sino también la importante labor que tuvieron Andrew V. Schally y la física experimental Rosalyn Yalow (inventora del espectrógrafo de fluidos) en el “descubrimiento” (producción colectiva del concepto) de la hormona GRF, y otorgó el Premio Nobel de Fisiología y Medicina a estos tres investigadores conjuntamente.

 

Conclusiones filosóficas

Este análisis de Latour tiene corolarios filosóficos que me parecen importantes, más allá de las controversias de pueblo como las que nos traen a Carlos de Castro y a un servidor.

Primero, la “realidad” como conjunto de “hechos” es un conjunto de constructos retóricos y cajas negras técnicas que han resistido hasta el momento todos los intentos sociales de reconstruirlos o modificarlos.

Cuanto más técnica y especializada es la literatura científico-técnica, más “social” se vuelve, pues aumenta el número de asociaciones necesarias para domesticar a los lectores y forzarlos a aceptar como un hecho una afirmación.

Los “hechos” no están “ahí fuera” sino que se van estabilizando o inestabilizando a medida que el investigador trata de asociar sus afirmaciones con las existentes en su campo. Son construidos colectivamente.

Cosas como el “polonio”, la hormona GRF, o el “potencial eléctrico de las renovables” están constituidas por pruebas superadas o “actuaciones” que las delimitan de otras cosas conocidas. El “algo” de la cosa se va configurando progresivamente. Las competencias principales serán usadas luego para definir la cosa, como se hacía entre los pieles rojas: “anaerobio”: “superviviente en ausencia de aire”.

Esta genealogía es luego borrada como para sacralizar el resultado, el objeto constituido, y usarlo en la lucha modernista contra la superchería y las “afirmaciones de autoridad”.

Alguno dirá: “todo esto está muy bien, pero es irrelevante, puesto que lo que realmente importa para triunfar en una controversia es tener a la Naturaleza de nuestro lado”.

Si tomáramos en serio esto, bastaría con observar cual de las dos partes, Schally o Guillemin, hablan en nombre de la naturaleza, y controversia resuelta. Sería tan sencillo como en las luchas de la Iliada: esperar a que la diosa incline la balanza.

Pues bien, ¿qué dice la naturaleza?: Latour encuentra que tanto los partidarios de Schally como los de Guillemin dicen tener la naturaleza a su lado y lo argumentan con pruebas. La naturaleza no queda fuera del campo de batalla, sino que es un argumento retórico de la discusión. Se recurre a ella como a Dios en guerras no tan antiguas.

Latour imagina otra crítica posible: “Lo que queremos decir es que cuando tiene lugar una controversia, la naturaleza es el aliado final que la clausura, y no las herramientas y estratagemas retóricas ni los recursos del laboratorio”.

Pues bien, los científicos afirman simultáneamente estas dos versiones contradictorias: Por un lado, proclaman a la naturaleza como el último árbitro de las controversias, pero por otro lado, reclutan innumerables aliados mientras esperan que la naturaleza se pronuncie. Esta contradicción no es tal sino una mera dualidad, pues no son defendidas al mismo tiempo. Mientras abundan las controversias, la naturaleza nunca se utiliza como árbitro final ya que nadie sabe completamente lo que es y dice. Pero una vez la controversia se cierra, se sostiene que la naturaleza es el árbitro decisivo. La afirmación “Tiene a la naturaleza de su lado” sería equivalente en esos momentos de institucionalización a aquella otra de “tiene a Dios de su lado” de las cosmovisiones pre-modernas.

Una hipótesis sugerente es que cuando un constructo es muy social (y por tanto frágil) y a la vez es muy importante para la vida social, se le reifica. Se trataría de un proceso análogo al que llevó a la sacralización de las vacas cebús en la India, para evitar que fueran sacrificadas en épocas de grandes sequías, y permitieran el renacimiento de la agricultura (Marvin Harris).

 

La crítica de Carlos de Castro

Carlos DeCastro considera que las distribuciones de valores que da la literatura científica sobre la CSP, la FV y la eólica no son realistas y carecen de validez para cuantificar la incertidumbre, debido a su sesgo tecno-optimista. Y fundamenta esta afirmación en que en un artículo suyo obtiene valores para la TRE “real” de la  solar de concentración (CSP) inferiores a casi todas las estimaciones de la literatura. También cita un artículo suyo en que obtiene valores inferiores al resto de la literatura sobre el potencial eólico, y otro artículo suyo en que obtiene valores para el potencial solar de nuevo inferiores al resto de la literatura.

El razonamiento es: en los tres artículos utilizo hipótesis realistas, mientras que los demás científicos usan hipótesis tecno-optimistas, como he demostrado para el caso de la CSP. Por consiguiente, todos los artículos de la literatura científica que dan valores más optimistas que los míos están equivocados, y los míos no.

La demostración no es lógicamente rigurosa; para que lo fuese debería haber demostrado que las estimaciones de la literatura para el potencial FV y eólico (que son las fuentes principales renovables) son todas tecno-optimistas, y no sólo la CSP. Además, debería demostrar por qué el que la TRE de la CSP sea inferior a la esperada (en la forma en que entra en servicio en la actual gestión de la red eléctrica) la convierte en una fuente inútil para una futura economía 100% renovable. Y por qué el que la CSP tenga una TRE más baja de lo que muchos esperaban, hace imposible una economía 100% renovable. Porque es esto último lo que estamos discutiendo, sobre ello hay una abierta controversia científica, y mi artículo del post defendía la conveniencia de ajustar las afirmaciones activistas a dicho consenso científico, con el fin de no perder legitimidad.

Pero además, la verdad científica es una construcción colectiva. La mayoría de las publicaciones que discuten la transición renovable consideran que el ambiente cálido y seco de los desiertos no supone ningún límite a la utilización de fracciones del orden del 5% de los mismos, pese a la mayor dificultad de mantener infraestructuras allí (basta pensar en los 78 millones de personas que viven en la Península Arábiga, con ciudades e infraestructuras construidas en desiertos o su inmediata cercanía). La mayoría de las publicaciones consideran que el TRE de las principales fuentes renovables (eólica, FV e hidro) son más que suficientes como para suministrar energía muy por encima de lo que demanda su construcción, incluso tomando valores del rango bajo. Yo (junto con Ballabrera, Jordi Solé y Antonio Turiel) defendíamos hace 7 años la posibilidad de un mix 100% renovable basado en materiales no escasos, de ahí que incluíamos una fracción grande de CSP en dicho mix. Con los años, la mayoría de los investigadores en renovables han visto que la FV bajaba de precio a enorme velocidad y que la CSP no podía competir con la posibilidad de usar FV masivamente con el apoyo de sistemas de almacenamiento eléctrico; Breyer ha cuantificado bastante bien esto. Yo mismo he ido explorando otros mix diferentes, con distintas fracciones de eólica y FV, y concluyo que parece haber distintas maneras de construir un mix 100% renovable de unos 12 TWa/a, no una única. Como otros autores apoyan esta conclusión, esa clase de publicaciones se apoyan unas a las otras, y tiene que haber evidencias mucho más relevantes que la baja TRE de la CSP para que la mayoría abandone esa conclusión general de que un mix 100% renovable es factible.

No sé si la TRE que DeCastro estima en su reciente artículo para la CSP será aceptada por la comunidad científica. Para que un artículo publicado aislado demuestre algo habrá que esperar a que sea leído por otros científicos y ver cómo responden estos a las dudas que el artículo suscita. Los autores citados en el artículo, por ejemplo los que dan estimaciones de la TRE de la CSP, tendrán que ser convencidos de que los argumentos de DeCastro y Capellán bastan para que la estimación de Corona de TRE=14-17.5 tenga que bajar a 1.5-3.4; Ehtiwesh y su grupo tendrán que convencerse de que su cálculo de TRE=20.2 estaba mal y debe ser bajado a 7.7; Heath y su grupo, de TRE=30 a un valor de 7; Lechón y su grupo, de TRE=25 a un valor de 1.9; Weissbach y su grupo, tendrán que aceptar de buena gana que su TRE=21 es en realidad TRE=1; y Viebahn aceptar que su TRE=11-68 es en realidad TRE=5. Como las TRE estimadas por deCastro y Capellán son de 3 a 20 veces menores que las que calcularon los autores originales, a muchos de ellos les extrañará que la nueva información justifique unas variaciones tan grandes de sus predicciones, y tendrán que hacer sus propias comprobaciones antes de aceptar el nuevo artículo tal como está planteado. Además, a los ingenieros les llamará la atención el que el factor de capacidad (CF) que el artículo da para algunas CSP con almacenamiento sea igual al que tienen las centrales sin almacenamiento. Entonces, querrán aclarar cómo es eso posible, pues el almacenamiento se construye precisamente para subir el CF. Querrán aclarar si el nulo efecto de la acumulación en Arabia se debe únicamente a las tormentas de arena o hay algo más; si la causa de esa aparente incongruencia es que algunas centrales no están funcionando todo los días del año debido a que el precio de la electricidad está demasiado bajo, o por qué motivo no están funcionando. Luego querrán estimar si esa bajada de la CF se puede evitar en un sistema de gestión eléctrico diferente al actual o es una limitación intrínseca a la tecnología CSP, luego contrastarán con lo que dicen otros autores sobre la evolución reciente de las CSP y estimarán si la supuesta baja TRE inutiliza a este sistema tecnológico en general, no lo hace, o lo hace en unos lugares geográficos y no en otros, porque la TRE varía con la latitud, etc.

Todo ese proceso de aclaraciones va conduciendo a que otros ingenieros y científicos saquen conclusiones sobre la capacidad que tiene la información que leen para modificar y mejorar su propio trabajo profesional, y si tales afirmaciones merecen ser incorporadas a nuevos estudios o merecen ser ignoradas. Vimos en el resumen anterior del libro de Latour que así es como se produce el consenso científico y acaban cerrándose las controversias para convertirse en hechos científicos. El artículo en cuestión me parece interesante, pero debe ser ensamblado en las redes existentes de discusión que buscan soluciones renovables para el futuro, antes de que sus afirmaciones puedan acabar siendo parte de hechos aceptados. Si es así, contribuirá a las líneas de evidencia (discusión) que en los últimos 7 años han ido considerando a la CSP como una tecnología de valor cada vez más discutible dentro de un mix renovable.

Sin embargo, las discusiones de los últimos diez años no han modificado el consenso mayoritario más general: la literatura no considera que haya aparecido ninguna traba seria que hagan inviable un mix 100% renovable, que se ha propuesto con una u otra combinación de fuentes y sistemas de almacenamiento, dependiendo de la región geográfica (pero principalmente basado en eólica, FV, hidro y geotérmica, con fuentes de acumulación variadas). Por el contrario, el IPCC, que recoge el consenso científico sobre cambio climático y las políticas factibles para encararlo, recomienda una transición lo más rápida posible hacia una economía 100% renovable como opción viable y recomendable para evitar un colapso del clima planetario.

DeCastro podrá considerar que todas las publicaciones menos las suyas son tecno-optimistas, pero cuando Raugei, Sgouridis, Fthenakis, Breyer, Hugo Bardi, Carbajales-Dale, Csala y otros obtuvieron una TRE=9-10 para la FV en Suiza (Raugei et al. 2017) no consideraban que sus hipótesis fueran tecno-optimistas, sino que las hipótesis de los artículos que dan TREs bajas no son creíbles. ¿Por qué debemos creer a un autor particular o al otro si la controversia no está cerrada? Para que las afirmaciones de un autor concreto, como DeCastro, se conviertan en “estado del arte” del campo de investigación deben convencer a todos esos colegas de que sus hipótesis son artefactos y las de DeCastro son hechos no discutibles; y ya vimos antes toda la complejidad del proceso colectivo que ello entraña. Mientras todas las controversias que rodean a las renovables no se cierren, lo que guiará a la mayoría de la comunidad, de los políticos y de los movimientos sociales será el estado del arte del conocimiento científico y técnico, en este caso resumido por el IPCC con todas sus incertidumbres asociadas, no lo que diga DeCastro y sus colaboradores.

Este estado del arte incluye amplias bandas de incertidumbre y escenarios plausibles que hay que respetar, sin que ello quite ninguna fuerza al hecho de que debemos actuar en la dirección de evitar las gravísimas consecuencias que se derivarían de que el escenario más pesimista se realizara. Pero esta recomendación, que está de acuerdo con la estrategia de la Ciencia Posnormal de Funtowicz y Ravetz, no lleva a ocultar las incertidumbres (o a engañar a la gente “por su propio bien”), sino todo lo contrario, lleva a ponerlas sobre la mesa para poder discutir públicamente todas las opciones posibles con los grupos sociales que pueden sufrir las consecuencias.

¿Cómo es que el artículo aislado escrito por de DeCastro et al. (2018) “desmonta la mayor parte de lo que ha escrito Antonio García-Olivares”? Si lo desmontara porque cierra las controversias y da un escenario evidente para todo el mundo que pudiéramos tomar como referencia para actuar, pues qué alegría tan grande: por fin podríamos ir acotando las incertidumbres, ir poniéndonos de acuerdo todos los científicos sobre “la verdad” del sistema social que las renovables permiten, y podríamos empezar a discutir con la gente los detalles de la “única manera posible de utilizar las renovable” en una futura sociedad. Pero desgraciadamente las cosas no son tan simples.

Yo ya estoy en el tercio final de mi vida, de modo que mi prioridad es ir preparándome para la muerte. A estas edades no nos tomamos ya unos vulgares artículos científicos que no lee casi nadie, ni las críticas a los mismos, como algo importantísimo; ni como algo a defender como si nos fuera la vida en ello; ni tampoco disfrutamos ya de juegos infantiles como el “yo soy más listo que tú”; y el que alguien esté en desacuerdo o de acuerdo con los propios artículos es algo que vemos más bien con aburrimiento, y como una parte normal del trabajo de cualquier investigador. Sólo trato de ayudar a encontrar si puedo, en los pocos años que me queden, una solución energética colectiva que sea sostenible, viable y que no arrase si es posible con el 80% de la población mundial. Me alegraré mucho (por ti, Carlos) si consigues convencer a la comunidad científica de que las incertidumbres que comento en mi post son inexistentes, dado que te afecta tantísimo el tener o no tener razón en tus predicciones. Ese colapsista insuficientemente radical llamado García-Olivares no está de acuerdo con afirmaciones demasiado tajantes y deterministas, pero no lo hace por joder a nadie, sino porque cree que a un científico le pagan para que sea riguroso, y no un cantamañanas, que de estos ya hay demasiados. Creo que para movilizar a la gente desde una base segura hay que contarles rigurosamente el estado del arte de la discusión científica, sin tratar de manipular ni a la gente ni a la información. Por el momento, no veo que ese artículo que acabáis de publicar refute nada de lo que decía el post de Autonomía y Bienvivir. Veamos las afirmaciones concretas de ese artículo:

-“El que el peak-oil nos pueda llevar o no al colapso dependerá del momento y la velocidad a la que se empiece a sustituir el petróleo por otras fuentes energéticas en los principales sectores económicos, y esto puede ser ampliamente alterado por decisiones políticas gubernamentales.

Dado que el tema tiene bastante incertidumbre, sería más positivo lanzar mensajes del tipo siguiente: “el cénit del petróleo (peak-oil) puede afectar muy negativamente a nuestra economía, dada su fuerte dependencia de este combustible, sobre todo en el transporte; es necesario reducir consumos, y electrificar todo lo posible los procesos económicos que hoy dependen del petróleo, y nada de esto lo está haciendo actualmente el mercado”. El artículo de DeCastro no demuestra nada sobre la certidumbre o grado de incertidumbre del colapso, ni demuestra que la sustitución del petróleo por otras fuentes sea imposible.

-“la afirmación de que el declive de los combustibles fósiles provocará “el fin de la civilización industrial” es algo tan probable como improbable y podría evitarse si se produjera una sustitución relativamente rápida de procesos económicos por otros basados en electricidad, biogás y carbón vegetal renovable (…) Es posible una industria sofisticada no basada en el progreso, el crecimiento y la acumulación de capital (…) Dada la controversia vigente, sería más coherente y positivo limitarse a mensajes de este tipo: “el cénit de los combustibles fósiles no se puede posponer eternamente; es probable que tenga lugar en pocas décadas, y provocará una importante crisis energética si para esa fecha no se han instalado fuentes renovables suficientes para compensar el declive, y no se ha reducido la demanda energética (…) Deberíamos aprovechar el fin de la era fósil para construir una forma de vivir sostenible, ecológica y de calidad, para todos; Las energías renovables y la disminución del consumo de recursos son la única solución a largo plazo al cénit de los combustibles fósiles y a la degradación ecológica; La energía renovable tiene un enorme potencial para democratizar el acceso a la energía y aumentar así la prosperidad y la autonomía de las capas más desfavorecidas; Los gobiernos deben apostar por las renovables,  por el decrecimiento del consumo, y por las cooperativas energéticas renovables; Los grandes sistemas de generación renovables y las redes eléctricas deben ser controladas públicamente y debe ser de propiedad nacional o municipal; El crecimiento debe estar supeditado a la sostenibilidad y al bien vivir.” No veo en qué sitio del artículo de DeCastro se refutan estas afirmaciones.

-“La destrucción que está provocando [el capitalismo] sobre los ecosistemas, la diversidad, los suelos, el clima y las sociedades, [son] problemas globales para los cuales no hay soluciones claras en la literatura científica que parezcan compatibles con la dinámica del crecimiento exponencial. Por ello, creo que el riesgo de colapso por la compulsión a depredar (la biosfera y la sociedad) que tiene el capitalismo es un problema muy superior al que tendrá el reto de la sustitución a renovables. Pero, de nuevo, predecir los tiempos concretos en que la fertilidad de los suelos, el suministro de agua, las abejas, o las cosechas, van a colapsar es muy aventurado; y la posibilidad de que se tomen medidas (o no) para evitar algunas de estas crisis, es algo completamente incierto”. No veo en qué lugar del artículo de DeCastro se refuta esta afirmación y se resuelven estas incertidumbres.

-“   Algunos paneles fotovoltaicos (FV) utilizan metales escasos como el indio, el arsénico, o la plata. Pero el 90% del mercado FV está dominado por paneles de silicio que no usan ningún material escaso salvo en sus metalizaciones, que en algunos casos son de plata, en otros de aluminio, y en otros de cobre y níquel. Dado que la plata no es imprescindible en las metalizaciones, si nos limitamos a usar paneles de ese tipo, no parece que la FV vaya a estar limitada por ningún material escaso.

Algo similar ocurre con la generación eólica. Los molinos que usan imanes permanentes con neodimio son hoy en día el 20% del mercado, con el 80% usando electroimanes en lugar de imanes permanentes. Un molino con electroimanes produce energía igual que uno con imanes de neodimio, sólo que es algo más voluminoso y tiene una caja de engranajes para aumentar la velocidad de rotación que llega al electroimán, eso es todo. Así que cuando el neodimio empiece a encarecerse, la industria tendrá que usar auto-inducción en lugar de imanes, y debería ser obligada a hacerlo por ley antes de que ello ocurra.

El mensaje correcto que en mi opinión habría que propagar es: “las tecnologías renovables más deseables desde el punto de vista de la sostenibilidad son las de baja tecnología, no las de alta tecnología”. DeCastro sólo subraya que las renovables usan, además de los metales comentados, otros metales en menores proporciones, pero no demuestra por qué eso inutiliza a tales tecnologías. A la escala a la que yo he hecho cálculos (unos 12 TWa/a) yo no he encontrado cuellos de botellas en minerales que no sean Li, Ni, Ag, Pt-Pd, y tampoco he encontrado artículos que digan que cualquier economía renovable es imposible debido a las reservas limitadas de metales. Sí que he visto estudios que alertan sobre una serie de metales que podrían encarecerse bastante y llegar a convertirse en cuellos de botella si continuamos con el ritmo de crecimiento exponencial habitual. Pero obviamente, si buscamos una economía renovable diez, veinte o cien veces mayor que la actual entonces chocaremos sin remedio con las reservas de esos y otros metales. Esto creo que pocos autores podrán negarlo con argumentos creíbles.

-Las TREs de las renovables son muy inciertas, y la controversia sobre sus valores más exactos no está cerrada. No veo que el artículo de DeCastro cierre esta discusión.

-Hacer afirmaciones tajantes como que “las renovables nunca proporcionarán ni el 30% de la energía que nos proporcionan los combustibles fósiles” no está de acuerdo con la controversia existente en el mundo científico sobre el potencial tecnológico de las principales fuentes renovables (solar, eólica, hidroeléctrica, geotérmica). No veo en qué modo el artículo de DeCastro es capaz de deshacer esta incertidumbre.

-La afirmación de que una flota de coches eléctricos del tamaño de la actual es imposible “puede ser tan probablemente cierta como falsa y es muy imprudente cargar las tintas sobre ella. Más prudente sería afirmar que: “la necesaria reestructuración del transporte debería apostar por un transporte de calidad, principalmente público, basado en trenes, y complementado en las ciudades por autobuses eléctricos, bicicletas eléctricas, y un número limitado de vehículos eléctricos compartidos”. No veo en qué modo el artículo de DeCastro refuta esta afirmación.

En resumen, que un artículo como el de DeCastro y Capellán-Pérez (2018) es interesante de leer, proporciona información nueva sobre el comportamiento observado en condiciones reales de las centrales CSP, pero es un artículo técnico sobre centrales CSP, no sobre las incertidumbres de la futura economía post-fósil. Un artículo aislado como ese no tiene ni el contenido ni la capacidad de poner punto final a la amplia red de controversias actualmente en curso en torno a un futuro mix 100% renovable, ni de deshacer las incertidumbres asociadas a las estimaciones que surgen de esas controversias. Mientras esas controversias se resuelven, lo mejor que podemos hacer es tener en cuenta por dónde van los consensos mayoritarios (resumidos por ejemplo por el IPCC) y respetar las incertidumbres asociadas a las actuales discusiones.

 

Referencias

-De Castro C., Capellán-Pérez I. (2018). Concentrated Solar Power: Actual Performance and Foreseeable Future in High Penetration Scenarios of Renewable Energies. BioPhysical Economics and Resource Quality 3:14. https://doi.org/10.1007/s41247-018-0043-6

-Raugei Marco, Sgouris Sgouridis, David Murphy, Vasilis Fthenakis, Rolf Frischknechtf, Christian Breyer, Ugo Bardi, Charles Barnhart, Alastair Buckley, Michael Carbajales-Dale, Denes Csala, Mariska de Wild-Scholten, Garvin Heath, Arnulf Jæger-Waldau, Christopher Jones, Arthur Keller, Enrica Leccisi, Pierluigi Mancarella, Nicola Pearsall, Adam Siegel, Wim Sinke, Philippe Stolz (2017). Energy Return on Energy Invested (ERoEI) for photovoltaic solar systems in regions of moderate insolation: A comprehensive response. Energy Policy 102, 377-384.

 

 

El activismo ante las incertidumbres de los grandes riesgos del futuro

Las tendencias de la época que nos ha tocado vivir apuntan hacia escenarios futuros que tienen grandes incertidumbres pero que, de realizarse, muchos de ellos entrañarían enormes riesgos para la vida de las generaciones futuras. Esta clase de escenarios “posnormales” requieren tener en cuenta todas las clases de incertidumbre presentes, y las diferentes escalas de valores de los sujetos a los que afectan los riesgos (Funtowicz y Ravetz, 2000). Sería interesante discutir esto en detalle en algún otro lugar. Aquí me gustaría ahondar un poco más en el debate lúcidamente abierto por Emilio Santiago Muiño (2019) en esta revista, sobre los errores cometidos por los grupos relacionados con la divulgación del Peak Oil o cénit del petróleo en la interpretación y comunicación del problema, y en el tratamiento de sus incertidumbres.

Los sistemas sociales son sistemas muy complejos. El paradigma científico contemporáneo de los sistemas complejos los considera como sistemas jerárquicos que se automantienen. Koestler llama “holones” a esta clase de sistemas jerárquicos porque tienen la peculiaridad de ser a la vez un “todo” (un sistema en sí mismo) y una “parte” de un sistema de mayor escala (que es la biosfera). Además, el sistema social está constituido por partes que son entidades biológicas (humanos) y tecnológicas (los actantes de Latour, objetos técnicos en interacción con los humanos). Estos constituyentes biológicos son sistemas autoorganizativos autopoiéticos (que crean continuamente su propia existencia material y organización) y que se comportan como agentes de comportamiento en parte impredecible. Y lo que es peor, el entorno o ambiente en el que las sociedades se re-producen, la biosfera, es también un sistema auto-organizativo que se automantiene y que se adapta a su propio entorno geológico.

Los holones sólo son parcialmente predecibles (en algunas de sus propiedades emergentes) en situación de (meta)estabilidad; en momentos de inestabilidad de los flujos de energía, materiales e información entre sus componentes (o hiperciclos) son muy sensibles a las perturbaciones. En nuestro caso, una sociedad en crisis se vuelve muy sensible a las movilizaciones colectivas de sus componentes humanos. En situaciones de crisis de sus formas habituales de re-producción, los sistemas sociales son muy impredecibles  pues distintas movilizaciones de sus agentes-actantes componentes puede modificar su auto-organización habitual, y desequilibrarlo hacia nuevas formas económico-políticas que se institucionalizarán con el tiempo sustituyendo a las anteriores.

En funcionamiento estable, los sistemas complejos no son deterministas, puesto que lo mejor que se consigue observándolos es identificar distribuciones de probabilidad en la evolución de sus propiedades emergentes; pero en situaciones de crisis ecológica, económica y/o política, los sistemas complejos jerárquicos se vuelven especialmente poco deterministas, puesto que ni siquiera es posible definir una probabilidad para su comportamiento futuro.

¿Qué es lo mejor que podemos hacer en nuestra situación, con dinámicas en el sistema económico-social que pueden conducirlo a un colapso en las próximas décadas? Trataremos de responder a esta pregunta en los apartados siguientes.

Observemos fríamente antes de hacer proyecciones

En primer lugar, parece recomendable observar de cerca al sistema complejo usando el mínimo posible de teorización, pues en situación de inestabilidad las antiguas “leyes” que describían aproximadamente el comportamiento estable del sistema dejarán paso a nuevas leyes emergentes. Estas nuevas leyes deberán ser compatibles, por supuesto, con las leyes de la termodinámica, pero éstas nos dicen poco sobre las nuevas formas de organización que se pueden ensayar entre los grupos humanos y las tecnologías disponibles.

“Mucha observación y el mínimo de teoría conducen a la verdad”. Este principio fue formulado por primera vez por Al-Hazen (965-1039) de Basora, considerado el físico más importante del medievo. Si en lugar de atenernos fielmente a la observación preferimos usar teorías preexistentes, la mayoría de las veces nos equivocaremos. Hay un texto de tiempos de las cruzadas que ilustra de forma muy interesante las consecuencias prácticas que pueden derivarse del uso de grandes abstracciones filosófico-religiosas en sustitución de un vulgar empirismo. Se trata de un incidente recogido por Usama Ibn Múrxid, emir, caballero, poeta y hombre de letras (1095-1188) en su manuscrito autobiográfico “Kitab al-Itibar” («Libro de las Reflexiones»), descubierto en la Biblioteca Árabe de El Escorial por el arabista Hartwig Derenbourg, y publicado en francés en 1889, y que también recoge Amin Maalouf en su libro “Las cruzadas vistas por los árabes”. Esto es lo que escribe Usama:

Un día, el gobernador franco de Muneitra, en el monte Líbano, escribió al Sultan, emir de Shayzar [aliado de los cruzados], para rogarle que le enviara un médico para tratar algunos casos urgentes. Mi tío escogió a un médico cristiano de nuestra tierra, llamado Thabet. Éste solo se ausentó unos días y luego regresó entre nosotros. Todos sentíamos gran curiosidad por saber cómo había podido conseguir tan pronto la curación de los enfermos y lo acosamos a preguntas. Thabet contestó: “Han traído a mi presencia a un caballero que tenía un absceso en la pierna y a una mujer que padecía de consunción [gastritis o úlcera]. Le puse un emplasto al caballero; el tumor se abrió y mejoró. A la mujer le prescribí una dieta para refrescarle el temperamento. Pero llegó entonces un médico frany [franco] y dijo: ‘¡Este hombre no sabe tratarlos!’ Y, dirigiéndose al caballero, le preguntó: ‘¿Qué prefieres, vivir con una sola pierna o morir con las dos?’ Como el paciente contestó que prefería vivir con una sola pierna, el médico ordenó: ‘Traedme un caballero fuerte con un hacha bien afilada.’ Pronto, vi llegar al caballero con el hacha. El médico franco colocó la pierna en un tajo de madera, diciéndole al que acababa de llegar: ‘¡Dale un buen hachazo para cortársela de un tajo!’ Ante mi vista, el hombre le asestó a la pierna un primer hachazo y, luego, como la pierna seguía unida, le dio un segundo tajo. La médula de la pierna salió fuera y el herido murió en el acto.

En cuanto a la mujer, el médico franco la examinó, y dijo: ‘Tiene un demonio en la cabeza que está enamorado de ella. ¡Cortadle el pelo!’ Se lo cortaron. La mujer volvió entonces a empezar a tomar las comidas de los francos, con ajo y mostaza, lo que le agravó la consunción. ‘Eso quiere decir, que se le ha metido el demonio en la cabeza’, afirmó el médico. Y, tomando una navaja barbera, le hizo una incisión en forma de cruz, dejó al descubierto el hueso de la cabeza y lo frotó con cal. La mujer murió en el acto. Entonces, yo pregunté: ‘¿Ya no me necesitáis?’ Me dijeron que no, y regresé, tras haber aprendido muchas cosas que ignoraba sobre la medicina de los franÿ”»

Es evidente el empirismo aristotélico del médico de cultura árabe, habitual en el mundo musulmán de la época, mucho más avanzado científicamente; en contraste, el médico franco utiliza una mezcla de pseudo-platonismo y judeo-cristianismo para explicar los síntomas que observa, mediante constructos abstractos como los demonios y su relación con los humanos.

Unos siglos después, el empirista Francis Bacon (1561 – 1622), subrayaba que la falta de observación empírica conduce a generalizaciones abstractas apresuradas que, la mayoría de las veces, son dirigidas por cuatro clases de “ídolos”: los “ídolos de la tribu”, los de “la caverna”, los “del foro”, y los “del teatro”.  Los ídolos de la tribu derivan de las pulsiones de nuestra naturaleza humana. Podríamos pensar no sólo en lo que hoy llamamos “instintos biológicos”, sino también en la predisposición de nuestro sistema cognitivo a organizar todas las percepciones en secuencias temporales, en distribuciones espaciales, y en cadenas de causa-efecto.

Los ídolos de la caverna proceden de la presión de una subjetividad que deriva del pasado particular de cada sujeto. Aquí podríamos incluir los hábitos que ha adquirido esa especie de héroe romántico con el que muchos occidentales nos identificamos y que denominamos “nuestro yo”. Esos hábitos nos proporcionan una efímera sensación de consistencia y nos hacen actuar mecánicamente en lugar de libremente.

Las dos primeras clases de ídolos están en la base, podríamos decir, de la compulsión biográfica que tiene el individualismo romántico occidental. Nos encantan las historias noveladas, las biografías y los cuentos moralizantes (“humano, demasiado humano” que diría Nietzsche con su habitual sospecha), y por ello simplificamos con frecuencia el comportamiento de la complejidad geo-bio-social reduciéndolo a historietas moralizantes.

Los ídolos del foro derivan del uso acrítico de las “palabras” según Bacon. Hoy diríamos del uso acrítico de los “marcos metafóricos” dominantes (Lakoff: véase: https://entenderelmundo.com/2018/04/25/las-metaforas-y-la-construccion-imaginaria-de-la-realidad/).

Los ídolos del teatro derivan de las ideologías dominantes en las tradiciones de nuestra cultura y en nuestros grupos de referencia. Podríamos decir que nuestra pulsión inconsciente hacia la sociabilidad y la fidelidad a nuestras familias intelectuales y morales está por encima de nuestras observaciones e interpretaciones personales.

Las dos últimas clases de ídolo nos tienden a llevar a un fuerte conservadurismo social a la hora de abordar o conceptualizar un tema, como si esa forma fuera la única forma de llegar a “la verdad”. Sin embargo, el pragmatismo y el constructivismo nos han enseñado que la “verdad” es esencialmente una construcción social; y que esa construcción es muy dependiente de la perspectiva que tomemos grupalmente para describir el objeto. De modo que ser fiel a una perspectiva social durante largo tiempo y en una misma dirección, nos lleva fácilmente a perdernos perspectivas que pueden ser más útiles, para nuestra propia libertad y hasta para nuestro grupo de referencia.

Los taoístas, esos anarquistas de la China Clásica, son quizás quienes mejor han subrayado la necesidad de romper con las conceptualizaciones habituales de la propia cultura, y con la conceptualización en general como algo inamovible. Chuang-Tzu en sus Escritos proporciona una de las imágenes más poderosas que se han creado de lo que hacen los adoradores de conceptos y metáforas dominantes en sus “salones sociales”. La escena es una supuesta entrevista entre Confucio y Lao Tse:

Confucio fue a ver a Lao Tan (Lao tse) y le habló del jen, amor al prójimo, y de la i, equidad. Lao Tan le contestó: Si al cerner el salvado se le ha metido a alguien su polvo en el ojo, verá el mundo trastocado. Si un mosquito o un jején le ha picado en la piel, no puede conciliar el sueño toda la noche. De la misma manera nos escuecen y turban el corazón ese amor y esa equidad. Nos causan una confusión inmensa. Su merced procure que el mundo no pierda su autenticidad natural. Déjese mecer por el viento y yérgase con la virtud (del Tao). ¿Para qué tantos esfuerzos? Los cisnes no necesitan bañarse cada día para conservar su nívea blancura, ni el cuervo pintar sus plumas para conservarse negro. A lo blanco y negro, si son auténticos, nada puede cambiarlos de color. La admiración y los elogios de otros no agrandan nuestra fama. Secado el río, los peces se apiñan en el fango seco, y con la humedad de su aliento se mojan mutuamente la cara. Mejor les iba antes en sus ríos y en sus profundos lagos olvidados unos de otros. Confucio, vuelto de su entrevista con Lao Tan, guardó silencio tres días enteros. A sus discípulos, que le preguntaron qué consejos, para regular su vida, había dado a Lao Tan, les respondió: “Hoy he visto al dragón enroscarse sobre sí y, desplegándose, ostentar su magnificencia, montarse sobre las nubes y nutrirse de los dos elementos Yin y Yang. Me he quedado con la boca abierta y no la puedo cerrar. ¿Qué consejos o reglas de vida podía yo dar a Lao Tan?“. Chuang tzu añade que lo que hace la escuela confuciana, con su complicada red de reglamentaciones de la vida, es como vestir a un mono con las vestiduras del duque Chou (s. XI a.C.). “Este, al verse vestido de ellas, con sus dientes y sus garras las rasgaría de inmediato“.

Más allá de la ironía expresivista de Chuang-Tzu, un poco cruel para con el bonachón de Confucio, la imagen de los peces arrejuntados en el fango del fondo y mojándose mutuamente la cara con su aliento es tan certera que sigue siendo actual, 2.300 años después de su invención, para describir la adoración del hombre cortesano, y del conservador en general, hacia las convenciones sociales. Pero también para todas las dinámicas de auto-convencimiento típicas de los grupos cerrados.

El problema es que, incluso siendo conscientes a ratos de estas cuatro clases de prejuicios, tendemos a achacárselos a los que están fuera de nuestro grupo de referencia, no a nosotros mismos, lo cual no deja de ser irónico y fue siempre fuente de regocijo irónico para filósofos como Schopenhauer o Nietzsche. ¿Nos damos por aludidos ya o todavía no? La construcción imaginaria de la realidad a base de compulsiones causales, historias biográficas, procesos novelados, metáforas creadoras de realidad, y adscripción a paradigmas socialmente aceptados, es algo universal, no sólo de “los otros”. Los errores procedentes de las cuatro clases de prejuicios comentados no se dan sólo entre los incautos “tecno-optimistas” del mundo “BAU”, sino también entre nosotros, lúcidos seguidores de los foros de discusión sobre energía, sostenibilidad y colapso.

Amador Fernandez-Savater afirma, por ejemplo, que “el orgullo es un obstáculo para el aprendizaje y que sólo aprende quien se deja humillar por lo que desconoce (…) Atender es aprender a esperar, una cierta pasividad. Todo lo contrario de los impulsos que nos dominan hoy día: impaciencia, necesidad compulsiva de opinar, de mostrar y defender una identidad, falta de generosidad y apertura hacia la palabra del otro, intolerancia a la duda, googleo y respuesta automática, cliché”, y cita a Simone Weil, quien recomendaba reconocer la propia estupidez para bajarnos los humos y abrirnos así al conocimiento: “La mente debe estar vacía, a la espera, sin buscar nada, pero dispuesta a recibir en su verdad desnuda el objeto que va a penetrar en ella… El pensamiento que se precipita queda lleno de forma prematura y no se encuentra ya disponible para acoger la verdad. La causa es siempre la pretensión de ser activo, de querer buscar” (Fernandez-Savater, 2019).

Un empirista contemporáneo como Bertrand Russell contestaba de la siguiente manera, en una entrevista de John Freeman, el 4 de Marzo de 1959 en el programa “Face to Face” de la BBC:

–    Una última pregunta: supongamos profesor Russell… que esta grabación sea vista por nuestros descendientes, como los Manuscritos del Mar Muerto, en un período de cientos de años. ¿Qué piensa usted que valdría la pena decirle a esa generación sobre la vida que usted vivió y las lecciones que usted aprendió de ella?

–     Me gustaría decirle dos cosas: una intelectual y una moral. Lo intelectual que me gustaría decirles es esto: cuando estés estudiando cualquier tema o considerando cualquier filosofía, pregúntate a ti mismo únicamente: ¿cuáles son los hechos? ¿y cuál es la verdad que los hechos sostienen? Nunca te dejes desviar, ya sea por lo que tú deseas creer o por lo que crees que te traería beneficio si así fuese creído. Observa únicamente e indudablemente cuáles son los hechos. Eso es lo intelectual que quisiera decir. Lo moral que quisiera decirles es muy simple. Debo decir: El amor es sabio, el odio es estúpido. En este mundo, que cada vez se vuelve más y más estrechamente interconectado, tenemos que aprender a tolerarnos unos a los otros, tenemos que aprender a aceptar el hecho de que alguien dirá cosas que no nos gustarán. Solamente podemos vivir juntos de esa manera. Si vamos a vivir juntos, y no a morir juntos, debemos aprender un poco de caridad y un poco de tolerancia, que es absolutamente vital para la continuación de la vida humana en este planeta.

Estas recomendaciones de Bertrand Russell son especialmente apropiadas en un entorno lleno de incertidumbres donde nuestro complejo sistema social está entrando en un régimen de inestabilidad.

Esta actitud modesta y empírica implica también no forzar “la ciencia” hacia nuestros propios anhelos o valores políticos. La coletilla de “la termodinámica nos dice que X es imposible” casi siempre es falsa aplicada a un sistema complejo, y recuerda a expresiones tales como “el ser humano es egoísta por naturaleza” o “la inteligencia está en los genes”, que intentan dar legitimidad de ley natural indiscutible a lo que es muy discutible y sigue siendo discutido.

Respetemos las incertidumbres

Segundo, nos enfrentamos a una dinámica económica global que genera riesgos de enormes consecuencias ecológicas, sociales y de sostenibilidad, pero el cómo, cuándo y con qué intensidad se van a presentar esas consecuencias tiene muchas incertidumbres. Una cosa es subrayar la gravedad de las consecuencias y otra muy distinta es decir que esas consecuencias son virtualmente seguras, cuando no son seguras.  Es necesario respetar las incertidumbres. Esto es algo que subrayan continuamente Jesús Nacher y Roger Carles en sus posts del foro de Autonomía y Bienvivir. Es mucho más prudente analizar las tendencias que se observan en el sistema y el escenario al que estas tendencias podría conducir si nada las modifica, y divulgar socialmente  estas evidencias plausibles; pero nunca aventurarnos a concluir cuándo se va a producir el temido escenario, ni a afirmar que esa evolución del sistema es inexorable, y mucho menos a aventurar que tras la inestabilidad del sistema, su colapso será rápido o se producirá de una manera pre-determinada. No olvidemos que cuando un sistema complejo entra en crisis su evolución es muy sensible a los pequeños detalles y a las iniciativas colectivas de sus agentes componentes, y estas son en gran parte autónomas e impredecibles, así que no podemos identificar a priori una distribución de probabilidad para lo que pueda ocurrir.

En estos casos, la cautela con que la comunidad científica hace afirmaciones me parece que es la guía más útil que tenemos como modelo. El IPCC, por ejemplo, recopila las afirmaciones que el consenso científico permite establecer sobre el cambio climático antropogénico en una forma que respeta las incertidumbres que dicho proceso de cambio tiene. Por ejemplo, cuando se describe la posibilidad de que tenga lugar un determinado proceso o suceso cuyas causas son aún objeto de debate, o que no es fácilmente modelable matemáticamente, se emplea una escala de “confianza” cualitativa que expresa la confianza psicológica de los expertos de ese campo científico sobre la posibilidad del evento: “muy baja; baja; media; alta; muy alta”. Si, en cambio, el proceso ha sido modelado matemáticamente por un conjunto de modelos, y es posible extraer de ellos distribuciones de frecuencia o probabilidad, entonces se emplea una escala de verosimilitud cuantitativa del tipo: “Virtualmente cierto”: 99-100% probable; “Muy probable”: 90-100% probable; “Probable”: 66-100% probable; “Tan probable como no”: 33-66% probable; “Improbable”: 0-33% probable; “Muy improbable”: 0-10% probable; “Excepcionalmente improbable”: 0-1% probable (Mastrandrea et al. 2010); O, en algún caso, “más probable que no”: 50-100% probable.

Esto implica también no apostar nunca por certezas en la transición de un sistema social. Como afirma Emilio Santiago Muiño (2019) en su excelente artículo, la revista 15/15\15 toma su nombre de una muy atrevida predicción: 15 años después del 2015 (en el 2030), el petróleo solo proporcionará un 15% de la energía neta que proporcionaba en ese año inicial. Un título como éste para una revista puede ser eficaz para concienciar a la gente sobre lo que podría llegar a ocurrir y guiar a la gente a movilizarse para evitar males mayores; pero ningunea la gran incertidumbre que tienen las predicciones sobre reservas convencionales y no convencionales del petróleo, y la aplicabilidad de las técnicas de fracking fuera de los EEUU, y esto es una apuesta por el descrédito anunciado si en el 2030, o unos años antes, la tendencia de la producción mundial de petróleo está muy por encima de esa predicción.  Santiago Muiño discute otros ejemplos de esta clase de predicciones hechas desde colectivos cercanos a la problemática del peak-oil, la sostenibilidad y la transición post-capitalista, y lo peligroso que resulta obviar las incertidumbres para la credibilidad de todo el colectivo. Como señala Santiago Muiño, igual de peligroso es ignorar el estado del arte de los consensos científicos a la hora de hacer nuestras predicciones, pues una gran parte de la legitimidad que la mayoría de la sociedad da a las afirmaciones se basa en si son coherentes o no con los consensos científicos. Y añado: si no hay aún un consenso científico establecido, hacer predicciones y afirmar que esas predicciones se basan en “la ciencia”, “la temodinámica” o “la entropía”, es doblemente arriesgado y suicida, pues ofrecen una imagen de diletantismo y de sectarismo.

La verdad es una construcción colectiva

Tercero, evitemos el sectarismo. Hay que sospechar de la tendencia a exagerar nuestra propia perspicacia grupal como observadores  y modelistas. La “verdad” es una construcción colectiva, no algo que es revelado por alguien bendecido por Dios, o descubierto por un observador especialmente perspicaz. Ni todos los científicos no colapsistas son unos tecno-optimistas, ni todos los economistas son ideólogos del BAU, ni todos los políticos y lobbies hacen el juego al crecentismo y al capitalismo, aunque se muevan dentro de las instituciones. Así que conviene estar abiertos a informaciones de científicos, políticos, economistas y grupos interesados en el tema diferentes del propio.

Los grupos cerrados de discusión, y ese es el caso de los foros virtuales de Internet donde se discute sobre Peak Oil, energía o colapso, fomentan la impresión de que los “memes” que se repiten mucho son verdades incontrovertibles. Hay enunciados que se ponen de moda por cualquier razón, y que son repetidos una y otra vez, como los mantras, sin que nadie o casi nadie los discuta, dado que la mayoría de los miembros del grupo no adoptan la actitud que pueda tener un científico (curiosidad abierta y crítica) sino una actitud de desconfianza reactiva contra quien erosione las certidumbres que vengo buscando. De este modo, los foros se llenan de afirmaciones rotundas que suelen “chirriar” fuera de él. En el caso de los foros sobre Peak Oil, se suele recurrir a desacreditar como “tecnooptimismo” o “magufada” cualquier opinión externa (o incluso interna) que no concuerde con el meme de que el peak-oil provocará un declive energético y un colapso económico y social rápidos. Ciertamente, abundan los economistas que siguen utilizando las mismas “leyes” económicas que fueron válidas en épocas de abundancia de recursos naturales en la situación actual, donde algunos recursos no renovables (v.g. minerales o petróleo) se han utilizado ya hasta cerca del 50% de sus reservas extraíbles. Pero en otros casos, una opinión contraria a considerar un colapso rápido como algo “altamente probable” puede proceder, simplemente, de un ingeniero o un científico informado a quien le resulta contra-intuitivo asignar una probabilidad del 90 al 100% a un escenario para el que la discusión tecno-económica no tiene una probabilidad definida, dado que ni siquiera hay consenso entre los investigadores sobre si tal escenario se va a llegar a producir o la acción colectiva (sea tecnocrática, política o social) va a evitarlo a tiempo.

Puedo hablar en primera persona sobre esto, puesto que lo he sufrido. Personalmente, estoy convencido de que el sistema capitalista actual (con su estado rentista asociado) no sabe funcionar sin crecimiento; que si lo llegara a intentar colapsaría, porque se cumpliría el “teorema de Marx” sobre la tendencia de la tasa de beneficio a caer hasta cero; y que si nada para el tren desbocado de la acumulación ampliada de capital, la dinámica capitalista provocará el colapso de la diversidad biológica, de la fertilidad de la mayoría de los suelos, de la estabilidad climática y de los recursos minerales y energéticos no renovables. Creo que ello puede llevarnos a una época de estancamiento estructural, de grandes movilizaciones sociales, y de posibilidad de colapso económico-social en el presente siglo (García-Olivares y Solé, 2015). Así que se me podría considerar un eco-socialista colapsista; pero no considero  todas estas posibilidades económico-sociales como inexorables, y por motivos parecidos me he negado a considerar inexorable un colapso rápido tras el peak-oil, cuando ese colapso es sólo una posibilidad entre otras. Esta actitud creo que es mucho más rigurosa, pues se ajusta al estado de las evidencias científicas sin forzarlas hacia un determinismo que no existe en un sistema social. Sin embargo, esta actitud ha provocado mayoritariamente, en esos foros de discusión, comentarios despectivos y acusaciones de “cinismo”, “tecno-optimismo” y “soberbia” o una mera descalificación retórica de los argumentos, en lugar de una discusión técnica y colectiva del consenso científico, que era lo que procedía. De manera que un intento de ser fiel a ese “espíritu científico” del bendito de Bertrand Russell se me reprochaba como “soberbia” por no estar de acuerdo con los mantras del foro de discusión. Una “sutil” manera de decirle a un científico que estaba en territorio hostil y no era bienvenido, cosa que entendí bien y desde entonces abandoné tales grupos para dedicarme a mis tareas profesionales (salvo excepciones esporádicas). Ese ahuyentamiento de los intrusos, y hasta de los “nuestros” que no son lo suficientemente radicales, tiene como efecto reforzar los mantras de moda en el foro, cerrar aún más el círculo, y aislarlo del resto de las prácticas sociales de conocimiento.

Antes hablamos del poder persuasivo de los marcos metafóricos. Conviene estar atentos a ellos y no utilizarlos mecánicamente si no queremos acabar presos de nuestra propia retórica. Además de estos marcos, la cultura occidental nos invita a utilizar narrativas completas, como la del “monomito” que estudió Joseph Campbell (1949). En él, un héroe es humillado y abandonado en un mundo lleno de amenazas y pruebas; debe cruzar una serie de umbrales, donde puede encontrar  guardianes, dragones o familiares que se le oponen y debe derrotar o conciliar; Luego desciende a un reino de oscuridad, o mundo de fuerzas poco familiares, algunas de las cuales le amenazan; tiene que resolver pruebas o acertijos, en ocasiones con la ayuda de un aliado. Finalmente, se le presenta una prueba suprema y recibe su recompensa.  Quizás influida por esta clase de narrativa, la mayoría de la gente no quiere escenarios posibles y bandas de verosimilitud, sino certezas bonitas y justicias poéticas; y no quiere datos, sino historias noveladas que le reconforten de la dureza de este sistema explotador. En el mundo BAU todos conocemos esas bellas historias tecno-optimistas; en nuestro caso, se trataría de narraciones más o menos pre-conscientes del tipo: “el puto capitalismo se ha alimentado de nuestro trabajo y nuestras esperanzas, y ha prostituido hasta a la Naturaleza, pero el pico del petróleo y la termodinámica están conmigo, y nos vengarán de tanta prepotencia colapsando a ese sistema opresor”. Hay elementos muy verosímiles en esa descripción, pero se sigue pareciendo demasiado al monomito como para que sea creíble. Un sistema social evoluciona siempre de forma mucho más compleja que lo que uno cree y desea y, lo que es peor, absolutamente indiferente a las pretensiones de nuestros maltratados egos personales. No digo que sea el caso de todo el mundo, pero creo que estos mecanismos psicológicos actúan pre-conscientemente en muchos sujetos. Desgraciadamente y con toda probabilidad, ningún determinismo energético va a ahorrarnos el trabajo de acabar con el capitalismo mediante nuestra impredecible movilización colectiva, y más vale que partamos de esta idea para ver las cosas con un poco más de libertad y perspectiva.

El ejemplo nos ha traído de nuevo a la primera clase de ídolos de Bacon, que son los condicionamientos de la propia identidad e historia personal. En esto de la identidad, y para acabar de una vez por todas con esa idolatría, creo que es mucho más sagaz la psicología budista Mahayana que la occidental. Según la psicología Mahayana “yo” no existo, soy una convención social (o psico-social). Si no quieres que tu mente se pase la vida controlada por historietas externas, por cuentos y por convencionalismos sociales, comienza por el primer gran convencionalismo: “yo mismo”. No hay ningún uno que sea mismo. Hay ahí un cuerpo que ha ido evolucionando a lo largo de décadas, que decide hacer cosas y un impulso interior que dice a-posteriori  que “he sido yo” el que lo decidió, sin que se sepa muy bien quién es ese “yo”; hay recuerdos construidos que proceden de otros recuerdos y que no suelen confirmar muy bien otros observadores de las mismas escenas; las células componentes de ese cuerpo no son hoy las mismas que las que hubo hace una década; mis expectativas, mis recuerdos, todo ha sido reconstruido una y otra vez; y hay imágenes fotográficas de ese cuerpo animal cambiante que, a pesar de las diferencias, en mi familia y en la comisaría del DNI  siempre nombran con el mismo nombre y apellido. Poco más. En realidad, yo no existo, tal como afirma el Mahayana y sospechaba Schopenhauer. Los cuerpos simplemente deciden, en gran parte de forma inconsciente, y hacen lo que saben hacer (usando la información que les llega y sus esquemas interiores de procesamiento que incorporan metáforas sociales y hábitos aprendidos), no soy “yo” quien decide nada, y los budistas nos animan a que observemos con atención lo que hace el propio cuerpo, pues es muy interesante ver a un sistema real tan complejo tomando decisiones y actuando. Esa actitud de olvidarse de uno mismo, de nuestro honor personal, de nuestras vejaciones pasadas y de nuestra venganza, es mucho más sagaz, relajada y productiva y nos permite concentrarnos en observar lo que hay y lo que está ocurriendo realmente.

Esto implica también no encerrarnos en nuestra concha. La confianza en su eficacia profesional que tenía el médico franco que citábamos más arriba procedía de su convicción de que poseía “la verdad”.  Sin embargo, como ha demostrado el antropólogo de la ciencia Bruno Latour, cuanto más socialmente construido es un hecho, más verdadero se vuelve. No existe ninguna verdad antes de su construcción social; la verdad es el modo de interpretar aceptado por la comunidad de observadores-modeladores que enrola en su descripción a un número mayor de entes materiales y de prácticas sociales de conocimiento. Esa comunidad está constituida en gran parte por las instituciones y prácticas individuales científico-técnicas, de modo que, en una gran proporción, la realidad en las sociedades contemporáneas es la que construyen los ingenieros, los científicos, y los grupos sociales interesados en el tema en cuestión. La verdad no puede ser “descubierta” por ningún grupo privilegiado o especialmente perspicaz, porque no pre-existe. Si queremos participar en la construcción de la futura realidad, hay que contar con lo que dicen los otros grupos interesados, con lo que dicen los científicos e ingenieros, y con el comportamiento que parecen tener los artefactos y los procesos naturales ante nuestra intervención, y ver si hay algún tipo de acuerdo posible entre todos esos discursos y comportamientos.

Fue Herbert Simon el primero en subrayar que, cuando en un proceso de cambio social hay indeterminación o complejidad, ya no es posible deshacerse de la deliberación entre grupos sociales, hasta encontrar soluciones “satisfactorias” para todos, no soluciones “óptimas”, que en la práctica sólo suelen ser satisfactorias para el grupo que propone y financia dicho óptimo. Cualquier decisión ” siempre implica una dimensión política, ya que se basa en información imperfecta y un conjunto determinado de objetivos. De lo contrario, debería llamarse ‘computación’. Sin embargo, cierta ideología dominante entre las élites capitalistas pretende que hay una “ciencia económica” (que invariablemente no incluye las aportaciones de Marx, ni las de Keynes, Polanyi, Schumacher, o la Economía Ecológica) que toma decisiones basada en una “racionalidad substantiva”, esto es, que es capaz de decirnos cuál es la solución técnicamente (económicamente) correcta para cualquier problema social, incluso la sostenibilidad. Esta pretensión no resiste un análisis científico serio. Como en la práctica cualquier futuro vivible va a ser co-construido por muchos grupos interesados, conviene hacer presión organizadamente no sólo desde los márgenes, sino también desde dentro del sistema. Haciendo públicos de forma organizada los valores que consideramos irrenunciables para una transición eco-social. Las movilizaciones sociales, como la liderada actualmente por Greta Thunberg, deben poder contar con nuestra participación activa, de modo que estos valores irrenunciables puedan ser incorporados a las mismas. Si nos ausentamos, otras organizaciones sociales y grupos de interés van a tratar de conducir la movilización hacia sus propios valores e intereses.

Matizando algunas afirmaciones concretas

Ya comentamos antes la incertidumbre que tiene las predicciones sobre la fecha del cénit de los líquidos derivados del petróleo (que también subrayaba Emilio Santiago Muiño en su excelente artículo) y la de los combustibles fósiles. Comentaremos otros conceptos concretos frecuentemente expresados desde nuestros foros, sus incertidumbres asociadas y qué sería más positivo transmitir.

El crecimiento exponencial es incompatible con el tamaño finito de los recursos materiales de la Tierra   

Esta afirmación puede considerarse virtualmente cierta, dado que nadie la suele discutir en la literatura. Sólo hay controversia en los plazos en que las limitaciones materiales se harán visibles. El rango de discusión va de una década a varios siglos, pero las evidencias de crisis ecológicas importantes juegan a favor de dar cada vez más crédito a un horizonte de varias décadas, no de varios siglos.

El peak oil nos llevará al colapso

Hay una especie de consenso dentro de muchos círculos colapsistas en que la actividad económica y el PIB están en su mayor parte determinados por el suministro de petróleo, y que  cuando éste decline, declinarán aquellos. Pero esto tampoco es algo que se pueda afirmar con esa rotundidad. Yo mismo utilicé ese argumento en un artículo mío y uno de los revisores me contestó algo así como: “¿por qué desprecia usted los procesos de sustitución?”.

El argumento se basa en la ley del Mínimo de Liebig en biología, que afirma que el crecimiento de un organismo fotosintetizador no es controlado por el monto total de los recursos disponibles, sino por el recurso más escaso. El petróleo actuaría de forma similar sobre el “metabolismo” económico. El argumento es discutible, dado que una economía dispone de un mecanismo que es la sustitución.

Los economistas convencionales podrán ser excesivamente tecno-optimistas, pero saben algo de mecanismos económicos, y lo que nos dicen es que ante un posible frenado del crecimiento de la oferta de petróleo que no pudiera subir al ritmo de su demanda, se producirían aumentos de precios. Cuando estos desfases oferta-demanda se vuelvan estructurales (y mejor no nos aventuraremos ya a predecir fechas) se destruirá actividad económica a corto plazo, pero a medio plazo se pondrán en marcha los procesos económicos de sustitución del petróleo por otras fuentes energéticas disponibles y más baratas. Hasta el momento ha bastado con el fracking para mantener ajustada la demanda a la oferta; pero cuando el fracking no sea suficiente, y se produzca el cénit del petróleo (convencional, no-convencional y líquidos derivados del petróleo) probablemente habrá una crisis económica como la de los 70, pero no necesariamente se producirá un colapso, puede que sí y puede que no. Es probable que se produzca un declive del producto agregado mundial, pero puede que ni siquiera eso se produzca, todo dependerá de lo rápida que sea la sustitución del petróleo por otras fuentes diferentes como gas y renovables (hasta una parte de carbón) en la industria y el transporte durante los años en que el suministro de petróleo esté en el entorno del máximo de producción.

La verdad de la afirmación dependerá pues del momento y la velocidad a la que se empiece a sustituir el petróleo por otras fuentes energéticas en los principales sectores económicos, y esto puede ser ampliamente alterado por decisiones políticas gubernamentales.

Dado que el tema tiene bastante incertidumbre, sería más positivo lanzar mensajes del tipo siguiente: “el cénit del petróleo (peak-oil) puede afectar muy negativamente a nuestra economía, dada su fuerte dependencia de este combustible, sobre todo en el transporte; es necesario reducir consumos, y electrificar todo lo posible los procesos económicos que hoy dependen del petróleo, y nada de esto lo está haciendo actualmente el mercado”.

El cénit de los combustibles fósiles nos llevará al colapso

Algo análogo se puede prever para cuando se produzca el cénit de todos los combustibles fósiles. El capitalismo aún tendrá disponible el mecanismo de la sustitución, y ahí las renovables y el capitalismo verde están a la espera. En un par de artículos publicados hace unos años yo me atrevía a pronosticar que el capitalismo echaría mano de esta sustitución masiva a partir del 2028 con una incertidumbre de 8.5 años arriba o abajo (fecha alrededor de la que se mueven las predicciones del cénit de los combustibles fósiles). Y que la inversión masiva en fuentes renovables podría evitar un colapso económico súbito (al menos del PIB, no necesariamente de la calidad de vida del 90% de la población) si se hacía a ritmos suficientes; y si no se hacía a tales ritmos, podría al menos amortiguar el declive y estabilizar la economía en niveles similares a los de 2014 o así. También contemplaba la posibilidad de un colapso rápido tras el cénit de los fósiles, pero sólo si el sistema era tan ciego como para no fomentar la sustitución de los combustibles fósiles por fuentes renovables.

En 2016 la energía final era en un 30% electricidad, biocombustibles, residuos orgánicos, u otras renovables (IEA 2016). Se trataría de modificar los procesos que hoy consumen el 70% de la energía final en forma de derivados del petróleo, gas o carbón, para que pasen a consumir electricidad o biocombustibles. En García-Olivares (2015), discutí que  el transporte es muy dependiente del petróleo, pero que la industria es dependiente sobre todo de la electricidad, salvo en el sector petroquímico, donde el petróleo no se usa principalmente como fuente de energía sino como materia prima. Además, el gas, el carbón y el petróleo son utilizados en procesos que podrían ser fácilmente electrificados: calentar, reducir químicamente, y mover masas grandes o personas. Los procesos centrales y más complejos de todas las industrias son realizados sistemáticamente con electricidad, como no podía ser menos, tratándose de una fuente de exergía máxima.

Así pues, una electrificación relativamente rápida de muchos de los sectores, aun siendo complejo, no parece algo descabellado en una futura situación de declive de la producción energética fósil. El sector petroquímico sí que se vería obligado a reducir su tamaño hasta un 40% del actual, y la aviación debería reducirse también a una actividad 50% de la actual, por las limitaciones que tendría la producción de biocombustibles. Habrá que esperar a que se publiquen otros estudios sobre cómo sería una futura economía 100% renovable, pero los pocos publicados  contradicen esa expectativa que algunos dan por segura de que el declive de los combustibles fósiles provocará “el fin de la civilización industrial”. Si alguien predice un colapso económico e industrial rápido debería publicarlo en revistas científicas o técnicas donde todos los investigadores puedan revisar sus tesis, y también demostrar por qué las incertidumbres que tiene la transición no son tales incertidumbres y pueden ser sustituidas por afirmaciones como “casi ciertamente, ocurrirá esto”. Mientras tanto, aceptar como seguro algo tan incierto nos aísla de gente que percibe intuitivamente las incertidumbres asociadas al tema; y también de gente que no está dispuesta a luchar por un futuro pre-industrial, como comentaba lúcidamente Emilio Santiago Muiño (2019), pues hay servicios básicos para la calidad de vida que podrían ser proporcionados fácilmente por una futura industria renovable.

Muchos colapsistas presuponen, sin decirlo, que como la sociedad industrial ha sido construida en el marco de valores como el progreso, el crecimiento y la acumulación de capital, el rechazo de estos valores implica el rechazo de la sociedad industrial. Pero muchos creemos que es posible mantener una industria sofisticada y útil para la mayoría, basada esencialmente en electricidad renovable, sin mantener los valores citados.

Dada la controversia vigente, sería pues más coherente y positivo limitarse a mensajes de este tipo: “el cénit de los combustibles fósiles no se puede posponer eternamente; es probable que tenga lugar en pocas décadas, y provocará una importante crisis energética si para esa fecha no se han instalado fuentes renovables suficientes para compensar el declive, y no se ha reducido la demanda energética”.

Si el sistema consigue superar el cénit de los combustibles fósiles con una inversión masiva en capitalismo verde, es factible que el estancamiento económico que algunos colapsistas predecían para el pico del petróleo (o para el cénit de los combustibles fósiles) pueda retrasarse hasta la aparición de crisis ecológicas y climáticas graves o hasta que los principales metales industriales muestren rigidez en su oferta. Ese escenario podría ocurrir entre 2030 y 2050 (con el cénit de la extracción de fósforo), pero también podría retrasarse hasta las últimas décadas de este siglo sin que el capitalismo se encontrara con problemas irresolubles (si dentro del “capitalismo verde” se apostara crecientemente por la agricultura orgánica, por ejemplo). Dadas las grandes incertidumbres, un mensaje positivo y que se pueda sostener debería ser necesariamente genérico, del tipo: “Deberíamos aprovechar el fin de la era fósil para construir una forma de vivir sostenible, ecológica y de calidad, para todos; Las energías renovables y la disminución del consumo de recursos son la única solución a largo plazo al cénit de los combustibles fósiles y a la degradación ecológica; La energía renovable tiene un enorme potencial para democratizar el acceso a la energía y aumentar así la prosperidad y la autonomía de las capas más desfavorecidas; Los gobiernos deben apostar por las renovables,  por el decrecimiento del consumo, y por las cooperativas energéticas renovables; Los grandes sistemas de generación renovables y las redes eléctricas deben ser controladas públicamente y debe ser de propiedad nacional o municipal; El crecimiento debe estar supeditado a la sostenibilidad y al bien vivir”. En línea con estos mensajes, me parece importante establecer alianzas estratégicas no sólo con grupos que practican en la práctica el decrecimiento, sino también con cooperativas energéticas y de todo tipo, y con asociaciones que luchan en favor de la democracia energética, como la Fundación Rosa Luxemburg (Mueller 2017) y otras (Sweeney 2014).

El estado y el capitalismo van a colapsar debido al cénit de los combustibles fósiles

Yo no creo que el capitalismo se vaya a derrumbar necesariamente debido a problemas irresolubles con la producción energética, pues esos problemas parecen técnicamente resolubles. En cambio, no se puede decir lo mismo de la destrucción que está provocando sobre los ecosistemas, la diversidad, los suelos, el clima y las sociedades, problemas globales para los cuales no hay soluciones claras en la literatura científica que parezcan compatibles con la dinámica del crecimiento exponencial. Por ello, creo que el riesgo de colapso por la compulsión a depredar (la biosfera y la sociedad) que tiene el capitalismo es un problema muy superior al que tendrá el reto de la sustitución a renovables. Pero, de nuevo, predecir los tiempos concretos en que la fertilidad de los suelos, el suministro de agua, las abejas, o las cosechas, van a colapsar es muy aventurado; y la posibilidad de que se tomen medidas (o no) para evitar algunas de estas crisis, es algo completamente incierto.

Es posible que las futuras crisis ecológicas se superpongan con el cénit de los combustibles fósiles. Si es así, es de esperar una relentización del crecimiento que puede llevar a un aumento de la desafección social con el sistema y a crecientes movilizaciones en todo el mundo. Sin embargo, no hay ningún determinismo energético en el que podamos confiar para ahorrarnos el trabajo de acabar con un sistema capitalista inviable, pero que probablemente no se desactivará por sí mismo.

Las renovables no son escalables a escala global porque utilizan materiales escasos

Algunos paneles fotovoltaicos (FV) utilizan metales escasos como el indio, el arsénico, o la plata. Pero el 90% del mercado FV está dominado por paneles de silicio que no usan ningún material escaso salvo en sus metalizaciones, que en algunos casos son de plata, en otros de aluminio, y en otros de cobre y níquel. Dado que la plata no es imprescindible en las metalizaciones, si nos limitamos a usar paneles de ese tipo, no parece que la FV vaya a estar limitada por ningún material escaso.

Algo similar ocurre con la generación eólica. Los molinos que usan imanes permanentes con neodimio son hoy en día el 20% del mercado, con el 80% usando electroimanes en lugar de imanes permanentes. Un molino con electroimanes produce energía igual que uno con imanes de neodimio, sólo que es algo más voluminoso y tiene una caja de engranajes para aumentar la velocidad de rotación que llega al electroimán, eso es todo. Así que cuando el neodimio empiece a encarecerse, la industria tendrá que usar auto-inducción en lugar de imanes, y debería ser obligada a hacerlo por ley antes de que ello ocurra.

El mensaje correcto que en mi opinión habría que propagar es: “las tecnologías renovables más deseables desde el punto de vista de la sostenibilidad son las de baja tecnología, no las de alta tecnología”.

La TRE de las renovables es insuficiente para sostener una sociedad industrial

Se suele perder mucho tiempo también en las discusiones de nuestros grupos de opinión discutiendo sobre la tasa de retorno energético (TRE) de las renovables y sus valores, en comparación con los de los combustibles fósiles. Hall et al. (2014), estiman las TRE de la eólica y de la FV en alrededor de 20 y 9, respectivamente.  Raugei et al. (2017) dan un valor parecido para la TRE de la FV: 9-10 con los contornos convencionales que recomienda la IEA para su cálculo, y 8-9 con contornos extendidos. Koopelaar (2016) hace un meta-análisis de muchas publicaciones sobre el TRE de la FV, y da una media de 8.6 para la de silicio monocristalino (que es un 90% del mercado) y unos 9.3 para la de silicio poli-cristalino, aunque incluye los salarios de los obreros de todos los procesos. Si se sacara el coste de la mano de obra, que es algo defendible, pues dar de comer a la gente es parte de la energía disponible para la sociedad, subiría probablemente al entorno de 10, aunque habría que hacer el cálculo con detalle.

Es cierto que ahora mismo no tiene sentido hablar de renovables ni de su TRE sin un 90% de fuentes fósiles presentes (el 10% de la energía primaria mundial procede de biomasa residual, biocombustibles, hidroelectricidad y nuevas renovables); pero si se dejara de usar o se prohibiera el uso de fósiles, y se aumentara la producción de electricidad renovable, la industria, por necesidad y porque tecnológicamente se sabe hacer, tendría que dejar de producir alta y media temperatura con gas, y pasaría a utilizar exclusivamente electricidad, hornos de arco, etc.; dejaría de reducir los metales con carbón y usaría hidrógeno (que es un reductor más eficiente, por cierto); habría un aumento del transporte con medios eléctricos (y pueden ser trenes, no necesariamente coches privados) en sustitución de los vehículos de gasolina y gasoil; y la gente que quisiera calefacción tendría que recurrir a bombas de calor de aire, de agua, o geotérmicas.

Es una “pescadilla que se muerde la cola”: cuando el 80% de la producción energética sea electricidad, la fabricación de cualquier cosa dependerá en un 80% de la producción renovable; ahora es a la inversa. La transición a una economía renovable será un problema irresoluble si se hace de cualquier manera, por ejemplo, usando baterías de litio masivamente para coches privados y para regulación de la intermitencia, pero no es irresoluble si se usan renovables basadas en materiales abundantes (baterías de flujo; limitación por ley de las baterías de níquel y de litio; fotovoltaica vulgar de silicio sin metalizaciones de plata; molinos y motores eléctricos con electroimanes, no con imanes permanentes, aunque pesen un 30% más, etc.) y sistemas de respaldo diversificados (gravitatorios, sales fundidas, hidroeléctricas reversibles, electricidad-a-gas, y baterías sin litio). Estamos presuponiendo con demasiada frecuencia en nuestros grupos que la transición a renovable es imposible, así en general, cuando si se lee toda la discusión científica actual sobre el tema, la conclusión a la que se llega es que hay maneras de hacer la transición que son imposibles, otras que son muy arriesgadas de intentar, y otras que parecen factibles, pero requieren cambiar infraestructuras de producción, interconexión, hábitos de consumo, y hábitos de transporte.

Un reciente artículo de Raugei (2019) muestra que la TRE del petróleo en los puntos de uso de la economía (no en los puntos de producción, que es donde se suele cuantificar) nunca ha sido muy superior a 10, debido a la necesidad de refinarlo y transportarlo antes de consumirlo, y en la actualidad está entre 6 y 10. Un valor que es probablemente parecido al que tendría un sistema 100% renovable y electrificado con back-up de la intermitencia. Por tanto, se debería poder hacer actividades económicas similares con ambos sistemas, siempre que no insistamos en la economía de crecimiento exponencial indefinido. El tema del crecimiento y su fin no suele ser mencionado en la mayoría de los artículos que hablan de la transición renovable, quizás para evitar una reacción institucional contraria a la propuesta. Sólo unos pocos autores (entre los que me incluyo) mencionan el tema, pero en la mayoría de los estudios parece claro (aunque implícito) que un sistema 100% renovable se está pensando como complemento de un sistema de “economía circular” que recicle los metales y materiales que utiliza, dado el tamaño finito de las reservas planetarias de materiales. Un sistema de tal tipo no casa nada bien con el crecimiento exponencial indefinido, y esto es algo que creo está implícito en la mayoría de tales propuestas.

Las renovables nunca proporcionarán ni el 30% de la energía que proporcionan los combustibles fósiles

Esta afirmación se formula a veces como: “La termodinámica dice que las renovables sólo podrán proporcionar un tercio de la energía que actualmente nos proporcionan los fósiles”. Recordemos que la termodinámica no afirma nada sobre los potenciales renovables ni sobre su demanda de materiales escasos.

De Castro et al. (2013) da los valores más pesimistas de potencial solar de la literatura, 2-4 TWa/a. Sin embargo, la mayoría de los autores dan potenciales solares de cientos de TWa/a. Deng (2015) da también 126 TWa/a como disponibles, pero sólo 17 TWa/a si se eliminan los suelos que tienen pendientes altas, son de difícil acceso, están protegidos o tienen otros usos. Esta aproximación parece bastante realista como escenario a corto plazo y el estudio es exhaustivo. En una publicación propia (García-Olivares 2016) calculé que el uso de un 5-10% de todos los desiertos mundiales para centrales solares (FV y termosolar) permitiría obtener unos 5-10 TWa/a de electricidad. Si nos quedamos en posibles transiciones renovables a escala nacional, un potencial solar tan bajo como 2-4 TWa/a es verosímil, pues una gran parte del suelo en muchos países está ya siendo utilizado por la agricultura. Pero si permitimos la interconexión eléctrica y colaboración entre países, a escala europea o continental, los potenciales solares más verosímiles pueden estar alrededor de 17 TWa/a o algo más.

De Castro et al. 2011) dan también la estimación más pesimista de la literatura para el potencial eólico global: 1 TWa/a.  Miller (2011) estima unos 68 TWa/a; Hossain (2014) estima 95 TWa/a; Eurek et al. (2017) estima 100 TWa/a;  Deng (2015) estima 27 TWa/a como disponibles, pero sólo 7 TWa/a si se eliminan regiones poco accesibles, de baja calidad de viento o protegidas. Una publicación propia (García-Olivares, 2016) estimaba 9-18 TWa/a para dos escenarios de baja y media ocupación de continentes y plataformas continentales, respectivamente.

Una estimación del potencial solar mundial de unos 17 TWa/a o algo mayor y para el potencial eólico de unos 7-9 TWa/a o algo mayor, las podríamos considerar como probables, en el sentido de centradas dentro del amplio rango de estimaciones, pero la controversia sigue abierta. La suma de estas cantidades es superior a la energía demandada actualmente por la economía mundial (12.7 TWa/a de energía final en 2016, según IEA 2016), así que el estado de la discusión científica sobre los potenciales no permite ser ni demasiado taxativos ni demasiado pesimistas sobre el posible suministro renovable futuro.

Según Bogdanov et al. (2018), una economía 100% renovable de servicios similares a los actuales es posible en Europa y en el mundo, pero requiere una interconexión eléctrica de escala continental, que permita compensar la intermitencia de las renovables locales con ayuda de una cantidad de respaldo del orden del 20% del consumo energético. La interconexión permitiría, además, que la mayoría de las centrales eólicas se construyeran en zonas de vientos intensos, como los “westerlies” o vientos permanentes del oeste. En el caso europeo, serían las zonas costeras y plataformas continentales de latitudes entre Calais y Noruega, o sea todo el Mar del Norte, un mar superficial muy extenso pero de sólo unos 200 m de profundidad, que es especialmente adecuado para instalar eólica marina “flotante” (anclada al fondo) masivamente. De ese modo, no se usarían lugares mediocres en cada país, sino sólo los mejores lugares de cada país y un 5-10% del Mar del Norte. La idea es similar para la fotovoltaica y termosolar, no instalarlas masivamente (a escala de parques) en los países del norte sino en los del sur de Europa, siempre con interconexión, así se aprovechan las zonas áridas y soleadas del sur de Europa (tipo Los Monegros, La Mancha, Desiertos de Almería y Granada, Accona en Italia, etc.), que no interfieren con la agricultura, e incluso se pueden llegar a acuerdos de compra de electricidad con los países del Magreb. Intentar una transición renovable a nivel nacional sería muchísimo más difícil según distintos estudios y, para este escenario, sí sería probablemente cierto el enunciado de este apartado. El modelo eléctrico utilizado por el grupo de Bogdanov (dirigido por Christian Breyer) es un modelo de regulación de la frecuencia a escala horaria, esto es, utiliza más de dos millones de datos de entrada para representar la intermitencia real, hora a hora, que tendría la producción renovable en todos los países de Europa para las 8760 horas del año, y regula hora a hora los desbalances entre demanda y producción eléctrica con la interconexión y varios sistemas de respaldo. En este sentido, es un modelo muy cercano a los que utilizan los operadores de la red eléctrica de cada país, y es mucho más realista que todos los argumentos semi-cualitativos que se suelen utilizar para discutir la intermitencia renovable en los foros de Internet.

El despliegue de un sistema global interconectado podría verse limitado a una producción renovable de unos 12 TWa/a según nuestra publicación (García-Olivares et al. 2012). Esta afirmación yo la consideraba probable en el momento de su publicación. Hoy mi información es mayor y considero que si se probaran motores y generadores de alta potencia de aluminio que fueran eficaces, las reservas de cobre dejarían de ser un cuello de botella, pues el aluminio es mucho más abundante que el cobre. Esta clase de motores funcionan ya para potencias bajas y medias. De modo que sigo pensando que una economía basada en esa producción es un techo plausible para un futuro 100% renovable, pero no me atrevo a afirmarlo con seguridad.

La instalación de toda la infraestructura que requeriría un sistema 100% renovable viable sería una fuente de beneficios, sin duda, para las eléctricas, las constructoras y el capitalismo verde. Deberíamos movilizarnos para presionar a los gobiernos a que favorezcan la construcción de molinos y campos solares municipales en régimen de cooperativa, para evitar el control exclusivo de este sector estratégico por los grandes monopolios (en Dinamarca, por ejemplo, un porcentaje muy alto, creo que casi del 50% de la eólica instalada hace unos años era de cooperativas). Pero siempre he pensado que oponerse a los planes masivos de interconexión es un error estratégico; el negocio BAU del capitalismo verde puede ser un buen “compañero de viaje” político en la transición fuera del capitalismo, pues si consiguiéramos en algún momento futuro desactivar el capitalismo (y crisis económicas las habrá en el futuro para movilizarse en esta línea), lo único que habría que hacer con toda la infraestructura renovable masiva y sus interconexiones sería nacionalizarla (o municipalizarla) en su totalidad. De este modo, se convertiría en un instrumento enormemente potente complementario de la generación distribuida de las cooperativas en un futuro post-capitalista.

Una flota de coches eléctricos del tamaño de la actual nunca será posible

Una afirmación como esta es plausible. Los coches eléctricos tienen precios el doble de caros que los convencionales; más de la mitad de sus baterías usan litio, un material escaso, y el poder adquisitivo de la población es probable que descienda en las próximas décadas.

Sin embargo, las incertidumbres de la evolución del parque de coches son muy grandes, y no merece la pena que nos juguemos una vez más la credibilidad haciendo predicciones demasiado tajantes. Bloomberg, por ejemplo, predice que en 8 años los coches eléctricos tendrán un precio similar a los convencionales. No sabemos si las baterías, el coste principal de un coche eléctrico, siempre serán caras. Los precios de las baterías han bajado un 14-17% por cada duplicación de su número en las últimas décadas y podrían seguir haciéndolo. Además, hay varias tecnologías de batería actualmente en desarrollo que no usan materiales escasos y que podrían convertirse en unos 15 o 20 años en baterías comercializables para vehículos (baterías de flujo, de zinc-aire, de aluminio-aire, y otras).

Aunque no sería deseable un parque de coches eléctricos tan grande como el actual parque móvil, podríamos acabar teniéndolo. Las baterías más utilizadas actualmente son las de litio (Li) y las Zebra con níquel (Ni). Si el actual parque de coches se acabara sustituyendo con coches eléctricos la mitad de ellos con baterías de Li y la mitad con baterías de Ni, se tendrían que utilizar el 33% y el 48%, respectivamente, de las actuales reservas de Li and Ni (García-Olivares et al. 2018). Esto sería arriesgado y encarecería mucho el precio de esos metales, pero no es algo imposible a priori, sólo indeseable para un futuro transporte de calidad.

La afirmación que encabeza este apartado puede ser tan probablemente cierta como falsa y es muy imprudente cargar las tintas sobre ella. Más prudente sería afirmar que: “la necesaria reestructuración del transporte debería apostar por un transporte de calidad, principalmente público, basado en trenes, y complementado en las ciudades por autobuses eléctricos, bicicletas eléctricas, y un número limitado de vehículos eléctricos compartidos”.

Referencias

Bogdanov D., Aghahosseini A., Gulagi A., Oyewo A.S., Child M., Caldera U., Sadovskaia K., Farfan J., Barbosa LSNS., Fasihi M., Khalili S., Fell H.-J., Breyer C. Global Energy System based on 100% Renewable Energy – Energy Transition in Europe Across Power, Heat, Transport and Desalination Sectors. Study by LUT University and Energy Watch Group, Lappeenranta, Berlin, December 2018.

Campbell J. 2018 [1949]. El héroe de las mil caras: psicoanálisis del mito. Fondo de Cultura Económica.

De Castro C., Mediavilla M., Miguel L. J., Frechoso F. 2011. Global Wind Power Potential, physical and technological limits. Energy Policy 39(10), 6677-6682.

De Castro C., Mediavilla M., Miguel L. J., Frechoso F. 2013. Global solar electric potential: A review of their technical and sustainable limits. Renewable and Sustainable Energy Reviews 28, 824-835.

Eurek, K., Sullivan P., Gleason M., Hettinger D., Heimiller D., Lopez A. 2017. An Improved Global Wind Resource Estimate for Integrated Assessment Models. NREL/JA-6A20-65323

Fernandez-Savater A. 2019. Ausentarse: la crisis de la atención en las sociedades contemporáneas. El Diario.es del 12-04-2019.  https://www.eldiario.es/interferencias/crisis_de_atencion_6_887921222.html

Funtowicz S., Ravetz J., 2000. La ciencia posnormal. Ed. Icaria, Barcelona.

García-Olivares A., 2015. Substitutability of Electricity and Renewable Materials for Fossil Fuels in a Post-Carbon Economy. Energies 8, 13308–13343; doi:10.3390/en81212371

García-Olivares A. 2016. Energy for a sustainable post-carbon society. Scientia Marina 80S1, 257-268

García-Olivares A., Ballabrera J., García-Ladona E., Turiel A. 2012. A global renewable mix with proven technologies and common materials. Energy Policy 41: 561-574. http://dx.doi.org/10.1016/j.enpol.2011.11.018

García-Olivares A., Solé J. 2015. End of growth and the structural instability of capitalism—From capitalism to a Symbiotic Economy. Futures 68, 31-43.

García-Olivares A., Solé J., Osychenko O., 2018. Transportation in a 100% renewable energy system. Energy Conversion and Management 158, 266-285.

Hall et al. 2014, EROI of different fuels and the implications for society, Energy Policy 64, 141–152

Hossain J. 2014. World Wind Resource Assessment Report. World Wind Energy Association.

IEA 2016. Sankey Diagram. https://www.iea.org/Sankey/#?c=World&s=Balance  https://www.iea.org/Sankey/#?c=World&s=Final%20consumption

Koppelaar R.H.E.M. 2016. Solar-PV energy payback and net energy: Meta-assessment of study quality, reproducibility, and results harmonization, Renewable and sustainable Energy Reviews. https://dx.doi.org/10.1016/j.rser.2016.10.077

Mastrandrea, M.D., C.B. Field, T.F. Stocker, O. Edenhofer, K.L. Ebi, D.J. Frame, H. Held, E. Kriegler, K.J. Mach, P.R. Matschoss, G.-K. Plattner, G.W. Yohe, and F.W. Zwiers, 2010: Guidance Note for Lead Authors of the IPCC Fifth Assessment Report on Consistent Treatment of Uncertainties. Intergovernmental Panel on Climate Change (IPCC). Available at <http://www.ipcc.ch&gt;.

Miller L. M., Gans, F., Kleidon A., 2011. Estimating maximum global land surface wind power extractability and associated climatic consequences. Earth Syst. Dynam., 2, 1–12

Mueller T. 2017. Diversity is Strength-The German Energiewende as a Resilient Alternative. The New Economics Foundation.

Raugei M. et al., 2017. Energy Return on Energy Invested (ERoEI) for photovoltaic solar systems in regions of moderate insolation: A comprehensive response. Energy Policy 102, 377-384

Raugei M., 2019. Net energy analysis must not compare apples and oranges. Nature Energy 4, 86-88.

Santiago Muiño E., 2019.  Futuro pospuesto: notas sobre el problema de los plazos en la divulgación del Peak Oil. Revista 15-15-15 Para una nueva civilización.

Sweeney, S., 2014. Hacia una democracia energética, en Worldwatch Institute (Ed.), La situación del mundo 2014. Gobernar para la sostenibilidad (pp. 319-336), FUHEM Ecosocial – Icaria, Barcelona.

Historia del clima terrestre

 

Se cree que el sistema solar se formó hace unos 4600 millones de años, por colapso gravitacional de una nebulosa de hidrógeno, helio y polvo residual de la explosión de antiguas estrellas. La presencia de átomos radioactivos en la Tierra sugiere que el colapso gravitacional debió haber sido provocado por la explosión de una supernova cercana, probablemente a una distancia de 0.02-1.6 parsecs (1 parsec equivale a unos 3.3 años luz) y con una masa de 15-25 masas solares (Portegies-Zwart 2009). Tales estrellas masivas viven de 4 a 10 millones de años y luego estallan como supernovas, esparciendo gran parte de su masa por sus alrededores. La nebulosa originaria debió de tener unas 500-3000 masas solares y un radio de 1-3 parsecs, y una o varias partes de ella debieron sufrir una compresión súbita provocada por la onda de choque de los materiales procedentes de la supernova. Esas regiones de sobredensidad alcanzaron la densidad crítica por encima de la cual la gravitación vence a la velocidad de expansión del gas comprimido, y éste entonces continuó cayendo hacia el centro. En este colapso gravitacional el gas debía de tener cierta velocidad lateral inicial que se fué acelerando por conservación del momento angular, en una rotación cada vez más rápida. La nebulosa fue adoptando la forma de un disco de gas de unos 200 UA (una Unidad Astronómica o UA  es aproximadamente la distancia media entre la Tierra y el Sol) con un centro esférico rojo y caliente. Tras unos 50 millones de años de compresión, el centro esférico alcanzó unos 10 millones de grados, y comenzó la fusión termonuclear del hidrógeno para producir helio. Con el Sol empezando a radiar, el gas de la nebulosa fué empujado hacia el exterior del sistema solar, mientras que el polvo en rotación tendía a agregarse gravitacionalmente en “grumos” de 1-10 km de diámetro, que a su vez se atraían mutuamente formando planetesimales en rotación alrededor del Sol, que crecían unos 15 cm cada año por choques con materiales externos. La teoría de los planetesimales fue propuesta por el geofísico ruso Otto Schmidt en 1944.

clear_disk_loop

Formación del sistema solar. GIF creado por Lynette Cook a partir de información extraída de los metadatos de fotos del IPTC

La región cercana al Sol era demasiado cálida para que los planetesimales pudieran retener materiales líquidos como el agua o el metano, pero los planetesimales que orbitaban más lejos estaban a temperaturas más bajas, y sobre su superficie sólida pudieron retener océanos de metano, de agua e incluso de hidrógeno líquido (actualmente Júpiter, Saturno, Urano y Neptuno). Esta teoría de la nebulosa planetaria tiene sin embargo puntos oscuros. Los modelos predicen que Júpiter, Saturno, Urano y Neptuno no deberían tener tanta masa, salvo que en su formación hubiesen estado mucho más cerca del Sol de lo que están ahora.

Integrando hacia atrás la velocidad actual del Sol alrededor de la galaxia, se deduce que el sol ha debido dar unas 7 vueltas alredor del centro de la Vía Láctea desde que se formó, y actualmente se encuentra en posición casi opuesta a donde se formó, detrás del núcleo galáctico. Entre el 1 y el 8% de las estrellas que están actualmente a menos de 100 pc de distancia del Sol deberían ser hermanas de nacimiento de la nebulosa que originó al sistema solar y a otras estrellas. El resto ha debido alejarse mientras giraban alrededor de la galaxia.  Portegies Zwart (2009) opina que el satélite Gaia debería ser capaz de identificar a las hermanas del Sol a partir del análisis de sus características orbitales y de su espectro luminoso.

Poco después de la formación de la Tierra, se formó la Luna, posiblemente como resultado de una fuerte colisión oblicua con un cuerpo del tamaño de Marte, de un 10 % de la masa terrestre. Parte de este objeto se incrustó en la Tierra y parte fue eyectada hacia el espacio. Una parte de ese material eyectado volvió a reunirse gravitatoriamente  y originó el satélite que orbita la Tierra.

colision lunar

La mayoría de los cráteres de la Luna parecen tener una antiguedad de unos  4500 millones de años. Posteriormente, el número de colisiones parece haber disminuido drásticamente. Estas observaciones han reforzado la hipótesis de Schmidt de la acreción colisional o formación de los planetas a partir de planetesimales. Debido a la mayor radioactividad y a las frecuentes colisiones, la Tierra debió estar fundida al principio (hace 4500 millones de años). La disminución del número de objetos “sueltos” por el sistema solar hizo disminuir el número de colisiones, lo cual permitió el enfriamiento de la Tierra y la solidificación de su corteza, aunque ésta debió sufrir una enorme actividad volcánica.

Según el geofísico Claude J. Allègre hace 4.440-4.410 millones de años el impacto de los planetesimales y los meteoritos había provocado la fusión del hierro terrestre y su descenso al interior hasta formar un proto-núcleo en el centro. Al mismo tiempo los elementos gaseosos, más ligeros, fueron moviéndose hacia arriba y terminaron formando una atmósfera primigenia. El análisis cronológico de algunos isótopos de helio, argón y xenón pertenecientes a minerales del manto terrestre emitidos en las dorsales marinas sugiere que entre el 80 y el 85 por ciento de los gases que componen la atmósfera actual se expulsaron durante el primer millón de años que siguieron a la formación del núcleo terrestre. La atmósfera primigenia (aún sin oxígeno) se originó, pues, alrededor del 4400 millones BP (BP: Before Present, antes del presente), y estaba constituida aparentemente por dióxido de carbono y nitrógeno, y en menor cantidad por metano, amoníaco, dióxido de azufre y ácido clorhídrico.

Esa desgasificación primitiva del interior terrestre liberó también enormes cantidades de vapor de agua, que se condensó en la superficie terrestre constituyendo los océanos, aunque una parte del agua ha debido proceder del hielo de los cometas y meteoritos colisionantes. La presencia de cristales de yeso y bacterias fijadoras de nitrógeno encontradas en las rocas más arcaicas sugieren que las temperaturas de la superficie terrestre y de sus océanos debían de estar entonces entre los 30 y los 60º C.

La estratificación de los magmas de distinta densidad a distintas profundidades permitió que aparecieran magmas, enriquecidos paulatinamente en ciertos elementos (sílice, aluminio, sodio, potasio, etc.), cuya cristalización originó las primeras rocas graníticas.

Los primeros fragmentos estables de corteza terrestre debieron situarse sobre zonas de ascenso de magma. Allí, la acumulación de rocas graníticas fue haciendo crecer una  corteza terrestre primigenia. Los magmas graníticos contenían en su composición una serie de elementos químicos en pequeñas concentraciones, entre ellos el circonio. Las rocas ricas en circonio son especialmente resistentes a la erosión, y permanecen estables durante miles de millones de años. El descubrimiento de rocas con circonio (“circones”) de 4.100 -4.300 millones de años en Australia permite pensar que la corteza primigenia debió formarse en esas fechas.

La era precámbrica (desde la formación de la Tierra hasta 542 Ma BP) suele dividirse en tres periodos: hádico, arcaico y proterozoico. Debido a las altas temperaturas y frecuentes colisiones (sobre todo en su inicio), la era entre 4.6 y 4 Ga ha recibido el nombre de Hádico (en referencia al infierno de la mitología griega, Hades).

Al hádico siguió el eón Arcaico (4000-2500 millones de años BP). En esa época la corteza terrestre se debió enfriar lo suficiente para que se comenzaran a formar las rocas y las placas continentales, pero la tectónica de la Tierra era probablemente distinta a la actual. Hay rocas muy metamorfoseadas y otras que sugieren la posible formación de proto-continentes que se fusionaron poco después. Algunos geólogos sostienen que el calor que acumulaba el planeta causó que la actividad tectónica fuera más intensa que en la actualidad, lo que dio como resultado un reciclado más activo de los materiales de la corteza, lo que habría evitado la formación de cratones (bloques rígidos) continentes hasta que el manto terrestre se enfrió y se ralentizó su convección. Otros argumentan que el manto litosférico subcontinental era demasiado ligero para sufrir una subducción y la escasez de rocas del eón Arcaico es una consecuencia de la erosión y de los acontecimientos tectónicos derivados.

hadico

Posible paisaje del periodo hádico

El registro geológico del Proterozoico (2500-542 millones BP) presenta ya numerosos estratos depositados en extensos mares de poca profundidad aparentemente situados sobre plataformas continentales. Muchas de las rocas están menos metamorfoseadas que las de la era Arcaica. Parece haber tenido lugar un rápido crecimiento continental, “ciclos supercontinentales” de unos 500 millones de años en que todas las masas de corteza se unían para luego separarse, y una actividad orogénica similar a la actual.​ Hace unos 750 millones de años comenzó a desgajarse el supercontinente más antiguo que se conoce, Rodinia. Después se recombinaron los continentes para formar Pannotia, hace entre 600 – 540 millones de años.

La tectónica de placas

En 1915, el meteorólogo alemán Alfred Wegener publicó El origen de los océanos y continentes, un libro en el que afirmaba que el saliente de Brasil y la depresión de la parte sudoeste de África encajan perfectamente, como piezas de un puzzle. Además, decía, los únicos lugares del mundo donde se habían encontrado fósiles (de 270 millones de años) del mesosaurio eran el este de Sudamérica y el oeste de África. Ello sugería que los dos continentes habían estado unidos en el pasado y después de habían separado.  Los continentes actuales formaban según Wegener un único supercontinente, al que denominó Pangea.

Deriva Wegener

Figura. La deriva de los continentes según Wegener.

Wegener no sabía qué fuerzas podían haber movido esas enormes masas de roca, pero la existencia de fuerzas enormes en el interior terrestre no había pasado desapercibida. El propio Darwin, en su diario a bordo del Beagle sospecha la existencia de fuerzas extrañas bajo el suelo en un famoso comentario en la víspera del gran terremoto de 1835 que arrasó la isla de Chiloé (Chile):

Echamos anclas en la bahía de San Carlos, en la isla de Chiloé. Durante la noche del 19 se pone en erupción el volcán de Osorno (…) a las tres de la mañana observamos el más soberbio espectáculo (…) objetos negros proyectados al aire sin cesar y que caen después. La luz es tan intensa que ilumina el mar (…) Mucho me sorprendió saber más tarde que en Chile, el Aconcagua, situado 480 millas (772 km) más al norte, había entrado en erupción la misma noche, y más aún me admiró saber que la gran erupción del Conseguina (2.700 millas, 4.344 km al norte del Aconcagua) acompañada de temblor de tierra que se hizo sentir en 1.000 millas, había tenido lugar seis horas después (…) Difícil es aventurarse ni siquiera a conjeturar si esa coincidencia es accidental o si hay que ver en ella la prueba de una comunicación subterránea (…) Los tres volcanes forman parte de la misma cadena de montañas y las extensas llanuras que limitan la costa oriental y las conchas recientes, levantadas en una longitud de más de 2.000 millas (3.220 km) en la costa occidental, demuestran a igualdad con que han obrado las fuerzas elevadoras.

En 1929, el geólogo inglés Arthur Holmes sugirió que el flujo convectivo de la roca calentada del manto situado bajo la corteza podría proporcionar la fuerza motriz necesaria: el material rocoso que se encuentra en las profundidades del manto se calentaría, se volvería menos denso y subiría a la superficie, donde arrastraría a la corteza oceánica y a los continentes, hasta enfriarse y hundirse de nuevo.

El descubrimiento de la gran dorsal submarina del centro del Atlántico, 15.000 kilómetros entre Groenlandia y el sur de África, dió nuevo apoyo a esa teoría. Los alrededores del sistema dorsal estaban prácticamente libres de sedimentos, en contraste con la gruesa capa de sedimentos (de hasta varios kilómetros) que cubre las planicies de los márgenes continentales. Las muestras recogidas del fondo de la fisura central de esa doble cordillera revelaron que el fondo del océano estaba compuesto por roca volcánica oscura y sumamente joven.

Earth_seafloor_crust_age_1996

Edad del fondo oceánico. En rojo el más joven, junto a las dorsales, por ejemplo en la centroatlántica. En azul el más antiguo, por ejemplo, junto a las costas norteafricana y norteamericana. NOAA.

Posteriormente, se descubrió que la polaridad magnética de algunos minerales que habían cristalizado dentro d ese suelo joven, se alineaban con la orientación de los polos terrestres, y lo hacían idénticamente a un lado y otro de la dorsal. Todo parecía indicar que el magma brotaba por el valle central (el rift) de la dorsal, formaba la doble cordillera a un lado y otro, y arrastraba el fondo marino, que se desplazaba a ambos lados mientras el nuevo magma se solidificaba.

En las regiones oceánicas donde el fondo es más antiguo (en azul en la figura) se detectan, además, grandes fosas submarinas y en muchos casos (Perú-Chile o Pacífico frente a Norteamérica), grandes cordilleras paralelas a la costa, como si la corteza del fondo oceánico presionara contra el continente y se curvara (hasta los 60º frente a Chile), deslizandose bajo el mismo. La tectónica de placas actual llama a esas regiones zonas de subducción. La alta sismicidad de esas regiones se explicaría por la presión del fondo oceánico contra el continente (que pliega los estratos creando cordilleras costeras) a la que vez que desliza bajo y él y funde las rocas en toda la superficie de contacto. Esa roca fundida emerge hacia la superficie por las grietas producidas por la sismicidad, creando volcanes continentales frente a la costa. El propio movimiento de esas cintas transportadoras que van desde la dorsal centrooceánica hasta las costas, es el que arrastra los sedimentos del fondo y los acumula contra la costa.

Tectonica de Placa

El fragmento relativamente rígido de litosfera situado entre una dorsal centrooceánica y una subducción (y que desliza sobre la astenosfera o capa plástica que está debajo) se denomina placa tectónica. Como muestra la figura anterior, la expansión del suelo atlántico parece estar empujando al continente americano (a la izquierda de la figura) hacia occidente, mientras que la expansión del suelo pacífico en dirección contraria, algo más lenta, empuja al continente americano hacia oriente a la vez que subduce bajo el mismo. El efecto neto de ambas fuerzas es que el continente tiende a moverse actualmente hacia occidente, abriendo aún más el Atlántico a costa del Pacífico. El balance actual de fuerzas y movimientos de los fondos marinos tiende a mover a los continentes tal como muestra la figura siguiente. Obsérvese el probable cierre completo del antiguo Mar de Thetis (hoy Mediterráneo), el choque de Australia con Asia, y la apertura del Ártico a la entrada de corrientes cálidas del Atlántico, en los próximos 50 millones de años.

Movimiento continentes

La ciencia geológica actual piensa que la Tierra tiene un núcleo interno sólido donde se han acumulado por gravedad los materiales más densos, con alto contenido en hierro, níquel y átomos radiactivos. La desintegración de esos átomos mantiene muy caliente al núcleo y funde a los materiales, más ligeros, que lo rodean, que forman un núcleo externo de hierro y níquel líquidos (entre los 2.885 y los 5.155 km de profundidad) donde se producen corrientes de convección. Estas corrientes de metales conductores se combinan con el movimiento de rotación de la Tierra para crear una dinamo que mantiene el campo magnético terrestre.

Nucleo terrestre

Desde los años 30 del siglo XX se ha pensado que existirían posibles corrientes de convección entre ese núcleo externo hasta la corteza terrestre, sólida. Sin embargo, encima de ese núcleo externo y hasta la base de la corteza terrestre la capa existente no parece ser líquida, sino plástica, según la tomografía sísmica, y no son posibles corrientes de convección en un material plástico.

¿Qué causa entonces el movimiento del suelo marino y el cambio de forma de las placas tectónicas de la corteza terrestre? En los últimos años, ha aparecido una teoría que afirma que la parte de la placa que ha subducido sigue bajando hasta el manto profundo, tirando con su peso del resto de la placa (emergida). En contacto con el núcleo exterior, esta placa sumergida se funde y crea penachos de material fundido que ascienden en otro lugar geográfico, hasta encontrarse con la litosfera, que se calienta en su base, apareciendo allí “puntos calientes”. Estos puntos pueden generar volcanes. Las dorsales centrooceánicas, en esta teoría, se formarían al fracturarse la litosfera por el tirón de la placa sumergida, no serían los impulsores del movimiento. La teoría es verosímil salvo en que la gravedad, en un sistema estratificado, nunca puede causar un movimiento vertical persistente a largo plazo; la elevación de magma caliente hacia las dorsales centrooceánicas, o bien hacia los puntos calientes, o hacia ambos, deberían seguir siendo, más probablemente, el motor energético del movimiento tectónico.

Estructura capas terrestres

Sea como fuere, las zonas volcánicas cercanas a las subducciones y en las dorsales centrooceánicas son fuentes activas de CO2, que van directamente e indirectamente a la atmósfera, respectivamente. En Venus, este gas se ha ido acumulando en la atmósfera hasta hacer de este planeta un auténtico infierno para cualquier forma de vida. Esto se debe al efecto invernadero que provoca el CO2.

El efecto invernadero y su regulación en la Tierra

El efecto invernadero es un sobrecalentamiento de la superficie terrestre producido por la presencia de gases que interceptan la radiación infrarroja emitida por la superficie de nuestro planeta en su camino hacia el espacio, y la reemite en todas direcciones, con lo cual una parte de esa radiación infrarroja vuelve a la superficie. Los gases absorben luz sólo a las frecuencias específicas que necesitan para pasar de un estado de vibración (o rotación) menos energético a otro estado más energético.

El vapor de agua es el principal gas invernadero de nuestra atmósfera, pues la rotación y vibración de su molécula intercepta la mayor parte de la radiación infrarroja emitida por la superficie (Figura). Pero el CO2 produce efecto invernadero también porque varios modos de vibración de su molécula necesitan absorber ondas infrarrojas de frecuencias de 1.8, 4.5 y 12 micrometros, y esas frecuencias coinciden con ventanas que la rotación y vibración de la molécula de agua deja abiertas, esto es, el vapor de agua no intercepta esas frecuencias infrarrojas.

Efecto Invernadero Moleculas

Como la atmósfera está bastante saturada de vapor de agua, sus aumentos de concentración aumentan el calentamiento de la superficie, pero no tanto como lo que correspondería al aumento de concentración, debido a que las ventanas de absorción que le corresponden están ya casi saturadas (casi toda la radiación procedente de la superficie ha sido interceptada ya, y el que haya aún más vapor cambia poco el panorama). Este no es el caso del CO2, que al estar en concentraciones relativamente bajas en la atmósfera, una duplicación de su concentración induce casi una duplicación de su efecto invernadero.

En cualquier caso, cuando el CO2 aumenta su concentración, provoca una subida de la temperatura media de la superficie. Esa subida térmica aumenta un poco más la evaporación del agua de los océanos y suelos, y el aumento consiguiente de vapor de agua atmosférico aumenta en una cantidad adicional el efecto que le correspondería al CO2 en solitario. Cuando los climatólogos habla del aumento del “efecto invernadero” causado por un aumento de CO2 antropogénico se están refiriendo al efecto combinado (directo e indirecto, a través de la evaporación) de ese aumento de CO2.

La comparación de nuestra atmósfera con la de los dos planetas vecinos nos permite comprobar el efecto que tienen distintas coberturas gaseosas sobre la temperatura de la superficie de un planeta.

 

venus-1

Foto de Venus

En Venus la Constant solar (potencia luminosa que entra por m2 en la alta atmosfera) es de 2637 Wm-2 , y su albedo (fracción que vuelve reflejada hacia el espacio) es de 0.77, debido a su cobertura de nubes de ácido sulfúrico. Esto hace que lleguen realmente 606,5 Wm-2 al suelo. Su densa atmosfera tiene un 96% de CO2 y crea una presión de 89 atm en la superfície. La temperatura en su alta atmosfera es de Te= 227 K (-46ºC), y en superficie Ts= 737 K (464ºC); la diferencia de temperatures es provocada por el efecto invernadero, que se puede ver que es enorme.

Marte, en cambio, tiene una atmosfera muy tenue, de solo  0.007 atm, compuesta de  CO2 al 95%.

Marte-0

Foto de Marte

Su constante solar es de 592 Wm-2  con un albedo de 0.14, por lo que llega al suelo 509,12 Wm-2. Las temperatures sobre y bajo la atmosfera son: Te= 218 K, (-55ºC) y Ts= 220 K (-53ºC), por lo que podemos comprobar que tiene un efecto invernadero muy débil. Una vida como la terrestre probablemente no habría sido capaz de sobrevivir y evolucionar con una temperatura superficial tan baja y tan poca agua.

Tierra-0

La Tierra, en cambio, tiene una constante solar de 1367 Wm-2 y un albedo de 0.30, por lo que llega a la superfície 956,9 Wm-2. Con abundancia de agua y un 0.03% de CO2, su atmosfera tiene un efecto invernadero moderadamente intenso: Te= 255 K (-18ºC), Ts= 288 K (15ºC). Sin atmósfera, la superficie terrestre estaría unos 33 grados más fría, en promedio; y sufriría oscilaciones térmicas fortísimas entre el día y la noche.

La Tierra pasa por eras geológicas de alta actividad tectónica (y por tanto, volcánica) y por periodos de baja actividad. Las épocas de alta actividad tectónica son también épocas de alta emisión de CO2 a la atmósfera, dorsales oceánicas más voluminosas, en consecuencia el océano está más alto, y hay también una deriva más rápida de los continentes.

vulcanismo

Esas épocas suelen coincidir con fuertes aumentos del CO2 atmosférico, como muestra la primera Figura del apartado siguiente. Sin embargo, esa figura muestra también que, a lo largo de la historia de la Tierra, el CO2 no se ha ido acumulando como ha ocurrido en Venus, sino que siempre ha estado en concentraciones moderadas, entre las de las épocas glaciales (33% inferiores a la actual) y las del Ordovícico (unas 17 veces superior a la actual).

¿Qué mecanismo planetario mantiene la concentración de CO2 acotada en esos márgenes? La hipótesis que formuló Lovelock con su hipótesis Gaia fue que la propia biosfera es la que mantiene a ese gas (y a otros) dentro de márgenes tolerables para la vida. Sin embargo, la explicación más aceptada es que el mecanismo principal de esa regulación es la meteorización química de los silicatos del suelo por acción del ácido carbónico, esquematizada en la Figura siguiente.

Meteorizacion escala geologica

Esencialmente, una parte del CO2 presente en la atmósfera se disuelve en las gotas de lluvia; allí, una parte del CO2 disuelto pasa a ácido carbónico disuelto, H2CO3, y éste, cuando las gotas de lluvia tocan las rocas del suelo, reaccionan con los silicatos presentes en éstas y los convierte en carbonatos y bicarbonatos. Las raíces de la vegetación disgregan las rocas silíceas y amplifican la formación de ácido carbónico (con ayuda de sus bacterias asociadas), por lo que ayudan a la meteorización. La reacción agregada sería:

CaSiO3  +   H2O  +  CO2             →        CaCO3  +  SiO2  +  H2O

Roca           Lluvia    Vulcanismo                    Carbonato

Llevados por los ríos hasta el mar, los carbonatos fluviales van sedimentando por el camino, y los bicarbonatos disueltos precipitan en forma de carbonatos sólidos, por acción de los organismos marinos, que crean estructuras óseas y conchas a partir de ellos. Así, la meteorización retira CO2 de la atmósfera y lo deposita, en forma sólida estable, en los fondos marinos. De allí, en plazos muy largos de unos millones de años, estos carbonatos son arrastrados por el movimiento del fondo oceánico hacia las subducciones, y tras fundirse bajo los continentes, regresan a la atmósfera mediante el vulcanismo. El flujo de carbonatos de origen abiótico es unas cuatro veces mayor que el flujo biótico desde el bicarbonato disuelto hacia los fondos marinos (Figura próxima). Esto sugeriría que la meteorización era un mecanismo previo a la aparición de la biosfera, pero que ésta ha acabado contribuyendo con una aportación importante (y reforzante) a una parte de su ciclo; sin embargo, ese efecto reforzante del termostato geológico de una parte de la biota marina es arruinado por la dinámica de la biota terrestre que, como comentaremos en otro post, actúa aumentando la emisión de CO2 cuando el CO2 está alto en la atmósfera, y viceversa.

Zhong-2018-Ciclo C geologico

Ciclo geológico del carbono. Tomado de Zhong et al. (2018).

Hay además una retroalimentación negativa múltiple entre la subida de concentración de CO2 en la atmósfera y la retirada de CO2 de la atmósfera por efecto de la meteorización. Por una parte, la reacción de meteorización aumenta su tasa de actividad cuando la concentración de CO2 (y con ello, la temperatura) es más alta; por otro, en las épocas de mucho CO2 en atmósfera hay más flujo de este gas hacia las gotas de lluvia y mayor formación de ácido carbónico reactante; finalmente, si la temperatura global es más alta, hay mayor tasa de evaporación y por tanto de precipitación, con lo que aumenta la cantidad de ácido carbónico que llega al suelo y lo ataca químicamente.

La retroacción entre temperatura y meteorización controla la concentración atmosférica de CO2 (y con ello la temperatura media de la superficie) no sólo por arriba sino también por abajo, tal como ilustra la figura siguiente, por lo cual constituye un eficaz “termostato” climático en la Tierra.

Feed back meteorizacion

Este mecanismo de regulación parece haber salvado el clima del planeta en varios momentos críticos, y haberlo mantenido apto para la evolución de la vida.

El clima del Precámbrico

Hace 4000 millones de años el sol era una estrella recien nacida, más fría y que brillaba probablemente un 30% menos intensamente que en el presente. Esto debió haber impedido la existencia de agua líquida en superficie, en contra de algunas evidencias geológicas. Esta paradoja fue planteada por Carl Sagan y G. Mullen en los años 70. No hay datos geológicos creíbles del nivel de CO2 en la atmósfera para ese periodo tan arcaico, pero la explicación más creíble es que en esa época la concentración de CO2 en atmósfera debió ser mayor (por el mayor flujo de calor desde el interior terrestre y la mayor actividad tectónica); y la relativamente baja temperatura debió provocar una baja meteorización de ese CO2.

CO2 geologico.png

Otros momentos críticos debieron producirse en el precámbrico tardío (1000 a 560 millones de años BP). En ese periodo hay evidencia de al menos dos (y posiblemente más) glaciaciones anormalmente grandes. La primera (“Sturtian”; ~730 millones BP) pudo haber provocado una auténtica “Tierra bola de hielo” pero han quedado poquísimos datos geológicos como para poder afirmarlo con seguridad. La más reciente (~650 a ~560 millones BP), parece haber provocado efectivamente una “Tierra bola de hielo” con evidencias claras de hielo marino llegando al ecuador.

Clima Escala Geologica

Entre los sedimentos geológicos correspondientes a esta época, se encuentran en efecto sedimentos  que se depositan sólo en glaciares o icebergs; sin embargo, estos sedimentos se observan incluso en regiones que se encontraban entonces en el ecuador.

Otra evidencia son las rocas con bandas de hierro. Tales rocas dejaron de formarse en 1800 Ma BP, porque el alto oxígeno disuelto (que alcanzó probablemente el océano tras la fotosíntesis) lo impidió. Sin embargo, en -700 Ma BP vuelven a formarse, asociados a depósitos glaciares en todos sitios. Como si el océano hubiera permanecido anóxico millones de años, luego se hubiera oxigenado con la fotosíntesis y de repente, se hubiera vuelto anóxico de nuevo.

roca bandas hierro.jpg

Roca con bandas de hierro

¿Cómo pudo enfriarse tanto el planeta pese al termostato de la meteorización? Una explicación plausible es que, en aquella época, los continentes pudieron estar todos entre los dos trópicos. Los dos polos relativamente aislados de corrientes oceánicas tropicales provocan, según los modelos climáticos globales, una alta retroacción positiva del albedo polar sobre el enfriamiento (el casquete de hielo que crece en los polos vuelve más reflectiva la superficie, lo cual disminuye más la temperatura, lo cual aumenta la extensión del casquete de hielo). Los casquetes polares debieron crecer sobre el mar y su crecimiento no inhibía directamente la formación de carbonatos (separando las rocas de la lluvia), porque estos seguían formándose en los continentes sin hielo.

Rodinia

Una vez los casquetes alcanzaron los 30º de latitud, los modelos dicen que el enlentecimiento de la meteorización por la bajada térmica fue incapaz de contrarrestar ya a la retroacción positiva del albedo sobre el enfriamiento. El hielo debió envolver la Tierra hasta el ecuador, mientras el océano se congelaba hasta una profundidad de 1000 m.

El planeta podría no haber salido nunca de ese estado, enormemente estable. Sin embargo, esta glaciación aberrante terminó misteriosamente sólo un poco antes de la “explosión cámbrica” de los seres pluricelulares. ¿Qué mecanismo “salvó” al planeta? La explicación más plausible es la de que los volcanes seguían emitiendo CO2. La bajísima evaporación, impedía que hubiera nubes de lluvia, por lo que sin gotas de lluvia, no se formaba ácido carbónico, ni había posibilidad de meteorización. Por tanto, el CO2 permanecía en la atmósfera. Tras unos 10 millones de años, los modelos nos dicen que el CO2 debería haber subido hasta 1000 veces su concentración atmosférica!

Ante un efecto invernadero tan intenso, las comarcas sin hielo alrededor de las fuentes geotérmicas y de los volcanes continentales sufrirían un calentamiento que fundiría todo los hielos de sus alrededores, según los modelos. Esto provocaría una bajada del albedo regional, aumentaría las temperaturas en tales regiones, abriendo más y más los huecos sin hielo, por la retroalimentación positiva y creciente de la bajada del albedo y el aumento de temperatura.

Cuando una fracción importante de la superficie se vio liberada del hielo, la acción reguladora de la meteorización se habría reiniciado, bajando el nivel de CO2 a sus valores normales. Así pues, una vez más, el termostato de la meteorización pudo haber “salvado” al planeta, volviéndolo favorable a la evolución de los organismos pluricelulares.

¿Dónde pudo sobrevivir la vida unicelular (bacteriana) del Precámbrico? Probablemente, en las fuentes geotérmicas continentales, alrededor de las chimeneas volcánicas oceánicas y, algunas células, en las grietas del hielo flotante. Las especies supervivientes de esa catástrofe, pudieron quizás ser especialmente adaptables como sugiere la explosión de formas vivas que se produjo a continuación tras el fin de esta glaciación extrema.

El Paleozoico (570 – 225 m.a.)

Este periodo comienza con la explosión de vida pluricelular que se observa en los estratos del Cámbrico. La evolución que permitió a las células simples (procariotas) fusionarse para generar células complejas (eucariotas) y a éstas asociarse en forma de colonias celulares para generar organismos pluricelulares de formas diversas es un tema en continua investigación (véanse algunas ideas claves en Resumen del libro “Deconstruyendo a Darwin- Los enigmas de la evolución a la luz de la nueva genética”, de Javier Sampedro).

Oceano cambrico

Representación de un posible Océano cámbrico

Inicialmente, la vida pluricelular fué exclusivamente marina, pero alrededor del 420 m.a. BP (Silúrico) se produce un punto crítico cuando la concentración de oxígeno en la atmósfera, que se venía acumulando gracias a la fotosíntesis, alcanzó el 10% del nivel actual. Por encima de este nivel, se piensa que la atmósfera generó una capa de ozono suficiente como para proteger a los organismos vivos de las radiaciones ultravioletas.

En esta época, las plantas empezaron a colonizar los continentes, seguidas por muchas especies de artrópodos (arácnidos e insectos entre ellos) que respiraban aire. Los vertebrados les siguieron 50 millones de años después, en el Devónico tardío.

Colonizacion de continentes.png

También en esta época, aparecen las plantas vasculares, con tallos rígidos y tejidos de lignina, que les permiten crecer en vertical por encima de otras plantas, buscando la luz solar.

Tiktaalik Roseae.png

Tiktaalik Roseae, un pez de 1.2-2.7 m, con aletas lobuladas, articulaciones en sus extremidades, costillas y cuello, y que parece haber tenido pulmones, pero conservaba aún estructuras branquiales y escamas. Puede haber sido uno de los primeros vertebrados que exploró el medio terrestre cercano al mar.

Tras un episodio glacial que se había producido en el Ordovícico-Silúrico (-450 Ma), las temperaturas se elevaron y mantuvieron cálidas durante el Devónico y casi todo el Carbonífero, hasta hace unos 300 millones de años. La figura siguiente muestra la situación y movimiento tectónico de los continentes del devónico.

Devonico tectonica

Se piensa que había una estrecha franja tropical ecuatorial, amplias zonas áridas subtropicales hasta 35° de latitud (provocadas por la gran extensión de los continentes, que se sobrecalientan y secan en su interior), y zonas templadas que llegaban hasta los polos, debido a la conexión abierta entre las corrientes oceánicas tropicales y los mares polares. El calor, la humedad costera y una atmósfera rica en CO2 facilitaron el desarrollo evolutivo y la colonización de los continentes por parte de la vegetación.

La aparición de la lignina, muy resistente a la degradación y a la oxidación, creó un nuevo material biológico que no podía ser descompuesto por otros seres vivos, dado que los hongos descomponedores aparecieron millones de años más tarde. Esto produjo que el material leñoso muerto quedara enterrado en grandes cantidades y preservado bajo otros sedimentos. Ello provocó a largo plazo un secuestro de CO2 de la atmósfera hacia los sedimentos, y una subida del oxígeno en la atmósfera, que alcanza máximos del 35% en el -300 Ma BP, al final del carbonífero.

Oxigeno en el carbonifero.png

Al principio de este periodo, las temperaturas medias eran cálidas, pero se fueron enfriando hacia el final, debido a la deriva del supercontinente Gondwana (parte sur del Pangea) hacia el polo sur, que hizo crecer una zona glaciada en el sur.

Los niveles de oxígeno tan altos permitieron a los invertebrados y artrópodos crecer hasta tamaños de uno y dos metros. El oxígeno se difunde en el exoesqueleto de los artrópodos hasta el interior. Un ciempiés llamado Arthropleura ostenta el récord de mayor insecto que haya existido, con 2.3 m de largo y 0.5 m de ancho. Sin embargo, tamaños mayores a 2 m no parecen asequibles a los artrópodos debido a que su esqueleto externo debe ser mudado cuando el animal crece, y en esa muda, un artrópodo demasiado pesado podría quedar aplastado por su propio peso. Los cuadrúpedos (en esa época, principalmente anfibios) no estaban expuestos a esa limitación y exploraron tamaños mayores, de hasta 6 metros de largo en esa época y mucho mayores posteriormente (en el Jurásico y Cretácico).

Al final del periodo, los extensos bosques de lluvia tropicales se iban estrechando, rodeados por crecientes zonas áridas y, al final, algunos episodios de enfriamiento y secado súbitos hicieron que colapsaran en muchas regiones. Esto provocó la extinción de muchos animales acostumbrados a la humedad, y entre ellos muchos anfibios; pero seleccionó una novedad evolutiva de largo alcance: los huevos con sacos amnióticos que mantenían una reserva de agua y alimentos para el embrión en desarrollo, y permitía a estos desarrollarse en climas secos. De estos cuadrúpedos evolucionaron los reptiles, pájaros y mamíferos.

El posicionamiento polar de Gondwana aumentó la intensidad de la glaciación, lo que hizo disminuir mucho el nivel del mar durante el Pérmico. Hay evidencias de una caída muy importante de la concentración de oxígeno: del 35 % de comienzos del Pérmico al 15% al final del período (Berner, 1999), quizás provocado por la anormal bajada del nivel del mar, que expuso a la oxidación al 70% de las plataformas continentales, ricas en sedimentos carboníferos. La reducida presión parcial de oxígeno por encima de unos pocos centenares de metros de altitud fue desalojando de allí  lentamente a muchos artrópodos y algunos cuadrúpedos, que se habían acostumbrado a un metabolismo muy consumidor de oxígeno. El comienzo de la extinción masiva que caracteriza el final de este periodo comenzó al parecer ya en esta etapa fría y con poco oxígeno. La escasez de oxígeno dio ventaja a las bacterias metabolizadoras de azufre sobre las aerobias, lo que aumentó las emisiones de sulfídrico y de metano por los océanos.

A mitad del periodo, el choque de China Sur con la placa del Mar de Thetis produjo un accidente geológico anormal, que fue el ascenso masivo de magma a través de depósitos de carbón, que liberó a la atmósfera 170 trillones de toneladas de CO2, 18 trillones de toneladas de ácido clorhídrico y gran cantidad de metano. Finalmente, 5-10 millones de años después, se produjo una segunda crisis tectónica en Siberia, con la emisión de 1-4 millones de m3 de lava basáltica que cubrió una superficie casi igual a la europea, quemando grandes extensiones de bosques. Este segundo pico de gases invernaderos y aumento térmico favoreció entonces la autocombustión de grandes masas de carbón que se habían generado desde el Carbonífero. Esto aún produjo más CO2 y disminuyó aún más la concentración de oxígeno en la atmósfera, que llegó a ser del 16%. Las aguas de los mares se calentaron, liberando los depósitos de metano congelado próximos a la costa, con lo que se incrementó aún más el efecto invernadero. Esto volvió aún más anóxico a los océanos, que vertieron tanta cantidad de sulfuro de hidrógeno que las costas, donde se habían refugiado muchas especies, se volvieron inhabitables. Se extinguieron el 96% de las especies, y hasta la mayoría de los insectos.

La extinción fue tan masiva que las cadenas tróficas de la biosfera típicas del Pérmico tardaron aparentemente unos 30 millones de años en reestablecerse. Sin embargo la biosfera tuvo la resiliencia suficiente para resistirlas, gracias probablemente a su diversidad, que le ha permitido hasta ahora adaptarse incluso a catástrofes que acabaron con la mayoría de las especies pluricelulares.

La era Mesozoica (225 – 65 m.a.)

La era mesozoica o secundaria comienza con el triásico (245 m.a. a 208 m.a.). El nivel de CO2 había vuelto a subir desde el mínimo de final del carbonífero hasta un nivel 4-5 veces superior al actual, debido en parte a la evolución de nuevas especies de hongos y descomponedores, que equilibraron un poco la tasa de respiración (oxidación de la materia orgánica) respecto a la fotosíntesis (producción de materia orgánica a partir de CO2 y otros materiales), y debido también al aumento de la actividad tectónica desde el final del pérmico. Esto provocó un fuerte efecto invernadero.

Las masas continentales se habían agrupado todas en un continente único, Pangea, y un único océano, Panthalasa, rodeaba el planeta. La lejanía de las costas (con su efecto moderador) produjo un clima árido en vastas extensiones del interior de los continentes, con oscilaciones térmicas estacionales muy fuertes.

Cuando pasan varios millones de años sin que los continentes colisionen entre sí, el relieve va erosionándose y las grandes cordilleras pierden su altura. Un relieve tan  erosionado y plano no favorecía la lluvia en el interior, por lo que los modelos sugieren veranos muy cálidos, inviernos muy rigurosos y grandes zonas áridas.

Algunas zonas tropicales de Pangea próximas al mar debieron tener clima monzónico, con lluvias estivales. Pero la ausencia de relieves importantes restaba fuerza al monzón y no facilitaba la formación de nubes. Por eso, en Pangea, las regiones ocupadas por desiertos tropicales fueron más extensas  que los bosques de lluvia.

Pangea en Triasico

Tras 30 millones de años de evolución y re-construcción de ecotopos, las plantas con semillas empezaron a dominar la flora terrestre. Los reptiles se adaptan especialmente bien al clima árido, y aparecen los primeros dinosaurios y los primeros mamíferos.

Triasico

Representación de un paisaje triásico

El final de este periodo (208 m.a.) es testigo de otra extinción masiva. El super-continente Pangea comenzó a fracturarse a lo largo de una línea de ruptura llamada “Central Atlantic Magmatic Province” (CAMP). En esa enorme región geográfica de unos tres millones de Km2 (figura) empezaron a emerger, una vez más, gigantescas coladas de basaltos, que provocaron continuas lluvias ácidas provocadas por las emisiones de SO2, y un probable calentamiento brusco provocado por el aumento del CO2.

extinción Triasico-Jurasico

El final del Mesozoico, conocido como periodo Cretácico, es testigo de la mayor acumulación de energía térmica en atmósfera y océano que haya conocido el planeta, al menos desde que hay evidencia creíble. No hay signo alguno de hielo en los polos, lo que elevó el nivel del mar 170 m  por encima del actual. La concentración de CO2 era todavía unas 2.5 veces mayor que la actual, con niveles de oxígeno no muy inferiores al actual. Esto estimuló el crecimiento exuberante de muchas especies de plantas grandes, que posibilitaron a su vez la existencia de grandes reptiles herbívoros y carnívoros. Esta era es testigo también de la evolución de las primeras aves, lo cual presiona evolutivamente a los insectos a disminuir su tamaño.

Hay evidencias fósiles de grandes migraciones de dinosaurios entre las zonas ‘Templada cálida’ y ‘Templada fría’ cuando las estaciones cambiaban. Hay también evidencias de tortugas, cocodrilos y otros reptiles de sangre fría habitando en el círculo polar, y de palmeras en la península de Kamchatka.

¿Qué causó este escenario climático tan extraordinario?

En primer lugar, la alta actividad tectónica. El supercontinente Pangea estaba en rápida desagregación, y un movimiento más rápido de las placas llevaba asociada a una mayor emisión volcánica de CO2, especialmente en la zona de apertura atlántica entre Groenlandia, Islandia y Noruega, y también en Alaska y en la zona asiática.

Un movimiento de separación en todos los continentes impide la formación de nuevas montañas y mantiene el proceso de erosión que venía aplanando el relieve desde el periodo triásico. Una superficie continental tan plana y baja reduce la emisión de infrarrojos hacia el espacio (hay menor superficie radiante) y ello tiende a mantener alta su temperatura.

Además, hay menor erosión, lo cual enlentece la meteorización y ello mantiene alto los niveles de CO2 atmosférico. Todo ello presionaba hacia temperaturas altas.

En segundo lugar, las corrientes oceánicas tenían el camino libre desde los trópicos hasta el círculo polar a través de un amplio océano Pacífico, por lo que no había hielo en el círculo polar norte, y muy poco o nada en el sur, por la alta temperatura de los océanos y la atmósfera.

Jurasico-Cretacico.jpg

Configuración de los continentes 100 m.a. BP. Obsérvese las grandes zonas inundadas por el mar dentro de los continentes, de 40-50 m de profundidad.Cretacico-continentes.jpg

Probables zonas de formación de aguas profundas (cálidas y salinas), en el Mar de Tetis (en rojo)

En tercer lugar, la alta evaporación de un Mar de Thetis situado en el trópico generó probablemente un océano muy salado que formaba agua que se hundía a pesar de ser cálida. El agua del fondo oceánico tenía, parece ser, una temperatura de 18ºC, no como hoy en día, que tiene 2ºC de media. Cuando este agua afloraba en muchos lugares del planeta, no refrescaba el clima como hoy, sino todo lo contrario.

Las cinco grandes extinciones de la historia de la vida son, a saber: la del Ordovícico-Silúrico (439 millones a BP, 85% de especies), la del Devónico-Carbonífero (367 millones a BP, 82% de especies), la del Pérmico-Triásico (210 millones a BP, 96% de especies), la del Triásico-Jurásico (210 millones a BP, 76% de especies), y la del Cretácico-Terciario (65 millones a BP, 76% de especies). La causa de la primera es completamente incierta, mientras que el resto pudieron ser causadas por emergencia de magma y erupciones volcánicas masivas (acompañadas en algún caso por el impacto de un gran meteorito).

La extinción del Ordovícico-Silúrico es incierta, pero pudo ser provocada por la explosión de una supernova cercana. Si una de estas explosiones sucediera lo suficientemente cerca destruiría la capa de ozono de la atmósfera. Esto nos expondría a la radiación ultravioleta del Sol, que además romperían el oxígeno hasta en las capas bajas de la atmósfera, formando ozono a ras de suelo, gas que, a ese nivel, es tóxico para la vida animal y vegetal. ¿Puede la biosfera adaptarse a cualquier perturbación? Está claro que la biodiversidad es y fue una gran baza, pero no garantiza la supervivencia en cualquier situación geológica. Un ejemplo es la evolución geológica de Venus.

La era cenozoica (65 m.a. al presente)

En los inicios del Cenozoico o Terciario (Paleoceno y principio del Eoceno), entre los 65 y los 48 m.a., el clima fue semejante al del Cretácico. En el óptimo de principios del Eoceno el CO2 aún era alto, de unos 1000 ppm. Los carbonatos sedimentados en el Mar de Thetys, que se está cerrando, eran reciclados hacia los volcanes en las subducciones vecinas, muy próximas, lo cual hacía perder eficacia a la retirada de CO2 atmosférico. Esto mantuvo alta la temperatura atmosférica, pero la temperatura del fondo marino parece haber iniciado ya su enfriamiento desde el Cretácico y es de unos 12ºC. Ello podría deberse al cierre progresivo del Mar de Tetis, que va haciendo disminuir la tasa de formación de aguas profundas salino-cálidas. Tras los 50 m.a., la tendencia al enfriamiento global es  ya permanente hasta la actualidad.

Eoceno

Las causas de esa tendencia al enfriamiento desde el Eoceno parecen estar relacionadas, primero, con la bajada del CO2. El movimiento de las placas tectónicas provoca una serie de colisiones continentales que han ido cerrando el antiguo gran mar de Tetis: la compresión de la sub-placa ibérica contra Francia formando las montañas de los Pirineos, de Italia con Francia y Suiza formando los Alpes, de Grecia y Turquía con los Balcanes formando las montañas Hellenide y Dinaride, de Arabia con Irán para crear las montañas de Zagros, de India con Asia y, finalmente, la colisión más joven, de la placa de Australia con Indonesia. Estos choques van plegando la superficie continental que aumenta así: (i) su capacidad de radiar infrarrojos hacia el espacio, y (ii) la producción de relieves y cantos rodados expuestos a la acción del ácido carbónico de la lluvia. Esto hace disminuir continuamente el CO2 atmosférico. En el Oligoceno (30 m.a.) el CO2 ya está en las 500 p.p.m.

clima Cenozoico

La Antártida, a pesar de haber estado centrada en el Polo Sur desde principios del Cretácico, se había mantenido hasta  entonces libre de hielo, gracias a las corrientes marinas cálidas que le llegaban. Pero los movimientos tectónicos provocaron su separación de Australia y luego del continente suramericano y la apertura del estrecho de Drake. En ese momento, se establecer una corriente marina fría que rodea permanentemente a la Antártida y la aisla de la influencia térmica moderadora de las corrientes marinas medias y tropicales. Esto estimuló la formación de una extensa “banquisa” invernal de “hielo marino” y posteriormente la acumulación de hielo en el continente, pues las nevadas invernales dejaron de derretirse durante los veranos. En ese momento la temperatura de los fondos marinos ya era de sólo 3ºC.

La Antártida y las corrientes marinas

Corrientes marinas hace 35 m.a., un poco antes del aislamiento de la Antártida. Tomado de Uriarte Cantolla (2010).

No hay aún una explicación definitiva sobre la causa del calentamiento relativo que aparentemente se produjo a final del Oligoceno y primera mitad del Mioceno, y que desglació de nuevo una gran parte de la Antártida. Pero desde hace 14 m.a. las temperaturas se desploman y el hielo aumenta en la Antártida hasta glaciarla completamente. En este enfriamiento jugaron un papel importante el levantamiento del Plateau Tibetano y el cierre final del Mar de Thetis. La subida del Plateau Tibetano se había iniciado hace 50 m.a. pero su mayor tasa de crecimiento se produjo en el Mioceno. Con una altura media de 5.000m y bordes que caen rápidamente hacia el Índico, aumentó la pluviosidad monzónica del sur de Asia y se convirtió en fuente de grandes cantidades de carbonatos y de materia orgánica que acaban sedimentadas en el Golfo de Bengala o en el Pacífico por los ríos Indo, Ganges, Brahmaputra, Yangtze y Mekong (que transportan el 25% de toda la materia disuelta que llega al océano global). Se piensa que fue un participante esencial en la retirada de CO2 de la atmósfera que tiene lugar durante el final del mioceno y durante el plioceno, hasta el presente. La instalación de nieves permanentes en la región elevó el albedo terrestre contribuyendo ello también al enfriamiento, aunque esos hielos han ido disminuyendo posteriormente debido a la creciente altura y sequedad de la mayor parte del plateau.

Historia_del_clima_de_la_tierra_-_Anton

Corrientes marinas antes del cierre del istmo de Panamá, según Uriarte Cantolla (2010).

El cierre del istmo de Panamá se produjo entre los 13 y los 4 m.a. BP, y modificó el clima del Norte del Atlántico de un modo contra-intuitivo. El Océano Ártico había estado relativamente aislado del Atlántico desde el final del Cretácico, sin embargo, se había mantenido templado gracias a las corrientes marinas atlánticas que le llegaban. Con el cierre del istmo, deberían haberse intensificado esas corrientes, pues una parte de ellas ya no se perdía hacia el Pacífico (figura siguiente). Sin embargo, ese aumento de corrientes templadas probablemente provocó un aumento de la temperatura y de la evaporación en el Atlántico Norte. Esta mayor humedad aumentó las precipitaciones en Europa del Norte y Siberia, lo cual incrementó la descarga de agua dulce de los ríos que desembocan en el Ártico, disminuyendo la salinidad de todo ese mar.  Un mar poco salino se congela más fácilmente, y esto pudo facilitar la formación de hielos permanentes en la región circumpolar, aumentando el albedo del hemisferio norte y provocando a su vez la glaciación de Groenlandia y la formación de hielo durante los inviernos en el Norte de América y de Eurasia. La gran sensibilidad de esa zona de hielos a las variaciones en la irradiancia solar (ciclos de Milankovitch) está probablemente detrás de la aparición de ciclos glaciales-interglaciales desde hace 5.5 m.a.

El enfriamiento de las aguas del Índico son otro de los factores que contribuyeron también a esa tendencia general al enfriamiento típica de finales del terciario. El levantamiento de las islas de Indonesia desviaron probablemente las corrientes cálidas que venían del Pacífico Sudecuatorial, contribuyendo a ese enfriamiento.

glaciaciones cuaternarias

Entre 5.5 y 1.5 m.a., hay glaciaciones cada 23.000 o 41.000 años, pero a partir de entonces y hasta el presente, aparecen glaciaciones con un ciclo definido de unos 100.000 años. En otro post futuro comentaremos con más detalles los mecanismos de retroalimentación que explican esas oscilaciones. Pero, muy básicamente, cuando durante varios miles de años la fecha del solsticio de verano ocurre con la Tierra cerca del afelio (más lejos del sol) y la inclinación del eje de rotación terrestre es moderada, la evaporación y las precipitaciones son elevadas, por lo que nieva mucho en el norte; pero los veranos son tan tibios que la nieve acumulada no se derrite en verano, acumulándose año tras año. Esto garantiza el inicio de una glaciación, por el aumento del albedo que induce el aumento de los hielos en el Ártico y su efecto sobre el enfriamiento del hemisferio norte.

El misterio del clima de Venus

¿Por qué el clima de la Tierra ha sido casi siempre relativamente benigno, y en cambio el clima de Venus es un auténtico infierno? Venus es una especie de gemelo de la Tierra por su masa, y aun estando más cerca del sol, la cantidad de radiación que llega a su superficie es menor que la que llega a la Tierra (debido a su densa atmósfera). Sin embargo, ha evolucionado geológicamente de una manera absolutamente hostil para cualquier forma de vida que conozcamos. La explicación más plausible está relacionada, sorprendentemente, con la diferente velocidad de rotación de ambos planetas.

La velocidad de rotación de Venus es de una vuelta cada 243 días terrestres. Esta rotación tan lenta produce un efecto dinamo inapreciable en un probable núcleo exterior líquido como el de la Tierra. Por lo que tiene un campo magnético planetario prácticamente inapreciable. En cambio, la Tierra tiene a su alrededor un campo magnético desarrollado, tal como muestra la figura.

Cinturon magnetico terrestre

El sol emite un flujo supersónico continuo de protones, electrones y núcleos de helio, llamado viento solar. Estos iones tienen una energía entre 1.5 y 10 kEV, unas 30-200 veces más que la energía de ionización y rotura de la molécula de agua, de modo que una molécula de agua tiene pocas probabilidades de sobrevivir entera al choque con uno de estos iones de alta energía. El campo magnético de la Tierra, sin embargo, curva la trayectoria de estos iones alrededor de la Tierra, de manera que sólo unos pocos consiguen alcanzar nuestro planeta, casi todos en las regiones polares, donde ionizan o excitan los átomos de nitrógeno, oxígeno y agua, y producen las auroras boreales (cuando los átomos o iones excitados vuelven a su estado fundamental de energía emitiendo fotones). La mayoría de los iones del viento solar, sin embargo, continúa su camino hacia el exterior del sistema solar.

En contraste con la Tierra, ningún escudo magnético protege la atmósfera de Venus. Los iones del viento solar inciden directamente contra las capas altas de su atmósfera. El vulcanismo de Venus, como el de la Tierra, debe de haber estado vertiendo a la atmósfera (principalmente) CO2 y agua desde hace varios miles de millones de años. Como el agua es más ligera que el CO2, flota sobre él, y tiende a colocarse encima, así que el agua en Venus ha debido ir colocándose en la atmósfera alta, a lo largo de millones de años, mientras el CO2 iba llenando su parte baja. Lo que ha debido ocurrir lo podemos imaginar, y ha sido en parte confirmado por las imágenes y datos enviados por la sonda Venus Express de la Agencia Espacial Europea (ESA) en 2006 (foto siguiente).

Venus y viento solar

Interacción entre Venus y el viento solar (Crédito: ESA / C. Carreau)

La sonda Venus Express (1270 kg), en órbita polar entre 250 y 66.000 km de Venus, fue lanzada en Noviembre de 2005 por un cohete Soyuz, alcanzó Venus tras 153 días de viaje y tras 5 días de maniobras controladas por radio desde la Tierra (a 40 millones de km), consiguió su órbita.

Una de las primeras fotografías enviadas mostró, en el lado nocturno de Venus, una estela turbulenta de átomos abandonando el planeta. Pues bien, el “Analyser of Space Plasma and Energetic Atoms” (ASPERA) de la sonda mostró en la composición de esa estela una proporción de dos átomos de hidrógeno saliendo por cada uno de oxígeno. ¡Venus está perdiendo continuamente agua ionizada! Y probablemente la ha estado perdiendo por más de 3000 millones de años, por lo que su atmósfera ahora tiene ahora 105 veces menos agua que la atmósfera terrestre.

Así pues, esa foto nos hace testigos de la tragedia de Venus. Sin agua en su atmósfera, el CO2 de los volcanes de Venus no puede formar ácido carbónico; La retroacción negativa de la meteorización no existe; el CO2 se acumula continuamente, mientras que el agua es descompuesta por el viento solar en su alta atmósfera, y va abandonando el planeta en forma de iones de alta velocidad. Tres o cuatro mil millones de años más tarde, la temperatura en su superficie es de cerca de 500ºC, llueve ácido sulfúrico, y la presión es tan alta (89 atm) que las primeras naves Venera que llegaron intactas a su superficie, filmaron una imagen óptica lechosa, como de estar sumergidos en algo más parecido a un líquido que al aire que conocemos.

La historia climática de Marte comenzó siendo muy similar a la de la Tierra. Indicios mostrados por orbitadores como la sonda MAVEN de la NASA sugieren que Marte tuvo una atmósfera mucho más densa en sus inicios; sin embargo, entre 3.700 y 4.000 millones de años BP la perdió súbitamente. Modelos geológicos relacionan este evento con el enfriamiento paulatino y la solidificación completa de su núcleo de hierro, que inicialmente era líquido. Su solidificación impidió que la rotación de Marte (análoga en velocidad de giro a la de la Tierra) pudiera seguir creando un campo magnético planetario. Expuesto al viento solar directo y con una masa relativamente pequeña, ambos factores contribuyeron a que Marte fuera incapaz de retener la mayoría del gas emitido por los volcanes, que se disoció y escapó al espacio. Con un efecto invernadero muy débil, su atmósfera actual apenas es capaz de templar la temperatura de su superfície.

Probablemente, las primeras células vivas que evolucionaron en la Tierra (ya sea por síntesis química estilo Oparin y Miller, ya sea por panespermia desde los cometas) se beneficiaron de ciclos reguladores del clima tal como la meteorización, y sobre ese contexto geológico construyeron sus propias dinámicas, que en algunos casos refuerzan la regulación climática geológica y en otros la debilita ligeramente sin inutilizarla. La biosfera ha evolucionado, como hemos visto, en el contexto de unas fuerzas, ciclos y eventos geológicos que, en muchos casos, eran demasiado poderosos y tenían una causación demasiado remota como para que la adaptación biológica pudiera afectarlos. Pero la biosfera era lo suficientemente resiliente, debido a su diversidad, para que un pequeño número de especies sobrevivieran a las grandes catástrofes, y repoblaran el planeta.

 

Referencias

Bender M. 2003. Climate-biosphere interactions on glacial-interglacial timescales. Global Biogeochemical Cycles, Vol. 17, No. 3, 1082, doi:10.1029/2002GB001932

Darwin Ch. Viaje de un naturalista alrededor del mundo, Tomo II, Akal, 1983.

Kirchner J. W. 2003. The Gaia Hypothesis: Conjectures And Refutations. Climatic Change 58: 21–45

Lovelock, J.E. and Margulis, L., 1974, Atmospheric homeostasis by and for the biosphere: the Gaia hypothesis. Tellus 26, 1–9.

Portegies-Zwart, S. F., 2009. The Lost Siblings Of The Sun. The Astrophysical Journal, 696: L13–L16, 2009 May 1. doi:10.1088/0004-637X/696/1/L13

Uriarte Cantolla, A. La Historia del clima de la Tierra. Géminis Papeles de Salud, 2010.

Zhong Y.J., Huang K.K., Lan Y.F., Chen A.Q. 2018. Simulationof Carbon Isotope Excursion Events at the Permian-Triassic Boundary Based on GEOCARB. Open Geosci. 10: 441–451.