Uno-mismo, yo, libre albedrío y otras emergencias mentales

Comentamos en el post La base neuronal de la consciencia primaria la hipótesis del núcleo dinámico y los miles de millones de estados que discrimina, producidos por cientos de miles de sistemas especialistas. Esta alta densidad de informaciones, significados, connotaciones, y sus emociones asociadas, que una experiencia consciente contiene podría ser el origen de una propiedad fundamental de los qualia o experiencias subjetivas que acompañan a la consciencia: la sensación de barroquismo y de experiencia única y privilegiada que acompañan casi siempre a las escenas conscientes.

Las neuronas de la capa V de un área motora o premotora que participan en el núcleo dinámico pueden funcionar como puertos de salida  activando las motoneuronas de la espina dorsal, pero estas motoneuronas con las que interactúan no deben considerarse parte del núcleo simplemente porque la interacción es de sentido único. El disparo de las motoneuronas no producen ningún cambio directo en el núcleo dinámico. Solamente las consecuencias de su comportamiento coordinado, en forma de contracciones musculares, podrán ser notadas sensorialmente, y estas impresiones llegar al núcleo consciente, pero tal influencia no es una reentrada directa entre las motoneuronas y el núcleo (Edelman y Tononi, 2000).

Seis capas del cortex

FIG Seis capas del córtex

La retina y otras neuronas del sistema visual primario tienen una actividad notable antes de que las neuronas corticales que señalan la presencia del color rojo se disparen. Estas neuronas corticales pueden considerarse puertos de entrada al núcleo. Su disparo produce efectos en amplias regiones del núcleo, cosa que no consiguen producir las neuronas del sistema visual primario, que producen efectos únicamente locales.

Hay puertos que son a la vez de entrada y salida. Por ejemplo, cuando queremos decir algo, no sabemos qué palabras vamos a usar, pero ellas surgen automáticamente con el significado correcto a medida que vamos necesitándolas, sin que tengamos que buscarlas y chequear su sintaxis conscientemente a cada paso. Y al ofrecer su producto al núcleo en el puerto (ahora de  entrada), ayudan a que el núcleo avance hasta el siguiente estado consciente.

Los largos bucles paralelos unidireccionales que se encuentran en los ganglios basales (y en el cerebelo) tienen la arquitectura que uno imaginaría para implementar una variedad de rutinas y subrutinas neuronales inconscientes independientes: son activadas por el núcleo en puertos específicos; hacen su trabajo de manera rápida y eficiente pero de manera local y funcionalmente aislada; y en puertos específicos de entrada, proporcionan al núcleo los resultados de su activación. Hay evidencias de que los ganglios basales no sólo realizan rutinas motoras, sino que pueden dedicarse a distintas actividades (habla, pensamiento, planificación, etc.) dependiendo del área del cerebro donde esté el puerto de entrada.

superficie-cortical-con-una-superposicion-de-los-ganglios-basales-y-el-talamo

FIG. Cuatro áreas donde se localizan los ganglios (o núcleos) basales: cuerpo estriado, globo pálido, sustancia negra y núcleo subtalámico

 

Debido a sus enormes capacidades asociativas, el núcleo dinámico estaría en una posición ideal para organizar jerárquicamente una serie de rutinas inconscientes preexistentes en una secuencia particular. Esto es lo que sucede cuando un pianista vincula deliberadamente pasajes de arpegio separados. El músico activaría estas rutinas desde su memoria, o a partir de la partitura.

Nuestra vida cognitiva generalmente está constituida por una secuencia continua de estados del núcleo que desencadenan ciertas rutinas inconscientes, que, a su vez, desencadenan ciertos otros estados del núcleo y así sucesivamente en una serie de ciclos. Al mismo tiempo, por supuesto, como en la interpretación de un músico, los estados del núcleo también se modifican por la entrada sensorial (que actúa en otros puertos), así como por la dinámica intrínseca del propio núcleo.

En una segunda fase, el enlace consciente entre distintas subrutinas que resulta útil o satisfactorio al núcleo consciente es reforzado hasta volverse inconsciente. La evidencia reciente indica que la selección neuronal que conduce al aislamiento funcional de circuitos especializados ocurre a través del refuerzo de los circuitos de los ganglios basales provocados por la activación de los sistemas de valoración, especialmente el llamado sistema dopaminérgico (llamado así por el neuromodulador dopamina que libera). Se ha demostrado que tales sistemas se activan cuando el comportamiento se ve reforzado por una recompensa y dejan de disparar una vez que se ha adquirido el comportamiento. El disparo del sistema dopaminérgico y de otros sistemas de valoración que inervan tanto los ganglios basales como las regiones corticales a las que ellos se proyectan puede ser el mecanismo clave para fortalecer los vínculos sinápticos que se forjan entre diferentes rutinas a través de la mediación del núcleo. De esta manera, los mapeos globales que están relacionados con una tarea en particular se pueden construir o vincular, durante el aprendizaje guiado conscientemente, hasta que un bucle sensorimotor sin discontinuidades se ejecuta de manera estable, rápida e inconsciente (Edelman y Tononi, 2000).

El desorden obsesivo-compulsivo puede ser entendido como una condición en la que ciertas rutinas motoras y cognitivas son disparadas con excesiva frecuencia, como si algunos puertos del núcleo estuvieran patológicamente abiertos. Esto se percibe a nivel consciente como una especie de intrusión.

Ciertas partes del sistema tálamo-cortical podrían separarse del núcleo a través de conexiones estrechas, tipo puertas, y dejar así de pertenecer a la experiencia consciente. Este podría ser el caso en enfermedades como la ceguera histérica, donde el paciente no es consciente de estar viendo, pero esquiva automáticamente los obstáculos. Este pequeño sub-conjunto autónomo mantendría  contacto con la periferia motora y con ciertas áreas visuales. Algo de este tipo tiene lugar claramente en las personas con los dos hemisferios desconectados quirúrgicamente, en las que dos agregados funcionales (uno en el hemisferio izquierdo, con consciencia primaria y auto-reflexiva; otro en el hemisferio derecho, sólo con consciencia primaria) parecen coexistir en el mismo cerebro.

¿Es posible que tales circuitos talamocorticales activos pero funcionalmente aislados puedan ser la base de ciertos aspectos del inconsciente psicológico, aspectos que, como señaló Sigmund Freud, comparten muchas de las características de lo «mental», excepto que no lo hacen dentro de la consciencia? ¿pueden tales circuitos ser creados por mecanismos de represión? ¿pueden tales islas activas ser capaces de disparar sus propias rutinas en los ganglios basales, explicando así actos fallidos, acciones equivocadas, y similares? El tema merece ser investigado, según Edelman y Tononi.

Las neuronas espejo y la hipótesis de la mente en uno y en los otros

Las neuronas espejo se identificaron originalmente en los lóbulos frontales de los monos (en una región homóloga al área de lenguaje de Broca en los humanos). Se observó que esta clase de neuronas se disparan cuando el mono alcanza un objeto o simplemente mira a otro mono comenzar a hacer lo mismo, lo cual se podría interpretar como una forma de simular las intenciones del otro mono o de “interpretar su mente”. También se han encontrado neuronas espejo para el tacto; se disparan en una persona cuando la tocan y también cuando ve que otra persona es tocada. Se han encontrado neuronas espejo también en la ínsula, según Ramachandran (2011), para hacer y reconocer expresiones faciales, y en el arco cingulado anterior, para la «empatía» del dolor. No todas las neuronas de estos sistemas son neuronas espejo, sólo una parte de ellos.

Cuando un sujeto observa que otro es pinchado en la piel sus neuronas espejo sensoriales se activan, pero su reacción no llega a ser un dolor completo y una retirada del miembro, probablemente debido a las señales inhibidoras procedentes de la corteza frontal y también a las señales de normalidad procedentes de la propia piel.

El papel inhibidor de las señales de la propia piel parece coherente con la experiencia consciente de un paciente amputado con percibía una mano fantasma, estudiado por Ramachandran (2011). Cuando veía que la mano de otra persona era acariciada y atrapada, él sentía que le estaban haciendo lo mismo a su mano fantasma. Al no enviar la mano fantasma ninguna señal al cerebro, las neuronas espejo sensoriales de éste no serían inhibidas, y la sensación aparecería como propia y detallada en el sitio adecuado. Ramachandran llama “hiper-empatía adquirida” a este síndrome, que identificó también en otros tres pacientes suyos. Cuando los pacientes con este síntoma tienen dolores en la mano fantasma, sienten alivio viendo simplemente la mano de otra persona siendo masajeada. Notablemente, también se obtiene hiper-empatía cuando se anestesian los nervios que conectan el miembro con la espina dorsal (el plexo braquial).

La ventaja más evidente de tener neuronas espejos en distintas áreas sensoriales y motoras es que te permiten descubrir las intenciones de otra persona. Cuando ves que la mano de tu amigo Jose se mueve hacia la pelota, tus propias neuronas motoras asociadas a alcanzar la pelota comienzan a disparar. Al ejecutar esta simulación virtual de ser Jose, tienes la impresión inmediata de que tiene la intención de alcanzar la pelota. Esta capacidad crea así una teoría de la mente: el presupuesto de que en otros cuerpos ocurren los mismos fenómenos mentales que en el propio. Esta capacidad puede existir en los grandes simios en forma rudimentaria, pero los humanos somos excepcionalmente buenos en eso. Según Ramachandran, estas neuronas espejo pueden haber evolucionado en los humanos para tomar el punto de vista de otros no sólo visual, táctil o auditivo, sino también conceptual. Sería la perspectiva que invitamos a adoptar o tomamos cuando decimos: “míralo desde mi punto de vista”, o “veo lo que quieres decir”.

 

Otros síndromes disociativos

Vimos en el post Las bases neurológicas del reconocimiento de los cuerpos y la imitación que desde el punto de vista neurológico, hay dos caminos desde la retina hasta el área visual V1 del lóbulo parietal (área 17 de Brodmann). Uno (que Ramachandran llama el “camino antiguo”) pasa por el colículo superior y acaba en V1.

Coliculo superior-Brainstem_and_thalamus

El otro camino (el “camino nuevo”) pasa por el núcleo geniculado lateral del tálamo, desde allí se dirige hasta V1, en el lóbulo occipital, y allí se bifurca en dos ramas: la rama del “donde” se dirige hacia el lóbulo parietal, y la rama del “qué” se dirige hacia el área 21 de Broadman, en el lóbulo temporal.

Nucleo geniculado lateral

La primera rama está especializada en las relaciones espaciales entre los objetos identificados; la segunda, en las relaciones entre las propiedades encontradas dentro de cada objeto y lo que significan para uno, lo cual permitirá etiquetar posteriormente al objeto dentro de una categoría lingüística.

areas-brodmann-numeros

El camino “antiguo” puede dirigir la mano de una persona hacia un objeto en el campo visual de forma automática sin que la persona sea consciente de que está viendo el objeto. El camino “nuevo” permite, sin embargo, la experiencia consciente de estar viendo un objeto (Ramachandran 2011, Cap. 2).

La primera estructura de la ruta del “qué”, el giro fusiforme, parece clasificar el objeto visual en distintas categorías conceptuales (diferencia un pájaro de un humano, o un cuchillo de un piano) pero con poca elaboración sobre el significado del concepto para el observador. Pero cuando esta ruta se adentra más profundamente en los lóbulos temporales, evoca no sólo la categoría cruda sino un conjunto disperso de recuerdos asociados y hechos y usos del objeto, es decir, su significado para el observador. Esta recuperación semántica implica la activación de conexiones con otras áreas del lóbulo temporal, con el área lingüística de Wernicke y con el lóbulo parietal inferior, que está especializado en poner etiquetas lingüísticas (nombrar), escribir, y en la aritmética. Tras el apoyo de estas regiones, los mensajes se transmiten a la amígdala, que se encuentra incrustada en la punta frontal de los lóbulos temporales, donde evocan sentimientos relacionados con lo que (o quien) estás viendo (Ramachandran, 2011, Cap. 2).

Sin embargo, si el objeto visual tiene una alta saliencia (es inhabitual) el camino 2 no sigue esta ruta, sino que abrevia desde el giro fusiforme, pasando por surco temporal superior, hasta entrar directamente en la amígdala. De esta manera, evita pasar por las áreas que enriquecen el objeto visual con significaciones, y entra rápidamente en la amígdala, en el corazón emocional del cerebro, el sistema límbico. Este camino rápido evolucionó probablemente para promover reacciones rápidas ante escenas inhabituales, ya sean innatas o aprendidas. La amígdala trabaja junto con recuerdos que ayudan a calibrar la importancia emocional de la escena visual. Si la respuesta emocional de la amígdala es intensa (con emociones de hambre, miedo, odio o lujuria, por ejemplo), influye en el hipotálamo, que induce una liberación de las hormonas necesarias para preparar el sistema nervioso autónomo para una próxima acción (alimentarse, luchar, huir, cortejar, etc.). Esto incluye aumento del ritmo cardíaco, respiración rápida y superficial, y aumento de la transpiración (que aumenta la refrigeración del sistema motor). La amígdala está conectada también con los lóbulos frontales, que añaden matices a estas emociones primarias (v.g. arrogancia, prudencia, orgullo, admiración, magnanimidad, etc.).

corte del sistema limbico

Si el camino 3 que provoca las emociones resulta lesionado, pero el camino 2 del “qué” (que permite la identificación) permanece intacto, se produce un síndrome (de Capgras) en el cual el sujeto reconoce físicamente a la persona que tiene delante, por ejemplo a su madre, pero no siente por ella el menor afecto. Al ser esta disonancia intolerable para el cerebro consciente, el sujeto muchas veces racionaliza diciendo que la mujer presente es una “impostora” idéntica a su madre. Sin embargo, al hablar con ella por teléfono, sí que siente afecto por la que ahora sí reconoce como su madre. Esto se debe a que el camino que lleva al sistema límbico las sensaciones sonaras es diferente al que transporta la información visual.

Cuando es el camino 2 el que resulta dañado pero el camino 3 permanece intacto, el paciente pierde la capacidad de reconocer conscientemente caras (prosopagnosia), pero las reconoce inconscientemente, pues la información puede llegar desde el giro fusiforme hasta la amígdala a través del camino 3. Por ello, el paciente tiene una fuerte reacción emocional al ver a su familiar, aunque no sabe quién es esa persona. Si un estado de disociación como este se prolongara indefinidamente, conduciría antes o después, sugiere Ramachandran (2011), a estados paranoides o fóbicos en esa persona.

Otras veces, debido a alguna enfermedad, los caminos 2 y 3 hacia la amígdala son reforzados por descargas sistemáticas similares a la epilepsia (kindling). Esto puede provocar un síndrome en el que el paciente encuentra que todo el mundo parece extrañamente familiar, y acaba diciendo, por ejemplo, que todo el mundo se parece a un tío suyo. Probablemente, la necesidad de elegir a un familiar concreto deriva de la incoherencia de sentir “familiaridad inconcreta”, y de la pulsión por la coherencia que tiene el cerebro consciente. Del mismo modo, la ansiedad difusa de un hipocondríaco siempre acaba aterrizando, en una especie de racionalización, sobre un órgano o una enfermedad concreta (Ramachandran, 2010).

Esquema simplificado

Esquema simplificado de los caminos visuales y otras áreas relacionadas en los síndromes discutidos en el texto. El camino “How” corresponde al llamado “1” en el texto; el camino “what” corresponde al “2”, y el camino “Old” corresponde al “3”. Tomado de Ramachandran (2011).

 

El síndrome de Cotard, según Ramachandran (2011), es un caso extremo del síndrome de Capgras. Las personas con síndrome de Cotard suelen perder el interés en el arte y la música, presumiblemente porque tales estímulos no pueden evocarles emociones, como si todas o la mayoría de las vías sensoriales a la amígdala estuvieran totalmente dañadas (a diferencia del síndrome de Capgras, en el que solo el área «facial» en el giro fusiforme está desconectada de la amígdala). Por lo tanto, para un paciente de Cotard, todo el mundo sensorial, no solo su madre y su padre, parecerían irreales, como en un sueño. Por otra parte, las neuronas espejo que le permiten a uno observarse desde el punto de vista de un observador externo podrían estar también dañadas. Tal síndrome es como haber perdido el uno-mismo y haber perdido el mundo, lo más cercano a estar muerto que un cerebro consciente podría sentir. Por ello, la depresión acompaña con frecuencia al síndrome de Cotard. También se explicaría la curiosa indiferencia que tienen tales pacientes ante el dolor. Como un intento desesperado por restablecer la capacidad de sentir algo, ¡cualquier cosa! tales pacientes pueden tratar de infligirse dolor a sí mismos para tratar de recuperar el «anclaje» a sus cuerpos. Si los casos más severos de depresión estuvieran relacionados con esa clase de desconexión completa que sufren los pacientes del Cotard, ello explicaría según Ramachandran el que muchos de ellos se suiciden, extrañamente, tras tomar las primeras dosis de Prozac. El antidepresivo puede darles la mínima autoconfianza necesaria para que el paciente reconozca que su vida y su mundo no tienen significado y que el suicidio es el único escape. En este sentido, Cotard sería un síndrome de apotemnofilia (rechazo de un miembro propio, con deseos de amputarlo) pero de todo el cuerpo, y el suicidio su amputación exitosa.

Este síndrome tan extremo nos sugiere también, en mi opinión, que una parte fundamental de lo que entendemos por sentido (o significado) del mundo consiste en las relaciones emocionales que ese mundo tiene con mi cuerpo, que es lo que hace a las cosas del mundo importantes, interesantes y bellas. Si tal relación emocional desaparece, el mundo y todos sus contenidos, por exóticos y variados que sean, dejan de tener interés y significado para nosotros.

El síndrome de los “ataques de pánico” de unos 40-60 segundos, que afecta a algunos pacientes, se parece a un síndrome de Cotard transitorio acompañado de palpitaciones y del sentimiento de que uno está a punto de morir. Según Ramachandran (2011) pueden explicarse por afectaciones temporales del camino 3, especialmente la amígdala y su flujo de activación a través del hipotálamo, que dispararían una poderosa señal de “huye o lucha” sin que los sentidos detecten nada externo a lo que poder adscribir la fortísima emoción. Por lo que, la necesidad de coherencia del cerebro consciente infiere que la causa del peligro es una afección interna grave. Una ansiedad sin causa es menos tolerable para el cerebro que una ansiedad que pueda ser atribuida a alguna fuente.

 

Las capacidades cognitivas inconscientes

El conjunto de experiencias vividas, con sus correspondientes resultados prácticos y emocionales, y el aprendizaje estimulado por las simulaciones mentales conscientes, van generando unos hábitos de decisión e incluso un carácter personal. Muchas de las rutinas de decisión aprendidas pueden ser activadas de forma inconsciente en circunstancias similares a las ya vividas o ya experimentadas en la imaginación. El resultado es una capacidad de conocer lo esencial de las situaciones y responder inconscientemente a ellas de forma acorde con nuestros gustos personales, con una rapidez sorprendente.

Esta toma inconsciente de decisiones resulta a veces más eficaz que la deliberación consciente, cuando el tiempo disponible para decidir es limitado. Esto quedó patente en el experimento realizado por el psicólogo  Ap Dijksterhuis con grupos de sujetos humanos normales. Les pidió que realizaran decisiones de compra en dos situaciones. En la primera, se les dejaba estudiar con detenimiento el folleto de los artículos durante tres minutos antes de la compra; en la segunda situación, se distraía hábilmente a esos mismos sujetos durante los tres minutos, con el fin de que el individuo no pudiera deliberar de forma consciente. Unas veces el artículo era un objeto trivial de menaje, tal como una tostadora; otras, era un gran compra, tal como un coche o una casa. El objetivo era elegir el mejor artículo para comprarlo. El resultado fue notable: “Las decisiones que se habían tomado sin mediar ninguna deliberación consciente resultaron más satisfactorias en ambas clases de artículos, pero sobre todo en la de las grandes compras. La conclusión aparente es que cuando vamos a comprar un coche o una casa, es preciso conocer al detalle los hechos, pero, una vez conocidos, no hay que preocuparse ni dar más vueltas a las minuciosas comparaciones de ventajas y desventajas posibles. Es mejor lanzarse (…) [Estos resultados] lo que sugieren es que los procesos inconscientes son capaces de cierto razonamiento lógico, mucho más de lo que generalmente se creía, y que este razonamiento, una vez adecuadamente ejercitado a través de la experiencia, puede, cuando el tiempo escasea, llevarnos a tomar decisiones convenientes y ventajosas (…) Dado que no disponemos de todo el tiempo del mundo, en lugar de hacer una gran inversión de tiempo en gigantescos cálculos, vale la pena aprovechar algunos atajos. Y algo que viene muy bien es que, por un lado, los registros emocionales pasados nos serán de utilidad al seguir esos atajos y, por otro, que nuestro inconsciente cognitivo es un buen proveedor de esa clase de registros (…) Ciertas opciones vienen marcadas inconscientemente por medio de una predisposición vinculada a factores emocionales y afectivos previamente adquiridos” (Damasio, 2011, Cap. 11). Ahora bien, si tenemos tiempo suficiente, conviene analizar en detalle la elección ofrecida por nuestro inconsciente, por si hay elementos en la situación presente que invalidan tal elección, basada en experiencias pasadas y pre-juicios adquiridos. El no hacerlo podría llevarnos a, por ejemplo, decisiones injustas en un tribunal, o a decisiones imprudentes en unas elecciones democráticas.

Damasio sugiere también que las pautas cognitivas inconscientes no sólo proceden del aprendizaje y la simulación mental. Habría una serie de disposiciones o inclinaciones de raíz genética, que afectaría al temperamento, que no es uniforme en los humanos ni en los animales superiores. Incluso la relativa mayor frecuencia de comportamientos agresivos en los hombres que en las mujeres podría ser en gran parte derivado de la influencia genética.

 

La capacidad consciente autorreflexiva y el yo

La actividad de percepción consciente, fenomenológicamente, se percibe como una serie de percepciones alineadas en el tiempo, que cuando tratamos de entenderlas tienden a agruparse juntas en escenas, cada una de las cuales incluye percepciones sensuales externas, percepciones táctiles del cuerpo, percepciones difusas de estados internos del cuerpo, y percepciones de las imágenes imaginarias conceptuales que van siendo generadas por la mente. Todo ello, unido a una sensación vaga de que todas esas imágenes y percepciones forman una unidad en el tiempo como si fueran las experiencias de un testigo único, no de muchos separados o consecutivos. Quizás, ese sentimiento de unidad en el tiempo de las percepciones proceda del hecho de que las componentes interoceptoras de esas percepciones están invariablemente disponibles a la atención atenta, como en un fondo muy poco variable (Damasio). En muchas tradiciones budistas, la forma más simple de consciencia durante la meditación es denominada de hecho presencia plena; y en la tradición Vedanta, a la consciencia meditativa se la llama precisamente el testigo.

La presencia de un testigo puede ser pues una metáfora iluminadora y bastante universal de ese proceso mental, pero sin olvidar que es sólo una metáfora que sustantiviza un proceso complejo interior. La observación fenomenológica (y la científica) no muestra la presencia de ningún testigo físico, ni ningún homúnculo interior al cuerpo o a la mente.

La actividad consciente auto-reflexiva se sustantiviza pues frecuentemente, conceptualizándola como un testigo que percibe todas las demás actividades y estados conscientes, y que tiene una continuidad diacrónica (el mismo testigo presenció escenas pasadas). Llamaremos uno-mismo a esa presencia casi permanente con apariencia de testigo. Con cierta frecuencia, a ese testigo se le añaden conceptos aún más detallados, concibiéndolo como: (i) un observador que tiene cierta personalidad o tendencias a la hora de percibir (lo cual parece una conceptualización metonímica: en realidad, son los estados mentales observados los que pueden tener tendencias discriminables); (ii) tiene cierta personalidad a la hora de sentir y pensar (otra conceptualización metonímica: en realidad, son los estados mentales y corporales observados los que pueden contener sentimientos y pensamientos); (iii) es un agente con voluntad libre para tomar cualquier decisión, que es obedecida inmediatamente por el cuerpo (otra conceptualización metonímica, pues es el cuerpo en realidad el que realiza acciones, a veces consciente y a veces inconscientemente). Llamaremos yo a aquel uno-mismo con estas conceptualizaciones extras añadidas.

El yo y el libre albedrío

La conceptualización tercera de la lista anterior caracteriza al uno mismo como un yo con capacidad agente, y libre albedrío a la hora de decidir el comportamiento del cuerpo. Esa caracterización, además de ser metonímica, choca con las evidencias que nos ofrecen algunos experimentos psico-neurológicos. Por ejemplo, Libet observó neurológicamente el cerebro de sujetos humanos mientras eran invitados a mover libremente cualquier dedo y a indicar el momento en que eran conscientes de la intención de moverlo. En esos experimentos, la aparición del potencial de preparación que antecede siempre a una acción motora humana precedió sistemáticamente a la consciencia del mismo; ocurrió entre 150 y 350 milisegundos antes que la llamada “voluntad consciente”. Libet llegó a la conclusión de que la iniciación cerebral de un acto espontáneo y libremente voluntario puede comenzar inconscientemente, es decir, antes de que haya una consciencia revocable de que la decisión de actuar ya se ha iniciado cerebralmente. Al igual que en la consciencia primaria de un estímulo sensorial, en la consciencia de una intención motora parece necesario que la actividad neuronal subyacente persista previamente durante un período de tiempo considerable, del orden de 100 a 500 ms dentro de un núcleo dinámico de interconexiones neurales. Es después que se ha producido esto cuando algún sistema neural especializado detecta la pauta de “voluntad de iniciar el movimiento de X”. La conclusión notable es que primero nuestro cerebro quiere iniciar inconscientemente una acción, y luego la consciencia auto-reflexiva es consciente de lo que el cerebro quiere, y conceptualiza esa decisión como la decisión de uno-mismo. La consciencia auto-reflexiva sería una especie de sistema neural que informa de modo coherente de lo que nuestro cuerpo está sintiendo y haciendo, de las experiencias de consciencia primaria que nuestro cerebro está generando, y de lo que nuestro cerebro está haciendo; pero no es el disparador último de las decisiones, ni es tampoco el que construye neurológicamente las percepciones, estados mentales o acciones.

Esto es coherente con el hecho evolutivo de que los animales, y nuestros antecesores, con consciencia primaria eran capaces de realizar decisiones motoras antes de ser conscientes de que había algo dentro de ellos que realizaba esa decisiones; sistemas posteriores auto-reflexivos añadieron a esa capacidad la de la consciencia de un invariante interior (o uno-mismo) que se otorgaba la propiedad de fuente de todas las acciones y decisiones. A su vez, sólo los seres con esta nueva clase de consciencia auto-reflexiva empezaron a ser conscientes de la presencia en sus cuerpos de una memoria primaria que ellos mismos están percibiendo.

Según Ramachandran (2011, Cap. 9), la experiencia de libre albedrío deriva del funcionamiento de dos estructuras: la primera es la circunvolución supramarginal en el lado izquierdo del cerebro, que le permite evocar y prever diferentes cursos de acción potenciales. La segunda es el giro cingulado anterior (en la zona periférica del sistema límbico), que te hace desear, y te ayuda a elegir, una acción basada en una jerarquía de valores aprendidos registrados en la corteza prefrontal. Estos valores han sido aprendidos a través de la cultura y de la experiencia individual previa. La corteza prefrontal es aparentemente la sede de pautas de comportamiento aprendidos como el carácter, así como de valores sociales internalizados como la moral, el juicio, o la ética (Ramachandran 2011, Glosario Final).

Según Dennett (2017), la experiencia de la voluntad personal es la manera como la mente muestra el final de sus decisiones motoras al yo, no la decisión misma. Más en general, nuestro punto de vista de primera-persona de nuestras propias mentes es similar al que tenemos de otras mentes (la segunda persona). No percibimos conscientemente toda la complicada maquinaria neural que selecciona entre conceptos, toma decisiones y actúa. Del mismo modo, hablamos para decirnos a nosotros mismos lo que pensamos, y no sólo a terceras personas. El self o yo es como un usuario final de un complejo sistema operativo.

sistema-lmbico-cingulado anterior

El núcleo dinámico tiene la capacidad, según Edelman, de conectarse con muchas de las rutinas automáticas especializadas mediante puertas de entrada/salida que las une con el núcleo, pero a la vez las separan de la dinámica integrada del núcleo. Estas puertas consistirían en grupos neuronales que interaccionan a la vez con el núcleo y con neuronas que están fuera del núcleo. Por ejemplo, un paseante puede estar caminando en dirección a su casa sin necesidad de atención consciente; pero de repente puede notar la llegada de un autobús detrás de su espalda, y enviar entonces una directiva consciente para correr hacia una parada próxima. Hay siempre disponibles una gran variedad de subrutinas inconscientes cuya activación el núcleo dinámico puede forzar o no. ¿Es esa la base del sentimiento de agencia o libertad de decidir que acompaña a muchas acciones conscientes inmediatas? En cualquier caso, ese sentimiento es bastante ilusorio si se extrapola a todas las decisiones, pues hemos visto que la consciencia sabe lo que va a decidir en los próximos segundos sólo una vez que el cerebro inconsciente ha decidido. Sin embargo, Damasio (2000) sugiere un posible encaje del libre albedrío consciente, y es entenderlo como la capacidad de planificar a largo plazo. Esto es, el conjunto de informaciones conscientes que recibimos del exterior en un momento dado, unido al bagaje de experiencias previas de nuestro cuerpo, nos hacen ver que hay posibles planes de acción (combinaciones posibles encadenadas en el tiempo futuro, de acciones motoras y consecuencias de las acciones) que no conocíamos y, al imaginarlas ahora, observamos que generarían un resultado deseable, sin que el esfuerzo y los efectos indeseables de su imaginaria implementación nos produzcan emociones de rechazo. En ese contexto, el cerebro consciente parece capaz de fomentar unas condiciones ambientales y corporales que favorezcan que el propio cerebro vaya tomando con gran probabilidad las decisiones apropiadas para la realización de los distintos pasos que componen la cadena de acciones del plan mental. La capacidad de deliberación consciente, según Damasio, tiene poco que ver con la capacidad de disparar o controlar al momento las acciones, y está unida más bien a la capacidad de planear con anticipación y fomentar la realización de una clase de acciones que queremos que se realicen. Podemos interpretar que, para conseguirlo, las imágenes mentales que forman parte de esos planes de la imaginación son enviados al sistema límbico como si fueran experiencias reales vividas, para que generen las asociaciones emocionales que harán que las futuras acciones motoras del cuerpo vayan acercándose con gran probabilidad a las etapas planeadas. De este modo, los actos motores componentes (activados por el arco cingulado anterior) se realizarán como si hubieran sido reforzados por experiencias gratificantes ya vividas, aunque en realidad el reforzamiento lo están produciendo experiencias imaginadas.

Un músico de una orquesta en muchos momentos interpreta la música automáticamente y sin necesidad de atención consciente; pero de repente puede notar un cambio de ritmo inesperado en la batuta o en otros compañeros de orquesta, y enviar entonces una directiva consciente para aumentar la velocidad de los dedos que activan las teclas de su instrumento. El que una directiva de este tipo tenga tan alta probabilidad de ser obedecida, interpretamos que se debe a lo siguiente: la percepción sonora y visual de la aceleración repentina del ritmo de los otros músicos produce rápidamente la imagen mental de las consecuencias que tendría el que uno mantuviera el mismo ritmo de ejecución ajeno al de la orquesta; esta imagen mental, recibida en el sistema límbico genera una reacción emocional de miedo y vergüenza, como si la escena estuviera realmente ocurriendo, lo cual estimula rápidamente la activación de mapas motores correctores que aceleran la frecuencia de pulsación del propio instrumento.

Las imágenes mentales, como simuladoras de realidad que son, pueden tener pues efectos emocionales similares a la realidad misma, y pueden ser utilizadas para construir planes de acción. Pero también para aumentar rápidamente la probabilidad de que nuestros sistemas inconscientes especializados reaccionen como lo harían ante una escena real. Esto proporciona una enorme variedad de conductas y formas de adaptarse nuevas a los animales capaces de simular escenas con la mente; mucho más aún si dentro de estas escenas son capaces de incluir al propio cuerpo con sus emociones imaginadas reaccionando al entorno imaginado.

Así, en lugar de seguir pensando en que hay un yo ahí dentro que decide como una especie de dictador del propio cuerpo, sería más realista concebir la toma de decisiones consciente como un proceso cerebral colectivo. El cerebro funciona utilizando rutinas inconscientes automáticas aprendidas en su experiencia pasada siempre que los rasgos significativos del entorno son familiares o habituales. Pero genera rápidamente un núcleo dinámico consciente cuando percibe algún factor repentino en la situación que la convierte en no habitual. Tras focalizar la atención sobre el factor novedoso, el núcleo dinámico utiliza su experiencia y conocimiento simbólico previo, acumulado en sus redes neurales, para generar una realidad virtual de las consecuencias que probablemente derivarán de ese factor nuevo.

Caso 1: Si la consecuencia imaginada del factor nuevo es única con gran verosimilitud, y esa consecuencia imaginada provoca una reacción emocional clara (positiva o negativa), y el (acelerar o evitar) el nuevo escenario virtual requiere acciones motoras similares a otras ya experimentadas o simuladas: En este caso, los núcleos límbicos pondrán automáticamente en acción los sistemas motores apropiados para adaptarse (acelerar o evitar la llegada de la consecuencia) de forma inconsciente. El etiquetamiento conceptual y verbal de la actividad cerebral asociará la situación a un concepto del tipo “se va a resolver” (en un cerebro budista) ó “(yo) lo voy a resolver” (en un cerebro occidental), generalmente una fracción de segundo después de que se haya empezado a resolver.

Caso 2. Si la consecuencia imaginada del factor nuevo es única con gran verosimilitud, pero no provoca sino respuestas emocionales de indiferencia, el núcleo dinámico “pasará por alto” el nuevo escenario, los rituales inconscientes que estaban en curso se dejarán proseguir, y la atención consciente volverá a relajarse. El etiquetamiento conceptual y verbal de la actividad cerebral será algo como “no pasa nada”; “seguimos” ó “sigo haciendo”.

Caso 3. Si la consecuencia imaginada del factor nuevo es única con gran verosimilitud, provoca una reacción emocional clara de miedo (en lo sucesivo consideraremos sólo reacciones emocionales de rechazo) pero no hay rituales motores familiares para evitarla, el sistema límbico reaccionará dependiendo del grado de miedo y urgencia activado.

  1. Si el miedo es extremo (por ejemplo, ha aparecido un león y está demasiado cerca para intentar llegar a un refugio) el sistema límbico paralizará todas las rutinas motoras que puedan activar los músculos rojos, y se inhibirá la sensibilidad táctil y la subjetividad. El cuerpo se percibirá objetivamente, como desde fuera. Pero el cerebro permanecerá visualmente atento por si algún factor nuevo cambiara la situación.
  2. Si el miedo es sólo leve o moderado, el sistema límbico activará a la imaginación para que explore acciones nuevas que pudieran impedir o mitigar la consecuencia temida (v.g. buscar nueva información relevante al problema; buscar la ayuda de ciertas personas; etc.). Esto puede iniciar una cadena de intercambios entre ideas de la imaginación y nuevas reacciones emocionales del sistema límbico, proceso interactivo que a veces es consciente y otras inconsciente, hasta ir acotando un conjunto factible de soluciones definitivas óptimas (cuya conceptualización sería algo como: “Ahá! ¡Lo encontré!”), o solamente mitigadoras (“trataré de llevarlo lo mejor posible”).

Caso 4. Si las consecuencias del factor nuevo son previsiblemente diversas, dependiendo de otros factores que podrían intervenir, el núcleo dinámico tratará de representar mentalmente todos los escenarios que son posibles, y las correspondientes reacciones emocionales límbicas comenzarán activando las rutinas motoras encaminadas a evitar primero los peores escenarios posibles; esto tendemos a hacerlo conscientemente cuando la carga emocional negativa es intensa. Prevenidas así o mitigadas, supuestamente, las consecuencias peores, la atención consciente se puede encontrar con dos escenarios posibles finales que desencadenan emociones moderadamente negativas pero de intensidad parecida. En esta situación, cualquier acción motora que se encamine a evitar el escenario X, o bien el escenario Y, o bien ambos a la vez, será sentida como deseable, de modo que las reacciones límbicas no desequilibrarán el impasse en ninguna dirección concreta. Es de suponer que en tal situación, un estímulo sensorial insignificante, o incluso el estado homeostático del cuerpo en ese momento, pueden desequilibrar el impasse, facilitando que se inicien primero las acciones, por ejemplo, que conducen a evitar el escenario X. Las áreas semánticas más altas del córtex, las que generan las conceptualizaciones más abstractas, no-verbales (en el córtex frontal y áreas asociativas) y verbales (porción triangular izquierda del giro frontal inferior, surco intraparietal, giro temporal inferior, giro temporal medio posterior, giro supramarginal y área de Wernicke, según Montefinese, 2019), generarán entonces un concepto del tipo: “(yo) he decidido hacer HX para evitar X” (en un cerebro occidental), ó “(el cuerpo) hace HX para evitar X” (en un cerebro budista).

La capacidad de soportar la incertidumbre más tiempo, y la voluntad de perseverar en el análisis consciente de posibilidades cada vez más detalladas (como hace el jugador de ajedrez) son capacidades que se pueden entrenar. O, al menos, son capacidades que se han podido entrenar si el entrenar capacidades como estas, sin un beneficio inmediato, ha entrado en lo percibido como deseable a nuestro carácter.

Si una persona ha estado entrenando estas capacidades durante años, el día que el entorno cambie ofreciendo futuros inciertos, se encontrará con la capacidad de explorar conscientemente planes más detallados y numerosos que enviar a su sistema emocional. Su proceso de optimización de la elección final será más largo, pero probablemente el plan final elegido estará más ajustado a la complejidad de la situación, y tendrá menores riesgos de grandes sustos futuros.

La persona que no haya entrenado esas capacidades contará con una voluntad laxa, tenderá a conformarse con lugares comunes y refranes, antes que con un análisis detallado de lo específico de la situación. Las dos clases de personas que comentamos sienten tener “libre albedrío”, y lo tienen en el sentido analizado más arriba: cuando su análisis les ha llevado a planes alternativos que tienen un atractivo emocional muy similar, cualquiera de ellos es elegido, en respuesta a factores insignificantes no conscientes, externos o internos, y en ese momento el yo es consciente de haber elegido voluntaria y libremente. Pero hay una diferencia cuantitativa entre la libertad de una y otra persona, y es que el menú de alternativas entre las que el primero de ellos ha elegido ha sido probablemente mucho mayor que el menú de alternativas del segundo.

Como corolario de esta sección, podemos decir que la intuición de Schöpenhauer sobre la determinación del libre albedrío por el carácter y las emociones es coherente con el conocimiento actual de la neurología. Esa intuición es especialmente correcta para las decisiones inmediatas de la voluntad, a unos segundos vista, que se opongan frontalmente con las emociones que la decisión va a despertar, fundamentadas en nuestra experiencia previa y nuestro carácter. Para los planes de acción y entrenamiento personal que formulamos a largo plazo, podríamos decir que no hay ni determinación ni libre albedrío. Los planes conscientes de acción van trazando vías nuevas para la exploración emocional, y van familiarizando a las emociones con tipos de escenario que unos años o meses atrás habrían provocado miedo automático al propio sistema límbico, o éste habría rechazado por el esfuerzo que requieren, al no saber que ofrecía satisfacciones probables. Esta apertura de vías emocionalmente posibles a largo plazo corre a cargo de intuiciones conscientes, curiosidad, oportunidades afortunadas ofrecidas por el entorno, y la voluntad consciente de exploración y juego. Este conjunto, no es exactamente lo que algunos conciben como “libre albedrío”, pero en mi opinión es el conjunto de factores realistas que más cerca están de este concepto. Una sociedad verdaderamente humana debería dar a todos los humanos un ambiente lo suficientemente estimulante como para que desarrolle un carácter explorador, analítico y deliberativo (abierto a considerar dentro de sus planes las experiencias de otros). Dotados de tal carácter, la decisión final motora a corto plazo será siempre emocional, pero (en las situaciones que no sean de emergencia) se producirá entre alternativas producto de un proceso largo de análisis, por lo que serán decisiones “muy razonadas”.

La mayor libertad que nos es accesible es la de haber tenido la suerte de haber sido estimulados con frecuencia, por ambientes, sugerencias culturales y curiosidad, hacia decisiones que nos facilitaron el cultivar un carácter observador, analítico y deliberativo; y haber contado con la salud y energía suficientes como para explorar esos estímulos, pudiendo haber permanecido actuando automáticamente.

El carácter cultivado a lo largo de los años es el efecto de decisiones personales previas, hechas muchas veces por intuición, sugerencias sociales externas, e inclinaciones temperamentales en gran parte congénitas. El carácter incluye tendencias cognitivas que son diferentes en distintas personas. Por ejemplo, las personalidades creativas tienden a buscar metáforas nuevas para entender situaciones nuevas (véase Las metáforas y la construcción imaginaria de la realidad). Las personalidades ordenadas y sistemáticas tienden a utilizar las metáforas conocidas. Esto es aprovechado por los partidos conservadores, por ejemplo, para proponer marcos metafóricos populares unidos a ideas tradicionalistas a las “personas de orden”, como parte de su oferta electoral (Lakoff 2007). Las personalidades que han tenido una formación intelectual escasa tienden a utilizar la metonimia, en el sentido de que tienden a confundir el estereotipo con la categoría que lo engloba, y el efecto con la causa. Por ejemplo, si en su infancia han vivido en una familia con padre, madre e hijos, tienden a pensar que esa familia prototípica es natural, y que otras clases de familia son aberraciones. O, tienden a pensar que todos los catalanes son tacaños, todos los negros son poco inteligentes, y todos los gitanos son de poco fiar. También, que toda pareja debe ser como la pareja ideal que tienen en su mente. O, colocando efectos en la posición de causas: no es que los inmigrantes tengan que aceptar salarios miserables o el “top manta” por estar en situación límite, sino que “vienen a robarnos a los españoles”; no es que los inmigrantes reciban salarios miserables y por eso no tienen agua caliente en sus pisos, sino que “son sucios”. El recurso metonímico requiere de habilidades cognitivas muy elementales y extendidas, por lo cual es muy utilizado por grupos de ultraderecha para manipular a los sectores menos analíticos de la población.

 

Mapa multi-modal y problemas en la identificación del propio cuerpo

Las sensaciones táctiles de la piel, los músculos y los tendones, se proyectan hasta el cortex somatosensorial primario (S1) y secundario (S2), justo detrás del giro postcentral. En ambas áreas hay un mapa topográfico del cuerpo. Desde allí, se envía información somatosensorial hasta el lóbulo parietal superior (SPL), donde se combina con información del equilibrio procedente del oído interno y con información visual sobre la posición de las extremidades. Estas informaciones juntas construyen una imagen a tiempo real del propio cuerpo en el SPL. Es probable que esta estructura también tenga organizada la información topográficamente.

postcentral_gyrus

Fig. Giro postcentral (en amarillo)

Esta mapa podría ya venir constituido al nacer, como vimos en el post Las bases neurológicas del reconocimiento de los cuerpos y la imitación. Pero si, por alguna patología, un miembro particular del cuerpo no es representado en ese mapa interno, el resultado es previsiblemente una sensación de extrañeza ante la visión del propio miembro, del cual recibimos sensaciones táctiles que el cerebro no sabe colocar en su propio mapa corporal. Pero ese es el síntoma que sufren los pacientes con apotemnofilia: sentimiento del miembro como extraño al propio cuerpo, de “sobrepresencia” del miembro, y deseo de amputárselo, unido a veces con atracción erótica hacia parejas con ese miembro amputado. El sentimiento de aversión vendría de la incoherencia citada, y según Ramachandran (2011, Cap.9) se produciría físicamente en la ínsula del hemisferio derecho, que recibe señales de S2 y envía información a la amígdala, la cual envía señales de empatía o antipatía. En cuanto a la atracción sexual hacia parejas amputadas, podría derivar de que el atractivo sexual de otra persona es dictada en parte por la forma de la imagen corporal que tenemos de nosotros mismos. De ahí que los humanos prefieran a otros humanos como pareja, y los cuervos a otros cuervos.

 

La pulsión por la coherencia narrativa del hemisferio izquierdo y la información derecha

La información que llega a través de los sentidos normalmente se fusiona con recuerdos preexistentes para crear un sistema de creencias sobre uno y el mundo. Ramachandran (2011, cap. 9) sugiere que este sistema de creencias internamente consistente está construido principalmente por el hemisferio izquierdo. Si hay una pequeña pieza de información anómala que no se ajusta a su sistema de creencias, el hemisferio izquierdo trata de suavizar la discrepancia para preservar la coherencia y la estabilidad del comportamiento. Esta tendencia es compensada, según este autor, por el hemisferio derecho, que toma una perspectiva más alocéntrica (desde fuera) de uno mismo, revisa la narrativa coherente que fabrica el ego-centrado hemisferio derecho, y detecta informaciones que éste ha desechado y son significativas. Muchos de los pacientes que sufren trombos en el hemisferio derecho, con parálisis del lado izquierdo de su cuerpo, niegan que sufran parálisis alguna (anasognosia), o afirman que el miembro paralizado no les pertenece. Esto podría derivar de la inactividad de la labor crítica del hemisferio derecho sobre las construcciones quasi-racionales y racionalizaciones del hemisferio hablante (izquierdo). En un caso extremo de anasognosia, una paciente de Ramachandran, tras afirmar una y otra vez que ella podía usar su brazo izquierdo (paralizado), tras requerírsele que se tocara con él la nariz, usó el brazo derecho para tomar la mano izquierda y tocarse la nariz (!). Alguna parte de su cerebro captaba pues que el brazo izquierdo estaba en realidad paralizado, pero esa información no llegaba a su consciencia.

Esta pulsión del hemisferio izquierdo por crear una narrativa lo más coherente posible entre sus impulsos (el ello de Freud) sus experiencias, sus recuerdos y sus valores adquiridos (al que podríamos llamar el superego) durante todo el tiempo, podríamos identificarla con el yo freudiano. El hemisferio izquierdo parece usar incluso los mecanismos de defensa, que identificó Anna Freud, para sostener esa coherencia. Ramachandran da ejemplos de cada uno de ellos sacados de su experiencia clínica:

  1. Negación total. “Mi brazo no está paralizado”.
  2. Racionalización. “¿Por qué no está usted moviendo su mano izquierda tal como le pedí?” Respuesta: “Soy un oficial del ejército, Doctor. No recibo órdenes”, o bien: “Los médicos estudiantes han estado probándome todo el día. Estoy cansado”, o bien: “Tengo artritis grave en mi brazo; es demasiado doloroso moverlo”.
  3. Confabulación. “Yo puedo ver moverse a mi mano, Doctor. Está a una pulgada de su nariz”.
  4. Formación reactiva (exageración en sentido contrario a la verdad inaceptable). “¿Cuánto puede usted levantar esa mesa del suelo con su mano derecha?” “Sobre una pulgada”. “¿Y con la mano izquierda?” “Dos pulgadas”.
  5. Proyección. “El brazo [paralizado] pertenece a mi madre”.
  6. Intelectualización. Casos en que familiares del paciente, incapaces de afrontar la probable muerte del mismo, tratan la enfermedad como un reto puramente intelectual o científico.
  7. Represión. La mayoría de los pacientes de anasognosia se recuperan de este síndrome después de varios días. Uno de ellos insistió durante nueve días en que su brazo paralizado “funcionaba bien”. A la misma pregunta, el décimo día respondió: “Mi brazo izquierdo está paralizado”. “¿Cuánto tiempo ha estado paralizado?” Respuesta: “¡Cómo! Pues durante los varios días que ha estado usted viéndome”. “¿Qué me dijo usted cuando le pregunté por su brazo ayer?” “Le dije que estaba paralizado, por supuesto”. Claramente, el paciente estaba reprimiendo ahora el recuerdo de sus negaciones.

Ramachandran está pues de acuerdo con Daniel Dennett en que más que una entidad real, “el yo es más parecido conceptualmente a un ‘centro de gravedad’ de un objeto complicado, con sus muchos vectores intersectándose en un punto imaginario único”.

 

Memoria y continuidad biográfica

De acuerdo con Ramachandran (2011), los psicólogos distinguen tres clases de memoria: a) memoria procedural: Capacidad de reproducir habilidades aprendidas, como caminar, atarte los zapatos, o montar en bicicleta. Tales memorias son recuperadas instantáneamente cuando la ocasión lo requiere, sin esfuerzo consciente. Es una memoria común a muchos invertebrados y todos los vertebrados. B) Memoria semántica: El propio conocimiento factual de los objetos y eventos del mundo. Por ejemplo, uno sabe que las berenjenas tienen la piel violeta, o que el sol amanece cerca del este. Sería algo similar a un diccionario o a una enciclopedia. Esta clase de memoria la tienen también otros animales. C) Memoria episódica: son los recuerdos de escenas que uno contempló personalmente, que no necesariamente han sido contempladas por otras personas, y que pueden ser “recordadas”. Sería algo similar a un diario. Esta clase de memoria es específicamente humana. El uno-mismo se conceptualiza como único (no diverso) porque no hay ningún otro sujeto que afirme recordar todos los episodios que uno recuerda.

La pulsión a ordenar todas las escenas percibidas por la consciencia primaria en el tiempo, aproximadamente según su orden de aparición, parece ser exclusiva de los seres humanos, y es lo que construye la memoria episódica y la propia biografía. Y aún más exclusivamente humana es la capacidad de imaginar escenas futuras posibles y planes de acción futura, que parecen requerir lóbulos frontales especializados como los del cerebro humano.

Ramachandran (2011) cita un extraño síndrome (descrito por Elden Tulving) en el que el paciente sufre daños en partes de sus lóbulos frontal y temporal y, como consecuencia, pierde toda su memoria episódica y se vuelve incapaz de generar nueva. En esa situación, el paciente no tenía auto-biografía alguna que recordar y, sin embargo, parecía conservar un sí-mismo y un conocimiento factual y semántico normales, que le permitían una interacción normal con los otros y con las cosas, siempre en el presente. Esto sugiere que la auto-biografía es una componente que enriquece al uno-mismo, pero no es indispensable para su funcionamiento.

 

La cultura como una homeostasis generalizada

Para Damasio (2011), la consciencia autorreflexiva posibilita la construcción y realización de planes colectivos, que constituyen una forma extendida del gran fin de los organismos vivos inconscientes, que es el mantenimiento y promoción de la propia vida y su homeostasis. Permite buscar, no sólo la homeostasis presente, sino el bienestar imaginado, anticipado, discutido grupalmente. Se trata de una homeostasis sociocultural que trata de que la forma social de vivir sea sostenible. Para lo cual, inventa la cooperación, el intercambio, las jerarquías, el comunitarismo,  la escritura, las leyes, los roles sociales, los mitos, las técnicas, los saberes mágicos, religiosos y científicos, las artes… Muchas de estas instituciones y sistemas logran mejorar la estabilidad de las relaciones humanas; otras mejoran el bienestar de grandes grupos humanos. Por lo cual, la cultura se puede concebir como una generalización colectiva de la tendencia a asegurar la homeostasis corporal que tienen los sistemas nerviosos animales. De ahí que el funcionalismo de Malinowsky y otros antropólogos tenga cierta justificación biológica. Todas las culturas tienen instituciones (primarias) que resuelven las necesidades biológicas humanas, instituciones secundarias, que resuelven los problemas administrativos, políticos y de orden social, e instituciones terciarias, que cuidan de la reproducción y estabilidad de las instituciones secundarias y primarias mediante visiones del mundo, religiones, marcos metafóricos, saberes científicos, magia, e ideologías (véase el post Ensamblajes socio-técnicos y complejidad social). Sin embargo, culturas diferentes usan visiones del mundo, marcos metafóricos (véase post Las metáforas y la construcción imaginaria de la realidad) e ideologías (Las ideologías y la sociología del conocimiento) diferentes para fomentar la vida colectiva.

La sustantivización y reificación de la capacidad consciente humana, hasta crear un agente interior imaginario (el yo) es un paso metafórico y metonímico que culturas más observadoras que la occidental recomiendan no dar (culturas o subculturas como la taoísta, la budista y la vedanta). La observación introspectiva simplificada que permite la meditación muestra simplemente que el cuerpo hace lo que sabe hacer en cada momento, sin que haya ningún agente “cabalgando encima de él” o dándole órdenes. Pero esa observación tan ecuánime choca, en las sociedades jerarquizadas, con unas demandas y una tecnología de dominación que vienen de fuera: “¡obedece o te mato!”, “¡obedece o atente a las consecuencias!”. Una sociedad en que hay minorías importantes que desean esa forma de orden induce al cerebro a crear una especie de gendarme interior que se especializa en vigilar el comportamiento del cuerpo propio para que no se desvíe demasiado de unas demandas exteriores, con el fin de evitar daños mayores. El yo racional que inventaron los griegos y desarrollaron los cristianos es, por ejemplo, un sistema que antepone el cálculo de costes y beneficios que tienen las acciones personales por encima de las otras pulsiones y capacidades corporales (véase La dominación urbano-estatal y su imaginario y Tensión entre las dos formas occidentales de conocer el mundo).

El gran poder de sugestión que tiene la educación escolar y las costumbres compartidas por muchos, convierten esas demandas externas en valores deseables y objetivos a perseguir razonados y racionalizados como sistemas de valores propios en muchos cerebros. Entonces aparecen como sistemas de valores internos, como sistemas conceptuales asociados a los otros mapas y memorias cerebrales (de hecho, se piensa que son memorizados en el córtex prefrontal). Es lo que Freud denominó el super-yo.

El principio jerárquico de ordenación social, que ordena la sociedad en clases sociales y pirámides de autoridad (y que convive en paralelo, como subraya Graeber, con el principio comunista que se da entre los cercanos, y con el principio de reciprocidad que se da entre los ciudadanos) se empieza a volver importante en ciertos escenarios ecológicos y sociales. En Ensamblajes socio-técnicos y complejidad social analizamos las condiciones bajo las cuales la mayoría social aceptó abandonar el comunitarismo igualitario para entrar en sistemas sociales con jerarquías, que luego se volvieron irreversibles. Estas sociedades jerárquicas fueron un gran estímulo para la generación de la clase de yo que concebimos tener los occidentales, conceptualizado como un amo, con un fuerte componente de super-yo, y en constante vigilancia del comportamiento del cuerpo. Esa clase de uno-mismo no se conforma con observar ecuánimemente lo que hace el cuerpo y su cerebro. Debe dominar su cuerpo y sus actos, aunque en el fondo sabe que no lo hace, porque no existe como agente. Pero las instituciones sociales deben poder castigarlo si se sale del juego del amo y del esclavo.

 

Referencias

Damasio, Antonio (2010). Y el cerebro creó al hombre. Grupo Planeta.

Dennett, Daniel C . (2017). From bacteria to Bach and back: the evolution of minds. W. W. Norton & Company. Edición de Kindle.

Edelman, Gerald and Tononi, Giulio (2000). A Universe of Consciousness: How Matter Becomes Imagination. Ingram Publisher Services, US.

Lakoff G. (2007). No pienses en un elefante. Editorial Complutense, Madrid.

Montefinese M. (2019). Semantic representation of abstract and concrete words: a mini-review of neural evidence. Journal of Neurophysiology, 2019. https://doi.org/10.1152/jn.00065.2019

Ramachandran, V. S . (2011). The Tell-Tale Brain. W. W. Norton & Company .

 

Las bases neuronales y psico-sociales de la consciencia auto-reflexiva

Es útil distinguir entre consciencia primaria y consciencia de alto orden (Dennett). La consciencia primaria es la capacidad de construir escenas mentales de los objetos del mundo, sin una clara conceptualización o sentimiento de uno-mismo o el testigo que observa. Consciencia de segundo orden sería aquella capaz de establecer relaciones, además de con los objetos del mundo, también con sus propios estados mentales (deseos, creencias, recuerdos). Se podría hablar también de consciencia de tercer orden cuando el organismo es capaz de querer que otro crea que él quiere algo, o incluso de consciencia de cuarto orden, etc. Las consciencias de segundo orden y órdenes superiores se pueden agrupar llamándolas consciencia de alto orden.

La consciencia de alto orden es propia de los humanos, y presupone la consciencia primaria, pero le añade el sentimiento de uno-mismo y la capacidad, en el estado de vigilia, de construir explícitamente escenas pasadas y futuras. Además, componentes importantes de nuestra consciencia humana es el sentimiento de voluntad propia (de querer hacer algo; de querer escuchar algo; de querer recuperar un recuerdo perdido, etc.), el sentimiento de estar presentes, como testigos, de lo que hace nuestro cuerpo y de los contenidos de nuestra mente; y también una especie de charla interior, que nos asalta a veces incluso estando callados. Todas esas experiencias conscientes requieren, como mínimo una capacidad semántica y, algunas de ellas, una capacidad lingüística.

La consciencia auto-reflexiva y el uno-mismo

La consciencia auto-reflexiva es una experiencia mental consciente que se presenta como testigo o consciencia de las demás experiencias conscientes que se están produciendo en el momento presente. Esta evidencia fenomenológica resulta aparente cuando uno está atento a la consciencia de objetos simples, como en la práctica meditativa.

Aparenta ser una consciencia primaria de las demás consciencias primarias presentes. No siempre estamos en tal situación de consciencia auto-reflexiva, pero el estarlo es una capacidad mental, que debería tener su substrato de actividad neuronal asociado.

La presencia de un testigo puede ser una metáfora iluminadora y bastante universal de ese proceso mental, pero sin olvidar que es sólo una metáfora que sustantiviza un proceso complejo interior. La observación fenomenológica (y la científica) no muestra la presencia de ningún testigo físico, ni ningún homúnculo interior al cuerpo o a la mente.

La actividad consciente auto-reflexiva se sustantiviza pues frecuentemente, conceptualizándola como un testigo que percibe todas las demás actividades y estados conscientes, y que tiene una continuidad diacrónica (el mismo testigo presenció escenas pasadas). Llamaremos uno-mismo a esa presencia casi permanente con apariencia de testigo. Con cierta frecuencia, a ese testigo se le añaden conceptos aún más detallados, concibiéndolo como: (i) un observador que tiene cierta personalidad o tendencias a la hora de percibir (lo cual parece una conceptualización metonímica: en realidad, son los estados mentales observados los que pueden tener tendencias discriminables); (ii) tiene cierta personalidad a la hora de sentir y pensar (otra conceptualización metonímica: en realidad, son los estados mentales y corporales observados los que pueden contener sentimientos y pensamientos); (iii) es un agente con voluntad libre para tomar cualquier decisión, que es obedecida inmediatamente por el cuerpo (otra conceptualización metonímica, pues es el cuerpo en realidad el que realiza acciones, a veces consciente y a veces inconscientemente). Llamaremos yo a aquel uno-mismo con estas conceptualizaciones extras añadidas. La neurociencia sigue investigando cual puede ser el sistema neural concreto que está en la base de esa consciencia auto-reflexiva y, junto con la psicología, por qué la consciencia auto-reflexiva cae tan fácilmente en el espejismo metonímico de conceptualizarse en la forma de un yo.

Comentamos en un post anterior que la categorización perceptual es una capacidad que parecen tener todos los animales con sistema nervioso vertebrado. Es la capacidad de dividir el mundo de señales en categorías o perceptos. La segunda capacidad necesaria para construir una consciencia primaria es el desarrollo de conceptos. Es la capacidad de combinar diferentes categorizaciones perceptuales relacionadas con una escena u objeto y construir un “universal” que refleje la abstracción de algún rasgo que es común en toda la variedad de perceptos. Esta segunda capacidad parece desarrollarse evolutivamente en grados cada vez más detallados en los animales que evolucionaron primero a reptiles, luego a aves o a mamíferos, y éstos fueron adquiriendo cerebros cada vez más grandes y especializados.

El cerebro de un gato, por ejemplo, parece inspeccionar las actividades de todas sus regiones, y abstrae pautas en el funcionamiento conjunto, pautas que corresponderían a lo que llamamos conceptos. Se trataría de una especie de catalogación no verbal de pautas, del estilo de: «Cerebelo y ganglios basales activos en el patrón a, grupos neuronales en regiones premotoras y motoras que participan en el patrón b, y submodalidades visuales x, y y z simultáneamente interactivas». Esquemas neurales de orden más alto registrarían estas actividades y generarían un output correspondiente a la noción de que un objeto está moviéndose hacia delante en relación con el cuerpo del gato. Edelman y Tononi (2000) piensan que los sistemas corticales responsables de la construcción de perceptos estaban ya en funcionamiento en los reptiles y pájaros de la era secundaria. Luego, evolucionaron las áreas corticales secundarias y sus apéndices, tales como el ganglio basal, momento en que los sistemas de la memoria conceptual emergieron.

En un momento en el tiempo evolutivo que corresponde aproximadamente a las transiciones de los reptiles a las aves y de los reptiles a los mamíferos, apareció una nueva conectividad anatómica crítica. La conectividad reentrante masiva surgió entre las áreas corticales multimodales que llevan a cabo la categorización perceptiva y las áreas responsables de la memoria que asigna valoración emocional a las percepciones. Esta conectividad reentrante derivada evolutivamente es implementada por varios grandes sistemas de fibras corticocorticales que unen una parte de la corteza con el resto y por un gran número de conexiones recíprocas entre la corteza y el tálamo (primera imagen de la figura siguiente).

Tres estructuras dinamicas cerebrales

Los circuitos talamocorticales que median estas interacciones reentrantes se originan en las subdivisiones principales del tálamo: estructuras conocidas como los núcleos talámicos específicos, el núcleo reticular y los núcleos intralaminares. Todas las estructuras talamocorticales y sus conexiones recíprocas actuando juntas vía reentrada conducen a la creación de la escena consciente.

tlamo-y-corteza-cerebral-18-638

Según Edelman y Tononi (2000), la entrada paralela continua de señales de muchas modalidades sensoriales diferentes en un animal en movimiento da como resultado correlaciones reentrantes entre complejos de categorías perceptivas que están relacionadas con objetos y eventos. Su prominencia se rige en ese animal particular por la actividad de sus sistemas de valoración. Esta actividad está influenciada, a su vez, por los recuerdos condicionados por la historia de recompensa y castigo de ese animal adquirida durante su comportamiento pasado. La base para el surgimiento de la conciencia primaria sería la capacidad del animal para conectar eventos y señales en el mundo, ya sea que estén causalmente relacionados o simplemente sean simultáneos, y luego, a través de la reentrada con su sistema de memorizar valoraciones, construir una escena relacionada con su propia historia aprendida. Así, la capacidad de construir una escena consciente es la capacidad de construir, en fracciones de segundos, un presente recordado.

Edelman y Tononi (2000) ponen el ejemplo de un animal en la jungla, que siente un cambio en el viento y un cambio en los sonidos de la jungla al comienzo del crepúsculo. «Tal animal puede huir, aunque no exista un peligro obvio. Los cambios en el viento y el sonido han ocurrido independientemente antes, pero la última vez que ocurrió, apareció un jaguar; una conexión, aunque no probablemente causal, existe en la memoria de ese individuo consciente. Un animal sin dicho sistema aún podría comportarse y responder a estímulos particulares y, en ciertos entornos, incluso sobrevivir. Pero no podría vincular eventos o señales en una escena compleja, construyendo relaciones basadas en su propio historial único de respuestas dependientes de valoraciones. No podría imaginar escenas y con frecuencia no lograría evadir ciertos peligros complejos. El surgimiento de esta habilidad es lo que conduce a la conciencia y subyace a la ventaja evolutiva selectiva de la consciencia. Permite una mayor selectividad al elegir sus respuestas en un entorno complejo

El núcleo dinámico y las dimensiones discriminatorias aprendidas

Comentamos en el post sobre la consciencia primaria la hipótesis de Edelman del núcleo dinámico y los miles de millones de estados que discrimina, producidos por cientos de miles de sistemas especialistas. Además, y en paralelo con el núcleo dinámico, hay muchas rutinas neurales que funcionan automática e inconscientemente. Por ejemplo, los circuitos neurales que miden y regulan la presión de la sangre no tienen la dimensionalidad suficiente para constituir una experiencia consciente, por lo que son similares a un arco reflejo. Muchos de ellos están probablemente activos casi siempre alrededor de la médula espinal, el tronco cerebral y el hipotálamo, y suelen ser inaccesibles al núcleo.

Durante el desarrollo del cerebro y el transcurso de la experiencia vital, nuevas dimensiones discriminatorias quedan disponibles para el núcleo dinámico. Por ejemplo, al principio sólo sabemos distinguir el vino del agua; luego, aprendemos a discriminar el vino blanco del tinto; finalmente, discriminamos un Rioja de un Cariñena. El estado consciente en la madurez incluye un número mayor de diferenciaciones sutiles o dimensiones. Es probable que entre las discriminaciones (o dimensiones conscientes) más tempranas estén las relacionadas con el propio cuerpo, mediadas por estructuras en el tallo cerebral que mapean el estado del cuerpo y su relación con el ambiente interior y exterior, en base a señales multimodales que incluyen componentes proprioceptivas, cinestésicas, somatosensoriales, y autonómicas (Las bases neurológicas del reconocimiento de los cuerpos y la imitación). Podríamos llamar a esas componentes las dimensiones del proto-self. Muchas de ellas son componentes de las que sólo vagamente somos conscientes, pero que influyen en casi cada aspecto de nuestro ser. Igualmente tempranos y centrales son las dimensiones proporcionadas por sistemas de valoración indicando prominencia (saliencia o destacabilidad del estímulo) para el organismo.

Dado que la memoria es recategorizante y hay un constante juego en el tiempo entre sistemas de valor-categoría y categorizaciones perceptuales en funcionamiento, esta consciencia temprana basada en el cuerpo puede proporcionar los ejes dominantes del espacio N-dimensional de referencia, desde el cual se elaboran todos los recuerdos subsiguientes basados en señales del mundo (“no-yo”).  A medida que estas señales nuevas son asimiladas, serían discriminadas según modalidades y categorías relacionadas con las dimensiones iniciales que constituyen el proto-uno. Se construirían siempre imágenes y categorías experimentadas que incluyen a la vez el estado del cuerpo como base. Un animal o un bebé recién nacido con esta dinámica y con consciencia primaria experimentará una escena, aunque no tendrá un uno mismo que sea diferenciable desde dentro.

Edelman piensa que la consciencia de alto orden aparece en paralelo con el lenguaje y se integra en el núcleo dinámico. A la vez que la consciencia primaria se produce a tiempo real, conceptos del pasado y el futuro ligados al lenguaje se añadirían, produciendo nueva imaginería. A la vez, un yo discriminable y nombrable, desarrollado en la interacción social y el lenguaje, sería entonces conectado a la experiencia simultánea de las escenas de la experiencia primaria y a la imaginería basada en conceptos. Obsérvese que, en el modelo de Edelman, el concepto de uno mismo, y por tanto la consciencia de uno mismo, podría proceder de la estructura del lenguaje, en su uso, beneficioso para ordenar una colectividad social. El lenguaje, con su concepto de uno mismo versus otros, sujeto-acción-objeto, etc., podría ser un instrumento para construir comportamientos socialmente sincronizados, a partir de las consciencias primarias individuales. Aunque es posible inducir comportamientos sociales usando instrumentos menos sofisticados que el lenguaje, como las señales corporales y gruñidos que usan los lobos, perros, leones, hienas o herbívoros de la sabana en sus manadas.

Tal desarrollo permitiría a una persona ser consciente de que es consciente. Los qualia (cualidades de la experiencia consciente) podrían ser así nombrados a través de una categorización de alto-orden. Pero en el modelo de Edelman y Tononi el ser antecede al describir, por lo que antes de ser nombrados, los qualia son ya discriminables y hay activaciones neuronales correspondientes a ellos en el cerebro. Ellos son, de hecho, todos los estados que pueden ser discriminados conscientemente (aunque a veces sean discriminados inconscientemente). Una parte importante de las rutinas de identificación de qualia podrían estar localizadas físicamente en áreas de los ganglios basales o del cerebelo, pero harían intervenir a las áreas del córtex especialistas en distintas propiedades de las percepciones. La indexación (seguimiento continuo) del concepto no-verbal podría ser una emergencia de todo el núcleo dinámico con la colaboración esencial del área que detecta movimiento en el objeto. El etiquetamiento verbal del objeto portador de qualia necesitaría de la colaboración esencial de las áreas del lenguaje Wernicke y Broca.

giro-angular-broca-wernicke

 

Concepto de uno-mismo y engaño

Mientras que un animal no lingüístico puede tener una vida mental, esa vida es necesariamente restringida porque el animal carece de un concepto de sí mismo. Aunque tal animal tiene una historia mental única, no es un sujeto, un yo que puede ser consciente de ser consciente.

Como dice Dennett (2017), las razones son cosas para nosotros los humanos, habitantes de nuestro mundo representado, junto a los árboles, las nubes, las casas, los artefactos, las palabras y las promesas que componen la ontología de nuestra especie. Podemos hacer cosas con esas razones: retarlas, refinarlas, abandonarlas, achacarlas a otro, desautorizarlas. Estos comportamientos no estarían en nuestros repertorios si no dispusiéramos de las áreas especializadas en la sintaxis (Broca) y el significado verbal (Wernicke). Representar el estado mental propio como un concepto diferente al del estado del mundo y al del estado mental de otros organismos, es una sofisticación que permite en nosotros comportamientos desconocidos para otros organismos. El yo consciente humano tiene la capacidad de comunicar su estado interno, ideas e intenciones, y de cooperar con otros de forma completamente altruista; pero también la de no comunicarlas, o comunicar las contrarias para despistar a otros. Según el planteamiento de Dennett, la consciencia auto-reflexiva emergió en el proceso evolutivo como necesidad: (i) de comunicar con otros lo aprendido en forma simbólica, a través del lenguaje; (ii) de obtener información para sobrevivir, ocultándola a las otras mentes (de otras especies o de la propia especie) y engañándolas al esconder nuestra comida para que no nos roben, a la vez que intentamos averiguar qué piensan las otras mentes para obtener ventaja sobre ellas. Intentamos entender los estados mentales subjetivos de las otras mentes para adelantarnos a sus intenciones.

En mi opinión, esta última capacidad permite un comportamiento en los humanos muy complejo, y puede haber jugado un papel evolutivo sobre todo porque permite imaginarnos la intención de otros animales y engañarlos sobre nuestro comportamiento, para cazarlos o hacerles caer en trampas. También la capacidad de engañar a observadores de nuestra propia especie puede haber mejorado la adaptación individual, pero con un efecto adaptativo no por encima de la capacidad de comunicación cooperativa que, según la mayoría de las evidencias publicadas, es muy superior. Las evidencias antropológicas describen las sociedades cazadoras-recolectoras como colectivos donde la actitud de adelantarse o aprovecharse de otro es fuertemente desestimulada, favoreciéndose en cambio las actitudes cooperativas y desinteresadas. Como argumentaba Kropotkin, poniendo como ejemplo los animales sociales, el impulso de cooperación tiene un poder de adaptación evolutiva muy superior a la competencia entre individuos, y el propio Darwin reconocía que en su concepto de “lucha por la existencia” no sólo se refería a la lucha de un individuo contra otro, sino a la lucha de todos ellos juntos contra la presión de selección de los ambientes naturales. En la supervivencia en entornos difíciles, la cooperación intraespecífica (y a veces inter-específica) puede ser más importante que la “lucha cuerpo a cuerpo”. En conclusión, es dudoso que las ventajas evolutivas que puede tener para un individuo el engañar a los otros de su especie puedan ser superiores a las ventajas que tiene el impulso de comunicar eficazmente con ellos. Puede que el que la información transmitida sea imprecisa, incompleta o incluso desorientadora para el oyente sea un factor evolutivamente irrelevante o contraproducente. Además, la teoría de juegos nos muestra que en una población de autómatas artificiales, una fracción de los cuales tiene reglas de interacción cooperativas y otra fracción reglas egoístas y perjudiciales para los otros, la fracción egoísta no puede dejar de ser muy minoritaria o, en caso contrario, el grupo deja de ser una sociedad y se descompone en comportamientos individuales autónomos, mucho más  expuestos a la muerte prematura. Esto sugiere que los comportamientos egoístas tienen el potencial de destruir la colaboración general que constituye una sociedad adaptada al medio y que, si se permite la existencia de comportamientos egoístas, éstos deben quedar confinados en un grupo pequeño de individuos o bien en momentos infrecuentes en las interacciones de cada individuo.

La aparición ontogenética y filogenética de la consciencia reflexiva

La información es una discriminación hecha por un sistema, que le permite cambiar de estado interno y, como efecto, cambiar de comportamiento. La creación, transmisión y procesamiento de información con significado es algo que se ha mostrado enormemente adaptativo en entornos cambiantes, y parece exigir animales con cerebro y memoria, lo que excluye a bacterias y protozoos.

El cerebro trabaja mediante reconocimiento y selección de pautas de interacción entre grupos neuronales especialistas (anclados en estructuras neurales seleccionadas por selección natural) que generan escenas conducentes a comportamientos que se demuestran útiles para satisfacer los impulsos biológicos corporales.

El núcleo dinámico de un animal superior, a partir de subsistemas neurales especializados, produce escenas que relacionan señales de muchas modalidades diferentes con una  memoria basada en una historia evolutiva completa y la experiencia de un individuo (reforzada por valoraciones): es un presente recordado. Esta escena se integra y genera una cantidad extraordinaria de información en menos de un segundo. Por primera vez en la evolución, la información adquiere un nuevo potencial: la posibilidad de subjetividad. Es información «para alguien», aunque inicialmente ese alguien no exista aún de forma auto-consciente; en resumen, se convierte en consciencia primaria.

Si los animales pueden realizar tantos comportamientos útiles y adaptativos mediante  competencias corporales sin que sus cerebros les asignen significados a esas competencias, y sin la experiencia de estarlas realizando “uno-mismo”, ¿qué utilidad selectiva tienen los sistemas cerebrales humanos capaces de generar significado a las acciones y sentido del uno-mismo?

La arquitectura neuronal del cerebro humano parece ser una de las fuentes de información más creativas de toda la naturaleza. La consciencia de alto-orden propia de los humanos incorpora una propiedad nueva que es la capacidad de crear los conceptos de uno-mismo, los otros, pasado, presente y futuro, y relacionar semánticamente los antiguos conceptos generados por la consciencia primaria, y sus especialistas inconscientes asociados, en torno a estos nuevos conceptos.

Dennett sugiere que, a partir de los cerebros primates con sus complejas rutinas bottom-up (abajo-arriba) de construcción de conceptos, un conjunto de nuevos sistemas cerebrales permitieron la manipulación lingüística y el intercambio grupal de esos conceptos, lo cual permitió la evolución cultural de los conceptos y de las acciones reguladas por ellos. Por ejemplo, los que regulan la construcción de artefactos, o sincronizan el comportamiento colectivo adecuado en cada situación. Uno de los productos de esa capacidad ha sido la creación de la lógica matemática, las teorías científicas y los modelos de comportamiento de los objetos observables del mundo.

Rupestre pintando

 

El comportamiento de los humanos socializados deja de estar limitado a la respuesta del animal a sus conceptos, y empieza a estar guiado por esquemas previsores, basados en una conceptualización colectiva de la naturaleza. Mediante la manipulación lingüística, el gusto infantil por la imitación, que es fundamental para el aprendizaje de las conductas que nos muestran los padres, es generalizado hasta la imitación en el uso de los conceptos abstractos de los propios padres (incluido el concepto de uno-mismo) y de otros individuos. Los conceptos más abstractos siguen estando basados en los sistemas cerebrales básicos de conceptualización de los perceptos, pero pasan a ser culturales. Estos conceptos culturales más abstractos pueden además ser actualizados continuamente según su mayor o menor utilidad de su uso en la comunicación y cooperación colectivas. Esto introduce la posibilidad de una evolución cultural de tipo lamarckiano, mucho más rápida que la evolución por selección natural. Según Dennett, esta evolución cultural se podría caracterizar como una co-evolución de los antiguos genes con los nuevos memes, que serían estructuras conceptuales culturales. Los primeros gruñidos significativos de los homínidos arcaicos y las frases de la lengua, con sus significados asociados, serían los primeros ejemplos de estos memes. Otros autores, como Marvin Harris, consideran que el término meme no añade nada a la ciencia de la cultura y que los conceptos de la antropología cultural, la semiótica y las demás ciencias humanas son suficientes para analizar lo que sabemos sobre la evolución cultural humana.

Para Edelman y Tononi, la aparición de la consciencia de alto orden, que incluye la capacidad reflexiva (o capacidad de ser consciente de ser consciente),  es dependiente de la emergencia de capacidades semánticas y de lenguaje. Según la descripción de https://webs.ucm.es/info/pslogica/mente/cap7.htm , al presente recordado (consciencia primaria) se le añade una estructura de pasado y futuro, aunque Edelman no da detalles neurológicos de cómo se produce esto. Nace así la conciencia del tiempo fundamentalmente asociado a nuestro transcurrir vital, como egos observadores de  la secuencia de episodios que tenemos catalogados como buenos, agradables o placenteros o, a la inversa, malos desagradables y dolorosos. Nuestro nivel de consciencia pasa a ser, de este modo, una consciencia de la consciencia de lo que nos pasa en cada escenario como organismos independientes de un medio con el que interaccionamos y que nos afecta.

Un animal con solo consciencia primaria puede generar una «imagen mental» o una escena basada en la actividad reentrante integrada en el núcleo dinámico. Esta escena está determinada en gran medida por la sucesión de eventos reales en el entorno y, en cierta medida, por la actividad subcortical inconsciente.

Aunque tiene un «presente recordado», mantenido por la actividad en tiempo real del núcleo dinámico, no tiene un concepto del pasado o del futuro. Estos conceptos surgieron solo cuando las capacidades semánticas, la capacidad de expresar sentimientos y referirse a objetos y eventos por medios simbólicos, aparecieron en el curso de la evolución. Según Edelman y Tononi, la consciencia de alto-orden apareció en parte como resultado de los intercambios lingüísticos en una comunidad de hablantes. Pero su base neuronal fue el desarrollo de un tipo específico de conectividad reentrante, esta vez entre los sistemas cerebrales para el lenguaje  y las regiones conceptuales existentes del cerebro. La aparición de estas conexiones neuronales y la aparición del habla permitieron la referencia a estados internos y objetos o eventos por medio de símbolos.

La adquisición de un léxico creciente de tales símbolos a través de interacciones sociales, probablemente basadas inicialmente en las relaciones afectivas y emotivas entre madre e hijo, permitió la discriminación de un yo dentro de cada conciencia individual. Cuando surgieron las capacidades narrativas y afectaron la memoria lingüística y conceptual, la conciencia de orden superior podría fomentar el desarrollo de conceptos del pasado y el futuro relacionados con ese yo y con los demás.

Si la conciencia primaria ata al individuo al tiempo real, la conciencia de orden superior permite al menos un divorcio temporal, que es posible gracias a la creación de conceptos de tiempo pasado y tiempo futuro. Esto permite hacer planes: crear una imagen mental de escenarios que prometen recompensa futura, y mostrárselo (como si fuera una imagen sensorial real) al sistema límbico o de las emociones, que es quien moviliza (o no) a las fuerzas que son capaces de mover realmente al organismo hacia esa imagen.

Antes de que apareciera la semántica y la consciencia de alto-orden, la consciencia primaria y una capacidad conceptual amplia debían preexistir en los cerebros humanoides. Antes de que el lenguaje esté presente, los conceptos dependen de la capacidad del cerebro para construir «universales» a través de un mapeo de orden superior de la actividad de los propios mapas perceptivos y motores del cerebro. Además, algunos sonidos deben ser recordados asociados a referentes. Finalmente, ciertas áreas del cerebro deben responder a esas vocalizaciones, categorizarlas y conectar la memoria de su significado a conceptos, valores y respuestas motoras.

La relación fundamental en el intercambio lingüístico es tetrádica entre al menos dos participantes, un símbolo y un objeto. Es la estabilidad de este objeto (que puede ser un evento) y la degeneración de las redes de selección en cada cerebro lo que en conjunto permite la construcción de un léxico estable con significado. No importa que los símbolos utilizados sean más o menos arbitrarios y que, debido a la degeneración, diferentes neuronas estén involucradas en los cerebros de los dos participantes que intercambian. La constancia de la referencia a un objeto y la fijeza de la conexión entre el objeto y el símbolo convencional en cada cerebro son suficientes para asegurar transacciones con significado.

En estas transacciones, es probable que la unidad de intercambio no sea una palabra atómica sino el equivalente de una oración primitiva. Tal oración, como un gesto, puede transmitir acción o inmanencia y puede referirse a eventos o cosas. La aparición de la sintaxis a partir de una «protosintaxis» relacionada con los gestos  que conecta acciones señaladas y objetos en secuencias de actos motores dio como resultado la capacidad de clasificar el orden de las palabras. Esta habilidad probablemente requirió la selección de repertorios ampliados en partes de la corteza, como el área de Wernicke y el área de Broca y sus bucles subcorticales asociados. La secuencia durante el desarrollo va desde la fonología hasta la semántica y luego, de forma superpuesta, desde la protosintaxis hasta la sintaxis. Además de permitir la designación de objetos y eventos, el lenguaje tiene funciones expresivas que permiten el intercambio de sentimientos y juicios.

Si bien no está claro cuándo comienza el uno-mismo (la consciencia de sí mismo) en un bebé, podemos estar seguros de que, desde el nacimiento, el bebé está construyendo sus propias «escenas» a través de la conciencia primaria y que estas escenas rápidamente comienzan a ir acompañadas de la renovación de conceptos a través de gesto, habla y lenguaje.

Con la posible excepción de los místicos, como humanos no podemos experimentar directamente la conciencia primaria en ausencia de una conciencia de orden superior. Por lo tanto, no podemos decir si la experiencia de visión, ruido o dolor de un animal es muy parecida a la nuestra. Sin embargo, lo que podemos decir es que un animal sin capacidades semánticas o lingüísticas carece de la memoria simbólica que le permita relacionar explícitamente sus diversas experiencias cualitativas con un testigo o uno-mismo.

Desde el punto de vista de una persona, los qualia son categorizaciones de orden superior por un testigo, de las experiencias conscientes de ese uno-mismo, que están mediadas por la interacción entre  recuerdos de categoría-valor y la percepción. La capacidad de describir y elaborar varios qualia requiere la presencia simultánea de consciencia primaria y consciencia de orden superior.

El problema de las explicaciones de Edelman y de Dennett es que dejan en el misterio el mecanismo neuronal concreto que permitió el salto de la consciencia primaria a la consciencia capaz de verse desde fuera, y de verse como sujeto de una acción sobre un objeto (la estructura sintáctica y semántica básica, origen del lenguaje).

¿El surgimiento del concepto de yo-mismo, u observador de la película de consciencias primarias pasadas, presentes y eventualmente futuras, viene antes que el aprendizaje de la estructura lingüística, con su sujeto-verbo-predicado, o es a la inversa? El tema no está cerrado, pero la observación del desarrollo de estas capacidades en bebés y niños muy pequeños puede darnos algunas pistas, por lo que pasamos a comentarlo.

Dio Bleichmar (2009) cita las investigaciones de Stern sobre la evolución cognitiva del niño. Este autor mostró que el bebé entre 0 y 2 años ya muestra asociaciones automáticas entre las percepciones visuales, y las táctiles o auditivas (percepción amodal), lo cual sugiere que esta capacidad viene ya incorporada o altamente facilitada por la organización fisiológica de las partes del cerebro. En un post anterior, sobre la imitación del bebé, estudiamos las observaciones de Meltzorf y Moore (1997) sobre la generación de un mapa corporal multi-modal (a la vez sensorio-motor y visual) en los bebés entre 0 y 2 años. Esta percepción multi-modal facilita aparentemente la construcción mental ya en estos meses de percepciones primarias de objetos externos (éstos serían los primeros conceptos ligados a percepciones, o perceptos) y de que las formas corporales externas son similares a las del propio cuerpo.

Entre los dos y seis meses, el bebé parece adquirir una consciencia creciente de que está físicamente separado de su madre y de otros cuerpos. Se forma un “sí mismo nuclear” en contraste con el otro nuclear. Esta consciencia de separación podría surgir de la consciencia (primaria) de la presencia de deseos, vagas intencionalidades motoras, y vagas voliciones interiores, que preceden a todo acto motor como llevarse el dedo a la boca. También a la consciencia primaria de invariantes en su percepción interna (física y mental) cada vez que cuerpos humanos externos realizan determinadas acciones. Por ejemplo, dice Stern, “la madre que hace gestos, la abuela que hace cosquillas, el padre que arroja el bebé al aire, la canguro que emite sonidos, el tío que le pone voz a un títere procuran por igual experiencias de alegría al bebé. Lo que tienen en común esas “cinco” alegrías es la constelación del rostro del infante, el perfil de activación y la cualidad del sentimiento subjetivo. Esta constelación es lo que permanece invariante en los diversos contextos y que irá constituyendo un sentido del sí mismo nuclear” (Dio Bleichmar, 2009). De modo similar, la consciencia primaria del bebé identifica estados internos invariablemente de cólera, interés, malestar o alegría, cada vez que se producen ciertas situaciones externas similares. De este modo, la poderosa capacidad casi congénita del bebé de detectar pautas en las percepciones externas e internas va generando poco a poco el concepto de algo invariante asociado a las emociones y acciones del propio cuerpo, que no es exactamente igual a los cuerpos y objetos externos.

Entre los 7 y 9 meses, el bebé descubre que los demás cuerpos humanos son intencionales y mentales como él mismo, y que los contenidos emocionales y conscientes propios pueden ser compartidos con otros.

Ejemplo de compartir la atención: “El gesto de señalar y el acto de seguir la línea de la visión del otro se cuentan entre los primeros actos que permiten inferencias sobre compartir la atención o establecer una atención conjunta. Para que la madre que señala tenga éxito, el infante tiene que saber dejar de mirar a la mano que apunta, y mirar en la dirección que ella indica, mirar el blanco. Murphy y Messer (1977) lo demostraron, no sólo los infantes siguen visualmente la dirección señalada sino que, después de alcanzar el blanco, vuelven a mirar a la madre, y parecen utilizar la retroalimentación del rostro de ésta para confirmar que han dado con lo que se señalaba. Esto es más que un procedimiento de descubrimiento -aunque el bebé no se percate de esta operación” (Dio Bleichmar, 2009).

Ejemplo de compartir la intención: “Los ejemplos más directos y comunes de la comunicación intencional son las formas protolingüísticas de pedir. La madre sostiene algo que el bebé quiere, el infante tiende las manos mientras efectúa movimientos de aferrar, y mira de ida y vuelta a la mano y el rostro de la madre y vocaliza “Eh, eh” con tono imperativo (Dore, 1975). Estos actos implican que el infante le atribuye a la madre un estado mental interno, a saber: la comprensión de la intención del bebé y la capacidad para tratar de satisfacer esa intención. Las intenciones se han vuelto experiencias compartibles” (Dio Bleichmar, 2009).

Ejemplo de compartir la afectividad: “Consiste en el apareamiento entre un estado interior emocional y el trasmitido por la expresión facial materna. El fenómeno descrito como referencia social muestra esta capacidad. Bebés de un año son colocados en una situación que les crea incertidumbre -tentados con un juguete atractivo que para alcanzarlo gateando deben atravesar un declive aparente, moderadamente amenazador, un verdadero “precipicio visual”. Cuando el infante se encuentra en esa situación y da muestras de duda, mira a la madre para leer en su rostro el contenido afectivo, o sea para saber qué debe sentir él y contar con una evaluación que lo ayude a resolver la duda. Si la madre sonríe, el niño cruza, si la madre muestra miedo facial, el bebé da la vuelta y se retira. Los bebés no efectuarían este tipo de control si no le atribuyeran a la madre la capacidad de dar señales para su propio estado emocional” (Dio Bleichmar, 2009).

El bebé de un año se da cuenta de que sus movimientos están separados del movimiento de su madre, aunque aún es incapaz, normalmente, de reconocer su propia cara en un espejo, es decir, parece tener ya un sentido de sí mismo aunque limitado (Yawkey y Johnson). A esa edad, pronuncia sus primeras palabras, sin embargo, aún no domina la sintaxis del lenguaje, que se produce durante el segundo año de vida. El uso de ese proto-lenguaje entre el año y los dos años parece aumentar enormemente los modos de “estar-con” otro, de detallar las experiencias y procesos pertenecientes al propio cuerpo y los procesos pertenecientes al exterior, y de empezar a barruntar la existencia de emociones, deseos y sentimientos no sólo en el propio cuerpo sino también en el otro. Al año y medio, el niño suele reconocer ya a su propio cuerpo en el espejo.

bebe ante espejo

Fig. Niño reconociéndose ante el espejo por primera vez

 

El lenguaje ya desarrollado, con sus tiempos pasados, presentes y futuros, permite que esas experiencias mutuas de significado sean clasificadas mediante palabras y recordadas luego como pertenecientes a escenas ya vividas, escenas presentes o como planes de futuro. Ello posibilita que el niño empiece a construir un relato de su propia vida. Quizás por ello, los primeros recuerdos autobiográficos (las primeras imágenes recordadas de uno mismo en interacción con el mundo) se produzcan siempre después de la adquisición del lenguaje, no antes.

El sentido del sí-mismo se intensifica y cobra un contenido muy detallado con etiquetajes sociales como “nene bueno”, “nene malo”, “nene desobediente”, “niña feliz”, etc. En particular, la opinión de los padres o personas de las que uno depende parecen tener un papel muy estructurante del contenido de la propia identidad. Sólo cuando el niño empiece a participar en una red con otros mediadores socializantes -iguales, profesores, etc.- estos significados pueden sufrir un cambio.

La consciencia de uno mismo comenzaría según esta descripción con el sí-mismo nuclear a partir de los dos meses (una vaga sensación de separación entre actos motores y deseos ligados a un cuerpo propio respecto de actos procedentes de los objetos y cuerpos del exterior), y se intensificaría grandemente con los etiquetajes conceptuales que se producen en la interacción entre el bebé y su madre (que es ya un ser con consciencia auto-referente y con lenguaje), y esta consciencia auto-reflexiva crecería ya explosivamente durante el inicio del lenguaje, a los dos años. El dominio del etiquetaje lingüístico, junto a la consciencia de una actividad corporal nuestra que está separada del mundo, y junto a la capacidad de los sistemas conceptuales cerebrales de identificar las pautas de funcionamiento de otros especialistas cerebrales (y su valor en distintas circunstancias perceptuales), permitirían la generación del self o uno-mismo, una especie de censador de estados internos que a la vez es un narrador autobiográfico de escenas externas: (i) asigna al propio cuerpo estados internos complejos tales como creencias, emociones, sentimientos e intenciones y (ii) asigna a determinadas escenas en las que está nuestro cuerpo en compañía de objetos del mundo, la etiqueta de “mi cumpleaños del año pasado”, o “mi cumpleaños de ahora, en que cumplo tres añitos”. En su forma más desarrollada, tras el dominio del lenguaje, el uno-mismo es una especie de narrador auto-biográfico de emociones y estados corporales distribuidos a lo largo del tiempo.

Simultáneamente, y también catalizado por la rica sintaxis del lenguaje, el cerebro del niño empieza a asignar estados internos cada vez más complejos (intenciones, sentimientos, etc.) también a los otros con los que interacciona, culminando a sus 5 años en una “teoría de la mente” de los otros a imagen y semejanza de la visión que tiene de su propia mente.

La inducción de la actitud auto-reflexiva y las neuronas espejo

Filogenéticamente hablando, Antonio Damasio propone la siguiente secuencia de sucesos para explicar la emergencia de una consciencia auto-reflexiva: En primer lugar, evolucionan animales con mente (con consciencia primaria, en la terminología de Edelman; sin consciencia, en la perspectiva de Damasio). Son capaces de crear perceptos (que Damasio llama imágenes) y a esos perceptos el sistema límbico cerebral asocia emociones (miedo, precaución, deseo, apetito, agresividad…) de mayor o menor intensidad, de acuerdo con sus instintos y con sus experiencias previas. Tales mecanismos tienen la capacidad de orientar el comportamiento del cuerpo adaptativamente la mayoría de las situaciones, de ahí que sean seleccionados evolutivamente. Estos animales suelen tener también interoceptores que informan del estado de partes del cuerpo (óptimo, habitual o problemático) y producen una respuesta del tronco encefálico destinada a corregir si hace falta el problema, como temblores en la piel, etc. El tronco encefálico de algunos de estos animales se especializó en construir (en lo que hoy es el hipotálamo y estructuras relacionadas), percepciones asociadas a esas informaciones corporales, como las sensaciones de daño físico en algunos tejidos, falta de nutrientes o de agua en sangre e intestino, temperatura anormalmente baja y unos sentimientos primordiales que son las percepciones de esas sensaciones, como el dolor, el hambre, la sed, el frío, o la tranquilidad. Tales sentimientos primordiales constituyen un precursor del sí-mismo o proto-si-mismo.

Modificaciones genéticas posteriores en algunos de estos animales posibilitaron que las regiones cerebrales que representaban sensorialmente el mundo se conectaran con las áreas del estado corporal. De este modo, los sentimientos primordiales corporales podían ser modificados por la información externa, y la modificación del sentimiento primordial inducía mayor variedad de acciones corporales en respuesta a las variaciones del mundo exterior representado. Entiendo que un mecanismo adaptativo tan fundamental debía de estar ya presente en los primeros animales con cerebro, por pequeño que fuera éste, aunque Damasio no lo aclara. En esta clase de organismos, la relación entre el cuerpo y el objeto perceptual es descrita en una secuencia narrativa de imágenes, algunas de las cuales son sentimientos. Según Damasio, estos animales tienen ya un sí-mismo central, lo que en su terminología significa el sí-mismo más simple posible, que produce una consciencia central de sí, o primera forma de la consciencia autorreflexiva. En animales con un cerebro más desarrollado se generará un sí-mismo autobiográfico, cuando los cerebros añaden un recurso nuevo: la capacidad de asignar, a sus combinados de imágenes externas con sentimientos corporales, la etiqueta de pasadas, presentes o futuras (la consciencia autobiográfica).

Existe una diferencia ineludible y fundamental entre el aspecto que proporcionan los interoceptores del interior de nuestro organismo, controlado por homeostasis entre límites muy estrechos, y todas las cosas y acontecimientos que suceden en el mundo y en el resto del cuerpo. Esa percepción interoceptora continua de un cuerpo interior relativamente constante en comparación con las señales sensoriales es para Damasio la base del sentimiento de unicidad que tiene el uno-mismo o testigo. A esto se añade la percepción del lento cambio de la topología del cuerpo que nos envía señales interoceptoras y táctiles, mientras que las escenas perceptuales cambian sus combinaciones de formas con enorme rapidez. Una propiedad que tiene el uno-mismo, tal como lo percibimos, es que es percibir sin discontinuidades y que tiene siempre algo que percibir aunque no haya objetos sensoriales ni pensamientos (por ejemplo, su propia capacidad o su propia existencia). Según Damasio, tal propiedad podría derivar de que los mapas de sensaciones interoceptoras que llegan al cerebro están siempre a disposición de la consciencia cerebral, que puede focalizar la atención sobre ellos siempre que quiera, pues no son cambiantes en el enorme grado que lo son las sensaciones. En términos de Edelman, diríamos que las percepciones interoceptoras forman parte siempre del núcleo dinámico que constituye la consciencia, y la experiencia consciente sabe, consciente e inconscientemente, que forman parte permanentemente de su ser.

La descripción de Damasio tiene cierta lógica, pero sigue siendo un tanto oscuro por qué esa secuencia conduce finalmente al sentimiento de ser consciente de ser consciente, tan característico de la consciencia autorreflexiva humana. El mecanismo que propone Ramachandra (2010) para que la actitud auto-reflexiva se añada a la consciencia primaria es mucho más concreto. Veámoslo.

La capacidad de otorgar intenciones, deseos y sentimientos a otras personas parece derivarse del funcionamiento de las llamadas neuronas espejo (véase Las bases neurológicas del reconocimiento de los cuerpos y la imitación). Estas neuronas, que forman parte de los varios sistemas motores y sensoriales del cerebro, se activan no sólo cuando inducen un movimiento o perciben una sensación, sino también cuando observan que alguien realiza un movimiento o recibe una sensación.

La ventaja más evidente de tener neuronas espejos en distintas áreas sensoriales y motoras es que te permiten descubrir las intenciones de otra persona. Cuando ves que la mano de tu amigo Jose se mueve hacia la pelota, tus propias neuronas motoras que alcanzan la pelota comienzan a disparar. Al ejecutar esta simulación virtual de ser Jose, tienes la impresión inmediata de que tiene la intención de alcanzar la pelota. Esta capacidad crea así una teoría de la mente pre-analítica: el prejuicio automático de que en otros cuerpos ocurren los mismos fenómenos mentales que en el propio. Esta capacidad puede existir en los grandes simios en forma rudimentaria, pero los humanos somos excepcionalmente buenos en eso. Según Ramachandran, estas neuronas espejo pueden haber evolucionado en los humanos para tomar el punto de vista de otros no sólo visual, táctil o auditivo, sino también conceptual. Esta hipótesis implica que cuando observamos a alguien observar atentamente una escena, algunas de las  neuronas que se activan en nuestro cerebro cuando observamos atentamente esa clase de escenas, se activarían en ese momento. Sin duda, tenemos la capacidad de imaginarnos (simular a tiempo real) la perspectiva del otro, y la suponemos también en los otros, como lo demuestran las expresiones: “veo lo que quieres decir”  ó “míralo desde mi punto de vista”.

journal.pbio.0030079.png

Fig. Activación neuronal de los hemisferios cerebrales cuando grupos de humanos ven: (i) la acción de agarrar una taza, (ii) una escena con tazas sin la acción y (iii) la acción dentro de la escena. De: Iacoboni et al. (2005). La diferencia entre las imágenes inferiores y la suma de las dos anteriores sugiere que el reconocimiento de intenciones complejas (intención de agarrar una taza para lavarla o para beber) está asociada a la activación del córtex frontal inferior del hemisferio derecho. Este área podría estar añadiendo la escena esperable a continuación (lavarla o beber) a la escena intencional de agarrar la taza  

 

Pero una hipótesis aún más atrevida de Ramachandran es que la consciencia de sí-mismo del niño podría surgir de la posibilidad que abren las neuronas espejos de imitar uno el punto de vista conceptual del otro. En particular, durante la interacción de la madre con el hijo, ésta juega frecuentemente a señalarle a él mismo como objeto de observación. El niño podría tratar de imitar su punto de vista conceptual (él mismo como un  objeto de observación de observadores externos) gracias a las neuronas espejo. De hecho, cuando decimos que una persona es “muy consciente”, uno de los contenidos de este concepto es el de que se trata de una persona que es muy consciente de que sus actos e intenciones pueden ser observados y valorados conceptualmente por otros, y de ahí que trate de comportarse de forma cabal.

Sin embargo, Ramachandran no se atreve a ofrecer un mecanismo de cómo actuarían las neuronas espejo, sin duda en colaboración con otros sistemas neurales, para construir una experiencia de auto-consciencia. Ya hemos comentado que las neuronas espejo pueden inducir a imitar con el cuerpo, las sensaciones corporales y las conceptualizaciones propias lo que el otro externo hace, siente, percibe o conceptualiza. En mi opinión, el niño puede tratar de imitar con su cuerpo lo que su madre hace cuando lo mira atentamente (o lo miró), y lo puede hacer de dos formas diferentes, que son a su vez las dos formas principales de la auto-reflexión:

A- Simulación de mi imagen corporal como si fuera vista desde fuera: Representarse mentalmente la imagen visual y táctil (multimodal) que el cerebro tiene del propio cuerpo, pero enmarcada en el espacio cotidiano que le rodea. Las neuronas espejo de mi aparato visual que se excitan cuando veo un cuerpo exterior habrían aprendido a activarse también cuando imagino una forma corporal, congruente con mi mapa corporal multi-modal, situada dentro del espacio cotidiano.

B- Observación de mi mente, simulando ser otra mente: Si como resultado de una excitación sensorial exterior, de un recuerdo, o de cualquier estímulo inconsciente indefinido, las áreas especialistas del cortex generan de forma automática e inconsciente un percepto o un concepto repentino espontáneo, y hay neuronas espejo en el sistema visual que se activan ante esa conceptualización como se activarían al percibir una forma visual (no demasiado detallada), probablemente ese concepto mental sería indexado (señalado y etiquetado) como si lo estuviéramos contemplando visualmente. Un mecanismo de este tipo podría ser la base de la capacidad de identificar los contenidos mentales (conceptos, intenciones, recuerdos) como si los mirara desde fuera. En la vida consciente normal esta clase de reconocimiento autorreflexivo de contenidos mentales concretos suele ser fugaz, pues la construcción de un concepto por el cerebro suele desencadenar reacciones de otros sistemas especialistas, y cambios en la actividad de otros sistemas del núcleo dinámico, lo cual provoca que la consciencia cambie el foco rápidamente hacia otros asuntos.

Esa sensación de estar percibiendo desde fuera el contenido de la consciencia se incrementará y hará más claro y definido si añadimos a la percepción del contenido mental una atención muy despierta y ecuánime, como ocurre en la meditación. Ello permite percibir directamente todas las señales que el cerebro puede identificar como procedentes del cuerpo aquí y ahora (táctiles, sonoras, visuales, construcciones mentales instantáneas y cháchara verbal interior) pero inhibiendo cualquier reacción motora que tiendan a provocar, inhibiendo las emociones de dolor o placer que las sensaciones corporales suelen provocar, e inhibiendo todas las asociaciones automáticas (significados) que el cerebro suele generar tras las percepciones corporales y tras las conceptualizaciones mentales instantáneas. Esto es, el núcleo dinámico trata de inhibir todas las reacciones que suelen provocarle habitualmente las percepciones táctiles, las percepciones de las posiciones corporales, las señales que nota desde los órganos internos, así como las reacciones motoras y las cadenas de asociaciones conceptuales que suelen dispararse tras la aparición en la mente de una imagen o un concepto verbal. De este modo, todas las señales internas que el cuerpo y el cerebro generan pueden ser percibidas sin que afecten automáticamente a otras partes del cerebro, sin que se integren con reentradas y retroacciones iterativas múltiples en la dinámica del resto del cerebro. Esto es, pueden ser percibidos como si fueran contenidos de una mente, pero que no afectan al resto de contenidos de la propia mente.  En paralelo, las neuronas visuales que suelen activarse cuando percibo formas genéricas exteriores (aún sin detallar en exceso) habrían aprendido a activarse también cuando el núcleo dinámico percibe y aísla una de las imágenes mentales que hemos comentado arriba.

Como el hábito inconsciente es el de que cualquier imagen mental desencadene todo un diálogo interior, a veces largo, de reacciones y contra-reacciones generadoras de nuevas imágenes mentales, la inhibición y aislamiento de esas imágenes instantáneas durante la meditación requiere una atención consciente continua del núcleo dinámico para sólo observar la imagen mental en cuanto se presenta, sin activar recuerdos ni emociones (las actitudes de atención y ecuanimidad), hasta que se desvanece (“dejar ir”).

Un interrogante adicional es por qué el sí-mismo o testigo que emerge en las experiencias auto-reflexivas es percibido como un observador único, y no como una serie de observadores inconexos y separados, como las propias percepciones. Esa unidad podría proceder de la pulsión de coherencia que tiene el núcleo dinámico, una de cuyas componentes es el uso continuo por el córtex visual del principio de causa-efecto para las percepciones contiguas. Los sistemas semánticos integradores del córtex usan inputs de las áreas especialistas del color, los bordes, el volumen, el movimiento, etc., y a partir de esas activaciones neurales locales generan el concepto de que hay un objeto único, con límites definidos, cuya aparición en lugares espacialmente cercanos en escenas sucesivas es causada por el movimiento que llevan asociado, y cuyo volumen puede ocultar parcial o totalmente a otros objetos que están “detrás” en el espacio. Esta forma de funcionar trae ya en su diseño anatómico los aprioris (pre-juicios) cognitivos que descubrió Kant: que todas las sensaciones deben ser integradas en forma de eventos en el espacio y en el tiempo, que esos entes obedecen a cadenas de causa-efecto; así como pre-juicios como que hay objetos con volumen en ese espacio, y otros.

La forma más sencilla de actitud auto-consciente es la A, y probablemente nos sea inducida por primera vez por la propia madre cuando nos observa e interpela una y otra vez como lo hace con los objetos externos, y el bebé que fuimos trata de imitarla. Si se confirma que este es el mecanismo que hace nacer la auto-consciencia, una madre te haría nacer dos veces: la primera, físicamente mediante el parto; la segunda, como ser auto-consciente, cuando te enseña a verte a ti mismo como un objeto exterior.

La actitud autoconsciente B es más compleja y probablemente se aprendería posteriormente. Esta activación peculiar de las neuronas espejo permitiría señalar con la mente conceptos o sensaciones de la propia mente y, por tanto, identificar la existencia de una mente ligada al propio cuerpo, con intenciones, deseos, sentimientos e imágenes mentales. Posibilitaría también la identificación de sentimientos internos que se producen recurrentemente de forma parecida en determinadas situaciones externas. Ambos mecanismos pueden ser claves para que el bebé conceptualice claramente la existencia de una mente ligada al propio cuerpo (véase post de la imitación en el niño). La estructuración en la mente del niño de una teoría de la mente ligada al cuerpo de los otros se produciría sobre la misma época que estos procesos, pero sería estimulado por el funcionamiento de las neuronas espejo de los sistemas motores, que inducen a pensar al niño que lo que el otro experimenta cuando mueve un miembro es igual que lo que él experimenta cuando mueve ese mismo miembro (incluidos contenidos mentales propios como deseo o intención). Evolutivamente, según Ramachandran, la consciencia de uno-mismo y la consciencia de otros (y de la existencia de una mente en los otros) coevolucionaron también en tándem.

Un síndrome donde el funcionamiento de las neuronas espejo parece fallar es en el autismo. Los autistas no solamente tienen dificultades enormes para la empatía y para juegos como la simulación, sino que interpretan literalmente las metáforas, y encuentran la interacción social y la autoidentificación fuerte enormemente difícil. Además, muchos niños autistas tienen dificultades para usar correctamente los pronombres «yo y «tú» en la conversación: podrían carecer de una autorrepresentación mental lo suficientemente madura como para comprender esa distinción (Ramachandran, Cap. 5).

Las neuronas espejo nos hacen empatizar con el otro, al sentir esquemáticamente lo que el otro está sintiendo o haciendo, pero no nos llevan a sentir o hacer exactamente lo mismo que el otro. Esto parece deberse a la inhibición que el propio cerebro hace cuando las señales sensoriales o visuales que se están produciendo en ese momento le informan de que el propio cuerpo no está siendo realmente tocado, o uno no tiene motivos importantes para iniciar realmente ese movimiento. Ese equilibrio entre neuronas espejo, lóbulos frontales y receptores sensoriales le permiten a uno conservar la individualidad de cuerpo y mente, a la vez que la reciprocidad e identificación de su mente con la de otros. Un estado paradójico que parece privativo de los humanos. Alteraciones, por ejemplo, de la inhibición del córtex frontal hacia las neuronas espejo puede conducir a la experiencia de verse uno desde fuera de su propio cuerpo. El daño en las regiones frontoparietales derechas o la anestesia con el medicamento ketamina (que puede influir en los mismos circuitos) eliminan esta inhibición. Además, uno deja de sentir el propio dolor, y lo vé sólo “intelectualmente”, como si lo experimentara otro. Más extraña aún era la experiencia de un paciente con un tumor en la región frontoparietal del hemisferio derecho. Veía a un gemelo fantasma de él mismo pegado a la parte izquierda de su cuerpo! En todo lo demás, seguía comportándose como una persona normal.

Estos estados disociativos hacen intervenir, además de las estructuras comentadas, al hipotálamo y al giro cingulado anterior. Normalmente, cuando afrontamos una amenaza, tres outputs salen del hipotálamo: una excitación fisiológica con aumento de latidos, respiración y sudoración; otro emocional, como miedo o agresividad; y otro conductual, como correr o luchar. Pero si la amenaza es extrema, como en el caso de un depredador demasiado cercano, el output emocional y el conductual son inhibidos, y sólo se mantiene alerta el giro cingulado anterior, manteniendo la vigilancia por si aparece alguna posibilidad de escapar. En estas situaciones, hay frecuentemente un estado disociativo, y en medio de la parálisis motora, uno se ve a sí mismo con una objetividad desapegada de cualquier dolor o pánico. Algunas mujeres han sentido ese estado durante una violación. El explorador David Livingston fue mutilado por un león que le mordió el brazo hasta romperlo, pero no sintió ningún dolor ni miedo. Ramachandra cita también formas menos extremas de disociación, en que la acción no está inhibida, pero las emociones sí. Yo mismo por ejemplo, salí hace años desde lo alto de un acantilado con un parapente que no estaba bien hinchado, y empecé a descender en caída libre. Pero, en lugar de miedo, sentí la necesidad urgente de correr sobre las rocas de la pared que se me acercaban rápidamente; por fortuna ese reflejo consciente (que se entrena) tiró del borde de ataque de la vela, desplegándola. El miedo hubiera sido mortal en la situación, pues me hubiera encogido corporalmente, manteniendo el parapente desinflado.

Los sistemas cerebrales capaces de crear el concepto mental, prelingüístico, de uno-mismo, está pues ya presente en el cerebro del bebé, pero estos sistemas deben ser inducidos desde fuera a crear el concepto, por parte de humanos que ya utilizan ese útil concepto mental en sus prácticas, señas y comunicaciones. Es como si esos sistemas internos, gracias a esa estimulación externa y a la imitación, captaran finalmente tras varios meses el sentido y el uso del meme del uno-mismo. En cambio, los niños salvajes que fueron abandonados antes de aprender a hablar parecen haberse quedado en la fase del sí mismo nuclear.

El encuentro entre la capacidad imitativa que tiene el bebé, la identificación con los otros externos que permiten las neuronas espejo y la invitación a mirar desde fuera que inducen los otros humanos, pueden proporcionar por tanto una explicación verosímil del mecanismo que conduce a la consciencia autorreflexiva.

Tanto Ramachandran (2011) como Edelman y Tononi (2000) o como Damasio (2000) son escépticos sobre otras explicaciones alternativas que no tienen en cuenta ni la neurología, ni la antropología evolutiva, ni la psicología cognitiva. Por ejemplo, la que intenta explicar la consciencia sobre la base de la mecánica cuántica, ignorando u obviando las aportaciones de las ciencias citadas; o la teoría panpsíquica, con su postulado de que la consciencia es una propiedad básica de toda la materia del universo. Estas aproximaciones, además de pecar de un reduccionismo extremo, no sugieren ningún mecanismo concreto explicativo; únicamente sustituyen un misterio por otro misterio.

 

Referencias

Damasio, Antonio (2010). Y el cerebro creó al hombre. Grupo Planeta.

Dennett, Daniel C . (2017). From bacteria to Bach and back: the evolution of minds. W. W. Norton & Company.

Dio Bleichmar, Emilce (2009). Una Teoría sobre el Conocimiento Intersubjetivo Implícito, Clínica y Salud vol.20 no.3 Madrid.

Edelman, Gerald and Tononi, Giulio (2000). A Universe of Consciousness: How Matter Becomes Imagination. Ingram Publisher Services, US.

Iacoboni M., Molnar-Szakacs I., Gallese V., Buccino G., Mazziuta J. C., Rizzolatti G. (2005).  Grasping the Intentions of Others with One’s Own Mirror Neuron System. Plos Biology 3(3): e79. https://doi.org/10.1371/journal.pbio.0030079

Meltzoff, Andrew N. and Moore, M. Keith (1997). Explaining Facial Imitation: A Theoretical Model. Early Development and Parenting, Vol. 6, 179-192.

Ramachandran, V. S . (2011). The Tell-Tale Brain. W. W. Norton & Company.

Rocamora , Pedro (2016). Perspectiva neurocientífica de la conciencia. Conferencia.

Yawkey, Thomas D. ; James E. Johnson (eds.). Integrative processes and socialization early to middle childhood. Lawrence Erlbaum Associates.

 

 

Las bases neurológicas del reconocimiento de los cuerpos y la imitación

En un artículo anterior analizamos las teorías de Edelman y Tononi sobre la base neural de la consciencia primaria, que es una capacidad para representar perceptualmente el mundo exterior, reconocer sus cualidades y reaccionar ante ellas. Un paso más allá de la consciencia primaria, que sólo los humanos y los mamíferos superiores han dado, es la capacidad llamada consciencia autorreflexiva, o consciencia de uno mismo como testigo de la consciencia primaria. Un paso necesario para alcanzar una consciencia autorreflexiva, y todo lo que ella permite (la evolución cultural, por ejemplo) es la capacidad de reconocer el propio cuerpo y el cuerpo de otros como similares, e imitar lo que los cuerpos de otros saben hacer.

Estudios de Meltzoff y Moore (1997), a los que pertenece la imagen que encabeza este artículo), y otros estudios, defienden que los bebés de sólo tres semanas pueden imitar la protrusión de la lengua de un adulto; y que con dos meses imitan gestos de un adulto como los siguientes: protrusión de la lengua, protrusión de los labios, apertura de la boca, gestos con las manos, movimientos de la cabeza, parpadeo de los ojos, movimientos de las mejillas y las cejas, y componentes de las expresiones emocionales.

En un bebé que imita la expresión facial de un adulto, ¿Cómo hace el cerebro del niño para hacer coincidir un gesto propio que siente, pero no puede ver, con el gesto del adulto, que ve pero no puede sentir? Como explican Meltzoff y Moore (1997): “Teorías clásicas como la de Piaget (1962) respondieron esta pregunta a través de experiencias de aprendizaje con espejos y exploración táctil por el bebé de las caras propias y ajenas. Los espejos hicieron visible lo invisible, representando el propio cuerpo y el del otro en términos visuales. La exploración táctil de rostros se representa a sí mismo y al otro en términos tangibles. En los últimos 20 años, el trabajo empírico de muchos laboratorios ha revelado que bebés demasiado pequeños para haber aprendido de esa manera imitan sin embargo los gestos faciales.”

La respuesta alternativa de Meltzoff y Moore (1997) es que los bebés de esa edad han construido ya en su cerebro un mapa conceptual intermodal (que agrupa información de distintos sentidos) del propio cuerpo y a partir de él deducen los actos motores posibles. Según estos autores, el bebé nace con un mapa propioceptivo-motor de su cuerpo ya desarrollado, lo cual le permite identificar rápidamente las imágenes visuales de las partes corporales de otros y crear un mapa corporal visual isomorfo con el anterior, y finalmente, traducir imágenes del movimiento de miembros corporales a actos motores.

En un curioso experimento, cuando el adulto sacaba la lengua diagonalmente de la boca, el 70% de los bebés de un mes y medio de edad sacaron la lengua y giraron la cabeza 30 grados, alcanzando una orientación de lengua similar, aunque no exactamente el mismo gesto. Es como si su comportamiento estuviera dirigido a un objetivo.

Cuando un recién nacido ve una protrusión de lengua, su primera reacción es aquietar todas las partes del cuerpo menos la lengua, que se activa, sin hacer necesariamente una protrusión de inmediato, sino que la agita, la mueve o la levanta dentro de la cavidad bucal. Del mismo modo, cuando se les muestra una protrusión de los labios, lo primero que hacen es presionar fuertemente un labio contra el otro, antes de intentar la imitación. Es como si aislaran primero qué parte del cuerpo van a mover, antes de decidir cómo hacerlo. La identificación la realiza aparentemente el bebé sobre el conjunto de los órganos, independientemente de que pertenezcan a él o a otro.

Hay evidencias de que el bebé recién nacido reconoce un conjunto delimitado de órganos en función de su forma (`órganos como formas ‘). Varios autores han observado que los recién nacidos prefieren las caras a otros patrones sensoriales. A través de la evolución, la estructura de una cara podría haberse convertido en una unidad perceptiva distintiva a la que se responde ya de forma innata. Puede ser que el contexto perceptual de una cara ayude al bebé a identificar el conjunto, cuyas partes componentes pueden luego analizar. Algunas investigaciones sugieren que los órganos faciales pueden ser perceptualmente identificables por los recién nacidos humanos, aunque no hay acuerdo completo sobre el tema. Además, los datos neurofisiológicos muestran que las imágenes visuales de órganos particulares, especialmente partes de la cara y manos en los monos, activan sitios específicos del cerebro. De modo que hay órganos específicos que podrían estar representados ya al nacer en el cerebro del bebé.

La psicología cognitiva ha desarrollado modelos sobre cómo podría conceptualizarse la percepción visual de un cuerpo animal. Los grupos neuronales especialistas detectarían pautas que, conjuntamente, serían etiquetadas en forma de concepto no-verbal por algún área semántica del córtex, especialista en integrar y etiquetar (no verbalmente) pautas sensoriales de todos los especialistas de la percepción visual. Una etiqueta no verbal equivalente a un concepto abstracto del tipo, por ejemplo, de “pierna delgada”.

La construcción de objetos por la percepción visual

Desde el momento en que la retina convierte fotones luminosos en impulsos neuronales deja de tener sentido hablar de la información visual como si fuera una imagen. Se trata más bien de descripciones simbólicas que tratan de dar forma (in-formar) la percepción visual de forma que sea manipulable o significativa para el cuerpo. Esto lo realizan unas 30 áreas neuronales especialistas del sistema visual de los humanos (los herbívoros y otros mamíferos superiores tienen unas 12) que extraen rasgos significativos de la percepción. Áreas especializadas en reconocimiento del color, de diferentes formas, de los bordes y contrastes, del movimiento, de si se trata de una cara, etc. Las sinapsis neuronales que dejan la retina son unas 100 veces menos numerosas que las que tienen lugar en la propia retina, por lo que podríamos decir que ya desde la retina se empieza a producir una condensación de la imagen original en una serie de rasgos significativos que son enviados hacia las áreas visuales del cerebro para ser elaborados y depurados más aún.

Este proceso cerebral es activo e incluye prejuicios sobre lo que puede ser observado. Por ejemplo, en la figura siguiente parece claro cuáles son los círculos convexos y cuáles los cóncavos.

 

shading

Sin embargo, si ponemos esa figura horizontalmente, nuestra percepción visual oscila entre verlos de esa manera o de la manera complementaria.

shading

 

Lo más verosímil es imaginar que algún área especializada del cerebro está pre-suponiendo que, en la primera imagen, la luz ilumina a los objetos desde arriba (la iluminación desde abajo no ocurre en la naturaleza); en la segunda imagen, en cambio, no tiene ninguna predilección por suponer que la luz venga de la derecha o de la izquierda, y alterna entre ambos presupuestos cada cierto tiempo. Para ser más exactos, la suposición de nuestro cerebro es que la luz viene desde encima de la propia cabeza, y eso se ve claramente si contemplamos la última de las figuras poniéndonos nosotros horizontales, no la figura. Observaremos entonces que la ambigüedad desaparece, pues vemos irremisiblemente todas las figuras como si estuvieran iluminadas desde encima de nuestras cabezas (Ramachandran 2011, Cap. 2).

Otra característica notable del sistema visual es que a medida que subimos hacia las áreas especializadas del córtex cerebral desde la retina, pasando por el núcleo geniculado lateral del tálamo, las conexiones que van desde etapas superiores hacia etapas anteriores son mucho más numerosas que las que ascienden. Ello sugiere una dinámica bayesiana del procesamiento de la información (véase post 1 **), en la que el córtex superior está enviando alucinaciones todo el tiempo hacia abajo, hasta que la información que asciende desde la retina deja de ser incoherente con la última alucinación propuesta, y a ésta la seleccionamos y etiquetamos finalmente como el concepto percibido (Ramachandran 2011, Cap. 2; Dennett 2017).

Desde el punto de vista neurológico, hay dos caminos desde la retina hasta el área visual V1 del lóbulo parietal (área 17 de Brodmann). Un camino (que Ramachandran llama el “camino antiguo”) pasa por el colículo superior y acaba en V1.

Coliculo superior-Brainstem_and_thalamus

El otro camino (el “camino nuevo”) pasa por el núcleo geniculado lateral del tálamo, desde allí se dirige hasta V1, en el lóbulo occipital, y allí se bifurca en dos ramas: la rama del “donde” (también llamada del “como”) se dirige hacia el lóbulo parietal, y la rama del “qué” se dirige hacia el área 21 de Broadman, en el lóbulo temporal.

Nucleo geniculado lateral

La primera rama está especializada en las relaciones espaciales entre los objetos identificados; la segunda, en las relaciones entre las propiedades encontradas dentro de cada objeto y lo que significan para uno, lo cual permitirá etiquetar posteriormente al objeto dentro de una categoría lingüística.

areas-brodmann-numeros

El camino “antiguo” puede dirigir la mano de una persona hacia un objeto en el campo visual de forma automática sin que la persona sea consciente de que está viendo el objeto. El camino “nuevo” permite, sin embargo, la experiencia consciente de estar viendo un objeto (Ramachandran 2011, Cap. 2).

La primera estructura de la ruta del “qué”, el giro fusiforme, parece clasificar el objeto visual en distintas categorías conceptuales (diferencia un pájaro de un humano, o un cuchillo de un piano) pero con poca elaboración sobre el significado del concepto para el observador. Pero cuando esta ruta se adentra más profundamente en los lóbulos temporales, evoca no sólo la categoría cruda sino un conjunto difuso de recuerdos asociados y hechos y usos del objeto, es decir, su significado para el observador. Esta recuperación semántica implica la activación de conexiones con otras áreas del lóbulo temporal, con el área lingüística de Wernicke y con el lóbulo parietal inferior, que está especializado en poner etiquetas lingüísticas (nombrar), escribir, y en la aritmética. Tras el apoyo de estas regiones, los mensajes se transmiten a la amígdala, que se encuentra incrustada en la punta frontal de los lóbulos temporales, donde evocan sentimientos relacionados con lo que (o quien) estás viendo (Ramachandran, 2011, Cap. 2).

Sin embargo, si el objeto visual tiene una alta saliencia (es inhabitual) el camino 2 no sigue la ruta habitual, sino que abrevia desde el giro fusiforme, pasando por surco temporal superior, hasta entrar directamente en la amígdala. De esta manera, evita pasar por las áreas que enriquecen el objeto visual con significaciones, y entra rápidamente en la amígdala, en el corazón emocional del cerebro, el sistema límbico. Este camino rápido evolucionó probablemente para promover reacciones rápidas ante escenas inhabituales, ya sean innatas o aprendidas. La amígdala trabaja junto con recuerdos que ayudan a calibrar la importancia emocional de la escena visual. Si la respuesta emocional de la amígdala es intensa (con emociones de hambre, miedo, odio o lujuria, por ejemplo), influye en el hipotálamo, que induce una liberación de las hormonas necesarias para preparar el sistema nervioso autónomo para una próxima acción (alimentarse, luchar, huir, cortejar, etc.). Esto incluye aumento del ritmo cardíaco, respiración rápida y superficial, y aumento de la transpiración (que aumenta la refrigeración del sistema motor). Estas reacciones fisiológicas que van asociadas a los sentimientos son las que aprovechan los detectores de mentiras para saber si la afirmación de alguien es congruente o no con su reacción emocional. La amígdala está conectada también con los lóbulos frontales, que añaden matices a estas emociones primarias (v.g. arrogancia, prudencia, orgullo, admiración, magnanimidad, etc.).

Sistema Limbico

Cote transversal y vista lateral del cerebro, para ilustrar la posición del sistema límbico. De: http://www.facmed.unam.mx/Libro-NeuroFisio/06-SistemaNervioso/CNS-Overview/SistNervioso.html

El trabajo https://webs.ucm.es/info/pslogica/mente/cap3.htm resume muy bien las tres etapas principales del proceso de construcción conceptual de un objeto perceptual. (1) En un primer nivel de procesamiento neuronal, se hace un análisis del objeto visual que pretende detectar agrupamientos importantes de la imagen, los bordes o perfil de la misma, y los elementos constitutivos de la imagen desde el punto de vista del plano. Produce una representación primaria, o Bosquejo Primario. Sería algo similar a la detección de bordes que realizan algunos programas gráficos de ordenador.

(2) El segundo nivel de procesamiento, que toma como entrada el bosquejo primario, producirá un bosquejo en 2 dimensiones al que se ha añadido algo de información cruzada procedente de los dos ojos, que permite etiquetar qué objetos están delante de cuáles, pero aún centrado en el observador. Este proceso tiende a construir la superficie de la imagen, añadiéndola textura, profundidad y orientación, captando movimiento y color. Podría ser algo similar a la información que proporciona el cuadro siguiente.

Sombras corriendo

(3) El tercer nivel de procesamiento tiene como propósito lograr una representación en tres dimensiones que sea útil para el reconocimiento. Exige pasar a un sistema de coordenadas centrado en el objeto y no en el observador. También, incluir formas primitivas de diferentes tamaños en una organización modular que distinga la imagen como un todo con partes y finalmente, incluir esquemas de volúmenes que expliciten el espacio ocupado por los objetos que se supone componen la escena y no sólo sus superficies directamente visibles.

Si, por ejemplo, el nivel (2) ha obtenido la imagen de un burrito (a en la figura siguiente), la imagen es suavizada y dividida en secciones cóncavas y convexas (b). Después se identifican puntos de gran segmentación (c) que son conectados entre sí (d). A partir de ello, se definen los ejes componentes que aparecen en (e); y estos grupos se conectan como partes a un todo en (f) (figura siguiente). Este proceso de segmentación e identificación de las partes del objeto es clave para la capacidad de distinguir un objeto, incluso cuando una parte del mismo aparece ocultado por otro objeto que parece estar delante.

Burrito

Proceso de identificación de las partes de un objeto. De:  https://webs.ucm.es/info/pslogica/mente/cap3.htm

Los sistemas neuronales especializados en asignar a las imágenes del nivel 2 un fondo, y por lo tanto un volumen espacial, están categorizando las impresiones visuales básicas organizándolas en el espacio, algo que también hace el bebé dentro del útero cuando va formando el mapa sensorio-motor de su cuerpo, también organizado espacialmente. Esta pulsión, programada prácticamente en nuestra fisiología de inicio, a conceptualizar las sensaciones (tanto táctiles como visuales) en forma espacial, era para Kant (y para su discípulo Schopenhauer) una de los más importantes aprioris de la apercepción trascendental, aquellos que nos permiten percibir un mundo, entenderlo y actuar en él. Los grupos neuronales que realizan esta importante  transformación podrían ser también la clave de que un niño de mes y medio de edad haya aprendido en ese breve tiempo a asociar a las imágenes que percibe de cuerpos humanos, animales y objetos, conceptos espaciales análogos a los que inconscientemente está usando para concebir su propio cuerpo. Por ejemplo, diferencia la parte frontal de un cuerpo u objeto externo de su parte trasera; y va creando rápidamente conceptos espaciales para ellos, su entorno espacial y la relación entre ellos y nuestro cuerpo, conceptos que más tarde serán etiquetados lingüísticamente como cercano-lejano, delante-detrás, cabeza-piés, interior-exterior, sobre-debajo… Es posible que esa capacidad de identificar volúmenes y relaciones topológicas permita al bebé de mes y medio identificar conceptualmente los principales órganos del cuerpo de los adultos que lo rodean como los órganos análogos al que su mapa sensorio-motor le hace sentir en su propio cuerpo. La propia observación visual de sus miembros probablemente refuerza esa asociación, a lo largo de los primeros meses.

El blog citado sigue la explicación de D. Marr (1985) sobre cómo puede estar trabajando a nivel neurológico el sistema visual. El paso siguiente sería la organización de la información sobre la forma en un modelo 3-D, y con un sistema de coordenadas centrado en el objeto. Un esquema del proceso sería el siguiente.

Brazo humano

Para cada región significativa se construye un modelo tridimensional que se agrupan modularmente formando un todo. A cada módulo se la asigna también un sistema de coordenadas propio, pero bajo el entendido de que se trata de partes de una misma escena visual. Esto facilitará las tareas de reconocimiento, al permitir comparar la representación construida con el conocimiento conceptual previo que tenemos de los elementos de mundo. Por ejemplo, se identifica mejor un dedo si se relaciona con la mano de la que es parte, y así sucesivamente.

Brazo delgado

Hasta aquí https://webs.ucm.es/info/pslogica/mente/cap3.htm

La distinción entre percepción y acción no es absoluta para el cerebro, como lo demuestran las neuronas canónicas de los lóbulos frontales, un tipo de neuronas espejo que según Ramachandran (2011, Cap. 2) se disparan en acciones específicas como alcanzar una manzana o una ramita, pero también lo hacen cuando el sistema perceptivo identifica una manzana o una ramita. Es como si el concepto de agarrabilidad fuera añadido a los demás atributos del percepto.

Por último, el proceso de percepción termina colocando un nombre a la representación construida. Este proceso, bastante desconocido aún, sería semejante a una búsqueda en un catálogo de esquemas de imágenes, junto con conexiones al sistema conceptual y lingüístico. Las tres áreas del lenguaje están especializadas en estas funciones: el área de Broca (en lóbulo frontal), el área de Wernicke (en lóbulo temporal) y el giro angular (cerca del fondo del lóbulo parietal). Lakoff y Johnson (1999) (véase Las metáforas y la construcción imaginaria de la realidad) han analizado, de forma muy convincente, los procesos metonímicos y metafóricos que permiten construir conceptos complejos a partir de los primeros conceptos perceptivos, del mapa multi-modal del propio cuerpo, y de las primeras interacciones motoras entre el cuerpo del niño y el entorno habitual.

Volvamos ahora a la asociación que hace el niño entre el mapa sensorio-motor de su cuerpo y el mapa conceptual, que construye durante sus primeros meses, de los cuerpos familiares que observa.

Imaginemos, por ejemplo, que el bebé ha convivido con perros desde el nacimiento, algo que ha ocurrido realmente en algunos casos entre los llamados niños salvajes. Si el cerebro del bebé ha construido un mapa conceptual del cuerpo visual del perro que tiene delante, ese mapa conceptual es probablemente asociado, mediante la observación del cuerpo propio y mediante mecanismos de contigüidad topológica, al mapa sensorio-motor que el sujeto humano se ha construido de su propio cuerpo.

Una vez establecida la asociación conceptual entre las partes visuales de un cuerpo de la familia del mío y las impresiones sensorio-motoras que tengo en las partes correspondientes de mi propio cuerpo, esa asociación podría utilizarse para proporcionar información en cualquiera de los dos sentidos: el inicio del movimiento (o una sensación táctil o propioceptiva) en una de mis extremidades activaría la imagen de esa clase de extremidad; y viceversa, la imagen visual de una extremidad (mía o de un cuerpo de la familia del mío) moviéndose (o tocando algo) activaría el concepto propioceptivo-motor correspondiente a esa extremidad. También facilita el aprendizaje de lo que se puede hacer con el propio cuerpo, a partir de la imitación de los otros familiares, de ahí que los niños salvajes que convivieron desde casi el nacimiento sólo con perros, acaben caminando a cuatro patas, rascándose como los perros, etc.

Las acciones motoras

Según Meltzoff y Moore (1997), este aprendizaje propioceptivo-motor se realizaría mediante lo que llaman balbuceo corporal: ya en el útero, el bebé prueba al azar distintas acciones motoras y asocia los estados finales (propioceptivos) de las posiciones relativas de los distintos órganos con esos actos motores (y sus movimientos asociados). Por ejemplo, tres estados finales de la lengua tras movimientos de menor a mayor longitud podrían conceptualizarse de un modo no verbal pero señalando situaciones como las que designamos lingüísticamente con expresiones del tipo: “lengua a los labios”, “lengua entre los labios” y “lengua más allá de los labios”. Los recién nacidos podrían haber desarrollado en el útero un mapeo grosero entre estados finales de los órganos (sentidos propioceptivamente) y los movimientos necesarios para conseguirlos.

Experimentos de otros autores no han podido confirmar, sin embargo, que las observaciones de Meltzoff y Moore (1997) en niños de sólo mes y medio correspondan exactamente a imitación. Concluyen más bien que el bebé aumenta su excitación al reconocer la cara de su madre o de su padre, y saca continuamente la lengua, independientemente de lo que haga el adulto (Sticking the tongue out: Early imitation in infants) . Algunos investigadores sugieren que los bebés no tienen una predisposición innata a imitar, sino que aprenden a imitar siendo imitados. Los padres imitan continuamente al bebé cuando observan un gesto en él. Por ejemplo, cuando el bebé saca la lengua o produce un sonido bucal («ah!»), es muy probable que el adulto que está en frente sacque su lengua o imite el sonido («ah!»). Este comportamiento imitativo de los padres permitiría al bebé hacer las primeras asociaciones entre actos motores propios y el comportamientos visual de los demás.

Por tanto, el aprendizaje de los mapas corporales y la relación entre ellos podría no ser tan rápido como lo que sugieren Meltzoff y Moore (1997). Estos autores están de acuerdo en que los bebés no saben al nacer qué actos musculares consiguen reproducir un gesto particular de un órgano, y que esto se conseguiría por aprendizaje de prueba y error. Por tanto, la polémica está en (i) confirmar si el bebé nace ya con un mapa sensorio-motor de su cuerpo lo suficientemente detallado, y (ii) desarrolla en sólo mes y medio un mapa visual conceptual de los cuerpos familiares, de modo que a esa edad puede imitar gestos; o bien alguno (o ambos) de estos dos procesos es más prolongado en el tiempo de lo que sugieren Meltzoff y Moore.

Sí parece razonable suponer que los bebés interpretan el acto adulto que ven analizando las relaciones entre órganos que exhibe ese acto. Las relaciones entre los órganos proporcionan el marco común en el que se registran los actos propios y ajenos. ‘Lengua a los labios’, que es una relación entre órganos, sería una descripción conceptual (no verbal) que es isomorfa tanto con una percepción de un cuerpo observado como con unas sensaciones propioceptivas y táctiles en el cuerpo propio. Por lo tanto, las relaciones entre órganos harían que el acto facial observado pero no sentido del adulto sea comparable con el acto facial sentido pero invisible del niño.

Los experimentos muestran además que los bebés no se limitan a imitar actos bien practicados que pueden ser imitados en el primer intento. Lo que hacen aparentemente es intentar imitar el gesto, no quedan satisfechos muchas veces con el resultado motor inicial, y corrigen sus movimientos a lo largo del tiempo. Parecen intentar un buen ajuste de las relaciones entre órganos más que reproducir bien un acto motor ya ensayado. Por ejemplo, al ver al adulto sacar su lengua diagonalmente hacia su derecha, y recogerla también diagonalmente, muchos bebés de seis semanas mueven su lengua directamente a su derecha y la recogen; luego corrigen y la sacan en línea recta y luego la mueven a la derecha, recogiéndola diagonalmente; luego la sacan en línea recta y la recogen en un semicírculo; luego la sacan y la recogen en línea recta; finalmente, algunos bebés consiguen sacarla diagonalmente y recogerla diagonalmente; otros, se conforman con sacarla en línea recta, luego la mueven perpendicularmente a la derecha, y la recogen siguiendo los mismos pasos pero a la inversa.

Al ver el gesto de un adulto, un sistema de interpretación visual en el cerebro del bebé interpretaría la relación entre los órganos del adulto antes y después del movimiento gestual, y compararía el estado final con la relación entre los órganos de su propio cuerpo. Al no encontrar coincidencia, intentaría un acto motor que aproximadamente lleve a una relación mejor entre sus órganos. Encontrar una coincidencia indicaría que el acto motor visto y el acto motor realizado por uno mismo son equivalentes. Según estos dos autores, este reconocimiento de la equivalencia de los actos es motivo de la aprensión de los infantes de que el otro es, en cierto sentido primitivo y no consciente, ‘como yo’.

Neuronas espejo, aprendizaje y teoría de la mente

Leslie (1997) piensa que el ser humano nace con unas predisposiciones para procesar la información que se han desarrollado por selección natural. Son estructuras incluídas en la fisiología del sistema nervioso, y las califica de «teorías» por cuanto son como formas a priori, empleando terminología kantiana, para representar y categorizar la realidad.

Se darían dos tipos de teorías: Una teoría de objetos (TOB, abreviatura de Theory of body) y una teoría de la mente (TOM, Theory of mind). La teoría de los objetos proporciona los esquemas básicos para conocer el mundo de objetos físicos, sus propiedades y relaciones. La existencia de regiones especializadas del córtex que construyen propiedades básicas de objetos visuales sugieren que sí que existen estos esquemas a priori. Lakoff opina que son estos a-priori los que proporcionan esa fuerte convicción que tenemos en el realismo ingenuo cuando nos relacionamos con objetos de tamaño parecido a nuestro cuerpo, que pueden ser abarcados visualmente de una sola vez y que pueden ser manipulados (Las metáforas y la construcción imaginaria de la realidad).

La teoría de la mente posibilitaría la comprensión del otro y las relaciones interpersonales. La estructura neural que le corresponde debió de surgir de un afortunado ensamblaje entre la capacidad cerebral de crar mapas sensorio-motores del propio cuerpo, la capacidad para asociar unívocamente ese mapa con los mapas conceptuales de la forma corporal que surge de la observación visual, y la curiosa capacidad de las neuronas espejo para excitarse cuando usamos un miembro y cuando lo vemos usar. Para funcionar, necesitaría activarse mediante el aprendizaje de que hay formas visuales externas que, efectivamente son topológicamente similares a los mapas sensorio-motores que el bebé desarrolla (ya sea dentro del útero o en los primeros meses de vida).

Catmur et al. (2008) entrenaron a adultos participantes para que imitaran los gestos del bebé de forma congruente en un grupo de ellos, y de forma no congruente en otro grupo distinto, y encontraron diferencias posteriores en las activaciones de los sistemas de neuronas espejo de los dos grupos de bebés. Ello sugiere que los sistemas de neuronas espejo son bastante flexibles para aprender nuevas conexiones, y no vendrían congénitamente pre-programados. O bien vienen pre-programados de nacimiento de una forma muy genérica, pero están abiertos al aprendizaje posterior. Pero Meltzoff y Marshall (2018) encuentran respuestas mayores cuando la imitación es congruente con el órgano propio movido en niños de pocos meses. Encontraron también que la excitación de las neuronas espejo del córtex somatotópico de los bebés cuando ven que alguien es tocado en la mano o en el pie, se percibe ya a los 7 meses de edad.

Para poder activarse como lo hacen, las neuronas (grupos neuronales) espejo deberían estar conectadas con un mapa corporal visual (intermediario entre la percepción visual y ellas mismas) que les informe de que la imagen observada corresponde al cuerpo de otro estirando su brazo derecho hacia una pelota; y el mapa conceptual del aspecto visual del cuerpo del bebé debería estar conectado con el mapa senso-motor del propio cuerpo del bebé que observa y reacciona.

Lo que harían las neuronas espejos pertenecientes al conjunto de neuronas involucradas en el movimiento de esa extremidad es activarse cuando se produce tal asociación entre visión de una acción por parte de una parte de un cuerpo externo y la parte correspondiente de mi propio cuerpo. Para evitar que esta activación lleve a un movimiento real de la propia extremidad, el cortex prefrontal envía señales inhibidoras a la zona motora cuando nota la activación de las neuronas espejo, aunque normalmente no es suficientemente rápida como para evitar una ligera iniciación del propio movimiento, casi imperceptible.

La activación de los grupos de neuronas espejo podría estar genéticamente programada en cuanto el bebé logra identificar fuera de él movimientos que están en el repertorio de los movimientos que él ha identificado como posibles para su cuerpo. Posteriormente, cuanto el bebé logre identificar contenidos mentales dentro de él (entre los 7 y 9 meses), como por ejemplo intenciones que anteceden a sus movimientos, estas mismas intenciones serán otorgadas automáticamente al otro, si le ve realizar el mismo movimiento. Todo ello, antes de que el niño aprenda a hablar.

Al ver el movimiento exterior de miembros corporales reconocibles, el córtex superior del bebé detectaría el output de las neuronas espejo y conceptualizaría la situación de un modo similar a esto: ”el mismo grupo neuronal se está activando en mi cerebro como lo haría si estuviera alcanzando una pelota; así que el otro debe estar intentando alcanzar esa pelota ahora”.

En un próximo post veremos que, entre los dos y seis meses, el bebé parece adquirir una consciencia creciente de que está físicamente separado de su madre y de otros cuerpos. Se forma un “sí mismo nuclear” en contraste con el otro nuclear. Veremos también cómo a partir de ese núcleo corporal logra generar una consciencia de sí mismo. El descubrimiento en el niño de que los demás cuerpos humanos son intencionales y mentales como él mismo, y que los contenidos emocionales y conscientes propios pueden ser compartidos con otros, se produce entre los 7 y los 9 meses. Al año el niño suele ser capaz de indicar a otro que le acerque un juguete. Pero esa “teoría de la mente” se va volviendo cada vez más compleja y detallada entre el año y los 5 años.

Se han encontrado neuronas espejo en muchas áreas cerebrales, incluida el área cingulada anterior, que se supone se activan al percibir dolor táctil. Algunas neuronas de esta área se activan también cuando el sujeto observa a otro siendo pinchado en la piel, lo que provoca una respuesta táctil esbozada en el propio sujeto cuando ve que otro es pinchado. Sentimos de modo esquemático en el mismo sitio de nuestra propia piel la sensación táctil del otro. Lo que parece evitar que la sensación sea tan intensa como la de algo real pinchándonos es la inhibición que producen nuestros nervios táctiles enviando señales hacia el córtex que son contradictorias con la que envían los sistemas visuales que ven el pinchazo. Sin embargo, Ramachandran (2011) informa de pacientes con síndrome de brazo fantasma, que sintieron que algo les pinchaba en su brazo inexistente, cuando vieron a otro siendo pinchado en su brazo. Aparentemente, la falta de señales procedentes del brazo fantasma, que pudieran contradecir a la percepción visual, permitió a las neuronas espejo del córtex sensorial del tacto generar una señal de contacto físico completo en la piel.

Según Ramachandran, en los cerebros humanos y sólo en estos, esta capacidad de las neuronas-espejo que ya existe en los monos se habría ampliado, de modo que cuando interpretamos intenciones complejas en las mentes de otros seres, habría neuronas espejo que se activarían en las áreas nuestras correspondientes a intenciones propias similares.

La anosognosia es un síndrome que tienen algunos pacientes que sufren de parálisis del lado izquierdo del cuerpo, por un trombo en el lado derecho, pero que niegan que sufran ninguna parálisis. Ramachandran comenta el sorprendente caso de algunos de estos pacientes que, cuando se les muestra otro paciente con parálisis en un lado del cuerpo, ellos niegan no sólo que ellos sufran parálisis, sino que el otro tenga tampoco parálisis alguna. Es como si el paciente, cada vez que trata de hacer un juicio sobre los movimientos de otra persona, tuviera que ejecutar “una simulación de realidad virtual de los movimientos correspondientes en su propio cerebro”. Pero como las neuronas espejo que simulan su propio movimiento del lado izquierdo están afectadas (de ahí que no perciba que su brazo no se mueve) no puede simular tampoco el movimiento o falta de movimiento del otro.

También sugiere que, en el aprendizaje, el núcleo dinámico en conjunción con el córtex prefrontal podría sistemáticamente inhibir todos los comportamientos motores imitativos que tienden a dispararse en la observación de la persona a imitar, y otros posibles que propondría el lóbulo parietal inferior, salvo el que sea más conveniente para alcanzar el objetivo asociado a la tarea.

Esta capacidad permitiría el imitar los  movimientos de otro capaces de producir un artefacto o una nueva técnica, posibilitando así la herencia cultural. También permitiría imitar los movimientos de labios y lengua de otros, facilitando el aprendizaje del habla. De hecho, una de las regiones donde abundan las neuronas espejo según Rizzolatti (uno de sus descubridores) es en el área ventral premotora de los monos, una región que podría ser la precursora de nuestra área de Broca (el área del cerebro humano asociada con la producción del lenguaje sintáctico).

De hecho, “Cuando los circuitos inhibitorios frontales están dañados, como en el síndrome del lóbulo frontal, el paciente a veces imita gestos incontrolablemente, un síntoma llamado equopraxia.” Grados menores de pérdida de esta inhibición podrían explicar comportamientos cotidianos en adultos como los que apuntaba Charles Darwin: nos percibimos doblando inconscientemente la rodilla cuando vemos a un atleta a punto de lanzar la jabalina, y apretamos y aflojamos las mandíbulas cuando vemos a alguien usando un par de tijeras.

orangutan

Orangután de Borneo usando una lanza para pescar

 

Los monos son capaces de imitar a otro mono en el uso de una piedra o un palo, pero sólo en el contexto de hacerse con comida. Un bebé, sin embargo, parece encontrar gran satisfacción en el mero hecho de imitar o ser imitado (Meltzoff y Marshall, 2018) y esto parece haber sido clave para el desarrollo de las culturas.

Referencias

Catmur, C., Gillmeister, H., Bird, G., Liepelt, R., Brass, M., & Heyes, C. (2008). Through the looking glass: counter-mirror activation following incompatible sensorimotor learning. European Journal of Neuroscience, 28(6), 1208–1215. doi: 10.1111/j.1460-9568.2008.06419.x

Dennett, Daniel C . (2017). From bacteria to Bach and back: the evolution of minds. W. W. Norton & Company.

Lakoff, G., Johnson M. (1999). Philosophy in the flesh. The embodied mind and its challenge to western thought. Basic Books, New York.

Leslie, A. (1997). The origins of Theory of Mid. Psychological Review. 94, 84-106.

Marr, D. (1985). La Visión, Alianza Psicología, Madrid.

Meltzoff, Andrew N. and Moore, M. Keith (1997). Explaining Facial Imitation: A Theoretical Model. Early Development and Parenting, Vol. 6, 179-192.

Meltzoff, A. N. and Marshall, P. J. (2018). Human infant imitation as a social survival circuit. Current Opinion in Behavioral Sciences, 24:130–136.

Ramachandran, V. S. (2011). The Tell-Tale Brain. W. W. Norton & Company.

 

La base neuronal de la consciencia primaria

El diccionario de la Real Academia de la Lengua Española define la consciencia de este modo:

  1. f. Capacidad del ser humano de reconocer la realidad circundante y de relacionarse con ella. El coma consiste en la pérdida total de la consciencia.
  2. f. Conocimiento inmediato o espontáneo que el sujeto tiene de sí mismo, de sus actos y reflexiones. Perdió la consciencia de lo que le estaba pasando.
  3. f. Conocimiento reflexivo de las cosas. Actuó con plena consciencia de lo que hacía.
  4. f. Psicol. Acto psíquico por el que un sujeto se percibe a sí mismo en el mundo.

La acepción primera es lo que algunos psicólogos cognitivos y neurólogos llaman consciencia primaria. Las otras tres acepciones añaden a lo anterior la capacidad de diferenciar entre lo que son estados corporales, actos y estados mentales propios (“uno mismo”), de lo que son estados y actos del mundo “no propio” o exterior, y la capacidad de percibirse a uno-mismo  siendo consciente del mundo, actuando y decidiendo.

La primera acepción corresponde a lo que los psicólogos llaman consciencia primaria y parece ser una capacidad tanto de los humanos como de todos los animales con cerebro. En cambio, las capacidades incluidas en las tres últimas acepciones parecen ser exclusivas de los humanos y las podemos denominar “consciencia auto-reflexiva”. Ambos tipos de consciencia nos abandonan en situaciones como el coma profundo, el sueño profundo, o los ataques de epilepsia.

La consciencia y sus causas

Una de las teorías más completas y convincentes sobre las bases neurológicas de la consciencia es la de Edelman y Tononi (2000). Edelman ganó el Premio Nobel en 1972 por sus trabajos sobre el sistema inmunológico, pero es aún más famoso por sus investigaciones posteriores sobre la neurología de la consciencia.

Tanto Schopenhauer como William James tenían claro que el correlato físico de la consciencia era el cerebro completo. Pero hoy los neurocientíficos pueden ser mucho más específicos, al relacionar descargas de  neuronas situadas en áreas específicas del cerebro con cualidades particulares de la consciencia o con procesos complejos que se ejecutan inconscientemente.

Las experiencias conscientes tienen asociadas en el cerebro interconexiones muy complejas entre grupos neuronales situados en distintos lugares del cerebro. Pero hay procesos de gran complejidad que utilizan redes neuronales muy complejas también, pero que hacemos inconscientemente, por ejemplo, la regulación de la presión sanguínea, el control del equilibrio, o la elección de frases gramaticalmente correctas cuando queremos comunicar rápidamente un concepto o una percepción. La actividad neuronal en redes neurales situadas en ciertas regiones del cerebro no se traduce en experiencias conscientes, mientras que hay cierta clase de redes activas que sí provocan experiencias conscientes.

Schopenhauer dejó muy claro que los sentimientos, las emociones y las representaciones mentales que nos hacemos los humanos son efectos del obrar de la naturaleza. Este obrar natural, en el caso de nuestro propio obrar, podemos observarlo “desde dentro” y lo experimentamos como una especie de “voluntad”: una pulsión a actuar, una inclinación, un instinto, una decisión consciente, un acto reflejo imperativo, según la situación. Se trata de la causación más básica y fundamental del universo físico, que puede ser también observada desde fuera mediante las representaciones mentales y teorías que nos hacemos de los objetos externos y del propio cuerpo como objeto de descripción externa. De este modo, mediante observaciones externas bien ordenadas y teorías científicas podemos hacer inventarios de cuales son los estados necesarios y suficientes en el mundo externo para que nuestro cuerpo haga tal cosa (o aumente la probabilidad de que lo haga). A ese conjunto de estados lo llamamos la causa física de la acción del cuerpo. Pero este segundo tipo de causa no debe ser confundido con el obrar mismo del cuerpo. Lo que tiene de especial este fenómeno llamado consciencia es que somos nosotros mismos, los observadores conscientes, no un fenómeno que está ahí fuera. Por ello, podemos percibir el fenómeno con las técnicas de observación que empleamos para objetos externos (detectores de actividad neuronal en este caso, y teorías científicas) y también algo más íntimamente, observando los qualia o cualidades que aparecen en nuestra mente particular mientras las neuronas cambian de pautas de actividad.

Edelman aplica este razonamiento de Schopenhauer a la relación entre experiencia consciente y su explicación neurológica. Una explicación científica de un fenómeno (por ejemplo, un huracán) es capaz de indicar las condiciones necesarias y suficientes para que el fenómeno tenga lugar, explicar las propiedades del fenómeno y explicar por qué el fenómeno tiene lugar sólo bajo esas condiciones. Pero no debemos esperar que una explicación científica sea un fenómeno o cause el fenómeno (cause el huracán). Deberíamos aplicar estos mismos estándares a las explicaciones del fenómeno llamado consciencia. Una explicación científica de un sentimiento concreto nunca causará ese sentimiento, ni una explicación de la construcción neuronal del color conseguirá que una persona ciega experimente el color.

Edelman y Tononi parten de tres hipótesis:

  1. la consciencia es una clase especial de fenómeno físico que emerge de la estructura y dinámica de ciertos cerebros. Este fenómeno que es la experiencia consciente tiene dos propiedades importantes: está integrada (los estados de consciencia no pueden dividirse en componentes independientes) y altamente diferenciada (hay miles de millones de estados de consciencia diferentes).
  2. la hipótesis evolutiva: la consciencia evolucionó por selección natural en el reino animal. Esta hipótesis implica que la consciencia está asociada a estructuras biológicas concretas, y depende de procesos dinámicos generados por una cierta morfología. Pero influye a su vez en otros comportamientos que están sometidos a selección natural.
  3. Hipótesis del qualia: los aspectos subjetivos, cualitativos, de la experiencia consciente, siendo privados, no pueden ser comunicados directamente a través de la teoría científica, que por su propia naturaleza, es pública e intersubjetiva. La teoría intentará establecer condiciones necesarias y suficientes para la aparición del fenómeno consciente, pero no producirá los qualia subjetivos individuales.

De esos axiomas se deducen algunos corolarios inmediatos. Una observación biológica que está relacionada con la hipótesis evolutiva es que durante el aprendizaje y en muchos momentos de comprensión humana, el hacer generalmente precede al entender. Los animales, por ejemplo, pueden resolver problemas que no parecen entender lógicamente. Los humanos muchas veces elegimos la estrategia correcta antes de entender por qué. Utilizamos una regla antes de estructurarla como regla lógica explícita. Aprendemos a hablar antes de saber nada de sintaxis.

Otro corolario es que la selección natural genera cerebros que no tienen necesidad de funcionar lógicamente, como sí que es imprescindible en cambio para el funcionamiento de un ordenador. Los principios lógicos son aprendidos a posteriori por individuos con cerebros creados por selección natural. La consciencia no es propiamente una computación.

Las competencias cognitivas que han sido seleccionadas evolutivamente son diferentes en los distintos animales. Dennett (2017) clasifica a éstos en tres grandes grupos:

  1. Criaturas darwinianas, con sus competencias prediseñadas y fijadas por la selección natural. Nacen sabiendo todo lo que alguna vez sabrán. Son seres dotados para muchas actividades complejas, pero sin capacidad de aprender.
  2. Criaturas skinnerianas, que además de sus disposiciones heredadas, tienen la predisposición importante de ajustar su comportamiento en respuesta a “refuerzos”. Más o menos aleatoriamente, generan comportamientos para probar en el mundo. Aquellos comportamientos que reciben recompensas son los que más probablemente serán repetidos en futuras circunstancias análogas. Este condicionamiento operante mejora la adaptación, aunque lleva a la muerte de muchas criaturas que han ensayado comportamientos excesivamente peligrosos (como el reptil que explora cada vez más lejos de su hábitat familiar, porque encontró siempre comida nueva).
  3. Criaturas popperianas, que extraen información del mundo y la mantienen disponible, usándola para pre-testear comportamientos simbólicamente antes de ponerlos en práctica o no. La mayoría de etólogos piensan que perros, gatos, loros, córvidos, delfines y otros cetáceos y primates (simios y monos) son criaturas no sólo skinnerianas, sino también popperianas.
  4. Criaturas gregorianas (por Richard Gregory, el psicólogo que estudió las herramientas de pensamiento, que dotaban a los humanos de “inteligencia potencial”). Un ser gregoriano está dotado con muchas herramientas de pensamiento, unas seleccionadas biológicamente y otras aportadas por las capacidades individuales y sociales de planificación intencional: esa capacidad autobiográfica que es la consciencia de sí mismo, e instrumentos como los esquemas, mapas, aritmética, microscopios, estudios científicos, ordenadores….

 

El teatro privado de cada ser humano

Los estados conscientes se manifiestan como perceptos sensoriales, imágenes, pensamientos, charla interior, sentimientos emocionales, sentimientos de voluntad, de uno mismo, o de familiaridad, etc. Estos estados pueden ocurrir en cualquier combinación concebible. Los perceptos sensoriales vienen en muchas modalidades diferentes: visión, sonido, sensación táctil, olor, sabor, propiocepción (sensación de nuestro cuerpo), cinestesia (el sentido de las posiciones corporales), placer y dolor. Cada modalidad comprende muchas submodalidades. La experiencia visual, por ejemplo, incluye color, forma, movimiento, profundidad, etc.

Aunque menos vívidas y ricas en detalles que los perceptos sensoriales, el pensamiento, el habla interior y la imaginería mental nos recuerdan poderosamente que una escena consciente puede ser construida hasta en ausencia de inputs externos. Los sueños son la demostración más llamativa de este hecho. A pesar de ciertas peculiaridades, como credulidad del soñante, candor, y falta de autorreflexión, la consciencia en el sueño y en la vigilia son remarcablemente similares: los objetos visuales y las escenas son normalmente reconocibles, el lenguaje es inteligible, e incluso las historias que se despliegan en los sueños son altamente coherentes y pueden ser confundidas a veces como verdaderas.

La consciencia puede ser pasiva así como activa y esforzada. Cuando no focalizamos la atención sobre este o aquel aspecto particular del input sensorial, la consciencia es amplia y receptiva, y ocurre sin esfuerzo. En el caso contrario, la percepción se vuelve una actividad orientada a una acción. Los idiomas suelen diferenciar ambas clases de percepción, pasiva y  activa, con verbos como: seeing y watching (ver y mirar), hearing y listening (oir y escuchar), feeling y touching (sentir y tocar). El llamar a la parte más activa de nuestra consciencia requiere un esfuerzo del que somos conscientes. Cuando dirigimos o enfocamos la atención o buscamos algo en nuestra conciencia; cuando luchamos por recuperar un recuerdo; cuando guardamos un número o una idea en la memoria de trabajo, realizamos un cálculo mental o imaginamos una escena, o estamos profundamente inmersos en el pensamiento; cuando planificamos, tramamos o tratamos de anticipar las consecuencias de nuestros planes y tramas; cuando iniciamos una acción o elegimos deliberadamente entre múltiples alternativas; cuando imponemos nuestra voluntad; o cuando luchamos con un problema, la consciencia es tan activa como ardua.

En la mayoría de los estados de consciencia hay un reconocimiento de estar situados o localizados en el tiempo y el espacio y una consciencia de nuestros cuerpos, tipos de consciencia que están claramente basadas en diferentes fuentes de información. Hay a menudo también un marco consciente, que tiene que ver con sentimientos de familiaridad, de tener razón o estar equivocado, de estar satisfecho o no. Pueden estar presentes también todas esas refinadas discriminaciones que son la esencia de la cultura y el arte.

Finalmente, la experiencia consciente varía en intensidad; el nivel global de alerta puede ir desde el sueño relajado hasta el estado hipervigilante del piloto de caza en acción, y la percepción sensorial puede ser más o menos vívida. Hay una conocida capacidad, la atención, para seleccionar o amplificar diferencialmente ciertas experiencias conscientes y excluir otras. Además, la consciencia está inextricablemente ligada a ciertos aspectos de la memoria. De hecho, tenemos una especie de memoria de trabajo, o capacidad de retener unos pocos segundos un número de teléfono, una frase o una posición en el espacio, que es un apoyo muy importante para la consciencia.

Hay tres rasgos que comparten todas las experiencias conscientes: privacidad, unidad e informatividad.

Las experiencias conscientes son privadas, propias de cada humano o animal particular e inaccesibles a los demás, al menos en todo su detallado contenido.

La integración de las percepciones en un todo unificado tiene consecuencias como la imposibilidad de tomar dos decisiones a la vez (dentro de unos pocos cientos de milisegundo), o recordar más de 4 números de 12 observados a la vez, o construir una impresión visual coherente si las imágenes ofrecidas a ambos ojos son completamente dispares (en cuyo caso, o vemos una o vemos otra de las imágenes ofrecidas); algo análogo ocurre con las imágenes ambiguas, ante las cuales el cerebro oscila entre una reconstrucción u otra alternativa, pero no mezcla las dos imágenes que le son familiares. Capacidad limitada y funcionamiento serial de los estados conscientes es el precio que hay que pagar a las necesidades de integración de aquellos estados.

figura[1]y fondo

Figura. Imagen ambigua o paradójica. Ante ella, el cerebro alterna entre construir una percepción de dos labios besándose, y construir la percepción de una bailarina, pero no puede percibir ambas construcciones a la vez

Además, aunque los contenidos conscientes cambian continuamente, la experiencia consciente de cada sujeto es la de una continuidad de contenido, que permite hacer elecciones y planes.

Muchos trastornos neuropsicológicos demuestran que la conciencia puede doblarse o encogerse y, a veces, incluso dividirse, pero no tolera rupturas de coherencia. Por ejemplo, aunque un derrame cerebral en el hemisferio derecho deja a muchas personas con sus lados izquierdos paralizados y afectados con pérdida sensorial completa, algunos niegan su parálisis, un fenómeno llamado anosognosia. Si se enfrentan con la evidencia de que sus brazos y piernas izquierdos no se mueven, algunas de estas personas pueden incluso negar que estas extremidades les pertenezcan, y pueden tratarlos como objetos extraños. Algunas personas con daño occipital bilateral masivo no pueden ver nada, sin embargo, no reconocen que son ciegas (síndrome de Anton). Las personas con cerebro izquierdo y derecho desconectados proporcionan otra demostración de que la conciencia aborrece los huecos o las discontinuidades. Después de la cirugía, el campo visual de cada hemisferio se divide en dos en el medio. Sin embargo, las personas con cerebros divididos generalmente no informan ninguna reducción a la mitad de su visión ni ningún límite agudo entre la visión y la ceguera en la línea media. De hecho, si al hemisferio izquierdo se le muestra solo el lado derecho de una cara, la persona declara ver una cara completa.

Hemineglect izquierdo

Figura 1. Imagen original mostrada (a) y copiada (b) por un paciente con hemineglect izquierdo. Tomado de Edelman y Tononi (2000).

La gente con hemineglect, un síndrome que aparece a menudo cuando hay lesiones del lóbulo parietal derecho, son conscientes únicamente del lado derecho de las cosas. Por ejemplo, se visten sólo el lado derecho de su cuerpo; afeitan el lado derecho de su cara; leen el lado derecho de las palabras, como por ejemplo “ball” en la palabra “football”; ignoran cualquier estímulo táctil o visual del lado izquierdo. A pesar de ello, niegan que algo vaya mal en ellos. Sólo 24 horas tras un gran trombo que inutilizó una gran parte de su lóbulo parietal derecho, la consciencia de uno de estos pacientes cerró la discontinuidad perceptiva y la selló de un modo que nos cuesta imaginar. Uno tiene la impresión de que tras un accidente físico de este tipo, un ser humano consciente es rápidamente “resintetizado” o reunificado dentro de los límites de un nuevo universo solipsista que, para los observadores externos, está deformado. La red de relaciones que construyen un evento consciente no se deja rota y discontinua, sino que los cabos sueltos tienden a cohesionarse nuevamente con rapidez y salvan la discontinuidad. El impulso a la integración es tan fuerte que a menudo no se percibe ningún espacio vacío donde, de hecho, hay un alarmante hueco. Aparentemente el sentimiento de una ausencia es mucho menos tolerable que la ausencia del sentimiento. En todos estos síndromes, la consciencia puede encogerse, pero siempre permanece integrada y coherente.

La informatividad de la experiencia consciente es el tercer rasgo notable que enumeramos antes. Somos capaces de discriminar entre innumerables estados de consciencia distintos, cada uno de los cuales pueden conducir luego a comportamientos diferentes, en forma de pensamientos o acción. Tal discriminación implica información (“reducción de incertidumbre”) que “hace una diferencia”. Por ejemplo, somos capaces de diferenciar miles de escenas visuales complejas diferentes en unos pocos cientos de milisegundos.

Además, las discriminaciones de nuestra consciencia contienen habitualmente muchas más informaciones que la que estamos focalizando como principal. Por ejemplo, cuando discriminamos la aparición del número 3 en un experimento científico de reconocimiento visual, además de la información de la aparición de este número concreto, sabemos que estamos en una situación experimental, que los demás sujetos son agradables y tranquilos, que estamos dispuestos a aguantar hasta el final esa aburrida tarea en interés de la ciencia, y que no hay otras necesidades apremiantes. Esta información adicional no es normalmente verbalizada porque es parte del contexto que es constante y acordado, pero podría ser verbalizado si fuera necesario y es fácil revelar su presencia.

Las tres estructuras evolutivamente heredadas en el cerebro

El cerebro humano contiene unos 100.000 millones de neuronas. El manto exterior del cerebro, el cortex cerebral, contiene unos 30.000 millones de neuronas y 1.000 millones de de conexiones o sinapsis entre ellas. Las neuronas tienen proyecciones arborescentes llamadas dendritas que reciben las conexiones sinápticas desde otras neuronas. También tienen una proyección única más larga, llamada axón, que conecta sinápticamente con las dendritas o los cuerpos de otras neuronas. Las dendritas reciben el estímulo electroquímico de otras neuronas y lo transmiten al cuerpo celular; el axón lleva hacia otras neuronas la respuesta del cuerpo celular a las señales que le han llegado.

tipos de neurona-2

Figura 2. Algunos Tipos de Neurona

Hay unos 50 tipos de neuronas en el cerebro. Las neuronas están rodeadas por células llamadas glia que las alimentan pero no participan en la señalización nerviosa, y de la red de capilares que transportan la sangre. Las neuronas pueden ser excitadoras o inhibidoras. Aunque en algunas especies algunas de las sinapsis son eléctricas, en la especie humana la inmensa mayoría de las sinapsis son químicas.

La excitación de una neurona presináptica sobre otra post-sináptica se produce cuando una onda de polaridad se propaga a través de la membrana del axón hasta la sinapsis, y provoca la liberación de neurotransmisores en el espacio que separa el final del axón y los receptores de las dendritas o el cuerpo de la célula post-sináptica. Esto excita (tras un tiempo entre 10 y varios cientos de ms) en la célula receptora una señal nerviosa que a su vez es dirigida hacia otras neuronas vecinas con las que hay conexión, excitándolas o inhibiéndolas (induciendo a éstas a que no disparen señales nerviosas).

sinapsis de arbol de neuronas

Figura 3. Red de Neuronas interconectadas

 

El sistema tálamo-cortical comprende el tálamo, situado en el centro del cerebro, que recibe inputs sensoriales y de otro tipo, y el cortex. A grandes rasgos, la parte trasera del sistema tálamo-cortical se dedica a la percepción, mientras la parte delantera se dedica a la acción y planificación. Dentro del área perceptora, diferentes áreas se especializan en percepciones de los diferentes sentidos. Dentro del área visual, a su vez, distintos grupos de neuronas se especializan unas en la forma del estímulo visual, otras en el color, otras en el movimiento, etc.

La otra mitad de la historia es que la mayoría de estos grupos segregados de neuronas están interconectados en pautas particulares. Por ejemplo, grupos neuronales que responden a fronteras visuales verticales están interconectados más densamente que grupos que responden a bordes orientados en posiciones diferentes. Grupos neuronales que responden a objetos aparentemente cercanos en el campo visual, están más densamente interconectados entre sí que con los grupos neuronales que responden a los objetos aparentemente lejanos. Tales grupos muy interconectados tienden a ponerse en funcionamiento («disparan») simultáneamente cuando aparece el  estímulo visual en el que están especializados.

A una escala aún mayor se observan conexiones lejanas entre áreas especializadas, que proporcionan la base estructural para los procesos de reentrada, que describiremos posteriormente, y que ofrecen la llave para resolver el problema de la integración de las funcionalidades segregadas, a pesar de la ausencia de un área coordinadora central.

Tres estructuras dinamicas cerebrales

Figura 4. Los Tres Principales Arreglos Topológicos de la Neuroanatomía Fundamental en el Cerebro. (A) El diagrama superior muestra el sistema tálamocortical, una densa malla de conectividad reentrante entre el tálamo y la corteza y entre diferentes regiones corticales a través de las llamadas fibras corticocorticales. (B) El diagrama central muestra largos bucles polisinápticos que están dispuestos en paralelo y que salen de la corteza, entran en los llamados apéndices corticales (indicados aquí están los ganglios basales y el cerebelo) y regresan a la corteza. (C) El diagrama inferior indica uno de los sistemas de valores de proyección difusa (el locus coeruleus noradrenérgico), que distribuye una «red capilar» de fibras por todo el cerebro y puede liberar el neuromodulador noradrenalina. Tomado de Edelman y Tononi (2000).

 

La segunda disposición topológica no está organizada en absoluto como una malla sino, más bien, como un conjunto de cadenas unidireccionales y paralelas que unen la corteza con un conjunto de sus apéndices, cada uno con una estructura especial: el cerebelo, los ganglios basales y el hipocampo. Desde ellos, otras fibras unidireccionales vuelven a la corteza, directamente o a través del tálamo. El cerebelo está involucrado en la coordinación motora, y también en ciertos aspectos del pensamiento y el lenguaje. El ganglio basal está involucrado en la planificación y ejecución de actos cognitivos y motores complejos. El hipocampo parece jugar un importante rol en convertir la memoria a corto plazo en memoria a largo plazo, a través de emociones, y otras muchas funciones básicas. En estas tres estructuras las conexiones son sobre todo paralelas y unidireccionales, no recíprocas. Estos sistemas parecen admirablemente adecuados para la ejecución de una variedad de rutinas motoras y cognitivas complicadas, la mayoría de las cuales están funcionalmente aisladas entre sí, una característica que garantiza velocidad y precisión en su ejecución.

El tercer tipo de disposición topológica no se asemeja ni a una malla ni a un conjunto de cadenas paralelas, sino más bien a un conjunto difuso de conexiones que se asemejan a un abanico grande. El origen del abanico está en un número relativamente pequeño de neuronas que se concentran en núcleos específicos en el tronco encefálico y el hipotálamo, y tienen nombres técnicos imponentes relacionados con la sustancia que liberan: el locus coeruleus noradrenérgico, el núcleo serotoninérgico, el núcleo dopaminérgico, los núcleos colinérgicos y los núcleos histaminérgicos. Todos estos núcleos se proyectan difusamente a grandes porciones del cerebro, si no a todo. Las neuronas pertenecientes a estos núcleos parecen dispararse cuando algo importante o infrecuente ocurre, tal como un ruído fuerte, un pulso de luz, o un dolor súbito. El disparo de estas neuronas provoca la liberación difusa en amplias áreas del cerebro de moléculas llamadas neuromoduladores, que son capaces de influir no sólo en la actividad neuronal sino en la plasticidad neuronal. Un cambio en la fortaleza de las sinapsis en circuitos neuronales que producen respuestas adaptativas. Los autores llaman a estos sistemas, sistemas de valores.  La mayoría de las rutinas de acción de las drogas usadas en enfermedades mentales tienen por blanco las células de este sistema. Pequeñas alteraciones de la química de estas células pueden tener efectos drásticos sobre la función mental global.

En síntesis, la experiencia consciente parece estar asociada con actividad neuronal de neuronas que están distribuidas en muchas regiones diferentes del cerebro, en el sistema talamo-cortical y regiones relacionadas con él. Para que haya consciencia, un gran número de neuronas debe interaccionar rápida y recíprocamente a través del proceso llamado reentrada. Si las interacciones reentrantes son bloqueadas, sectores enteros de la consciencia desaparecen, y la consciencia como un todo puede encogerse o dividirse. Finalmente, las pautas de actividad de las neuronas que soportan la experiencia consciente deben estar continuamente cambiando y estar diferenciadas unas de otras. Si un gran número de neuronas comienzan a disparar del mismo modo, reduciendo la diversidad de los repertorios, como ocurre en el sueño profundo y la epilepsia, la consciencia desaparece.

Las conexiones que encontramos entre las neuronas de un cerebro  no son exactas. Esto es, no son idénticas en dos cerebros distintos, dado que no hay dos cerebros idénticos. Las pautas de las conexiones de un área dada del cerebro sí que son similares en ambos cerebros, pero no las ramificaciones microscópicas de las neuronas de cada cerebro, que lo hacen único.

Tanto la historia experiencial como la historia del desarrollo de un cerebro son diferentes a las de cualquier otro cerebro. De un día al siguiente algunas conexiones sinápticas no permanecen exactamente iguales; ciertas células habrán retraído sus procesos mientras otras habrán extendido procesos nuevos, mientras que otras habrán muerto. La variabilidad individual que eso conlleva no es sólo ruido o errores sino que puede afectar a la manera como recordamos cosas y eventos, y a la capacidad del cerebro de responder y reaccionar a las incontables escenas que pueden ocurrir en el futuro. Estas características son muy diferentes de las que emergen del diseño de un ordenador.

La capacidad del sistema nervioso para llevar a cabo la categorización perceptiva de diferentes señales para la vista, el sonido, etc., dividiéndolas en clases coherentes sin un código preestablecido, no se entiende completamente. Según Edelman y Tononi, surge a través de la selección de ciertos patrones distribuidos de actividad neuronal a medida que el cerebro interactúa con el cuerpo y el medio ambiente.

Tal como lo resume Monserrat (2006): “La categorización, sea del tipo que sea, produce un mapeado (un engrama neuronal): la memoria consiste en el refuerzo de las conexiones sinápticas que lo producen (sería la comúnmente llamada facilitación neural descrita por primera vez por Hebb). Las primeras memorias registran las primeras categorías o «signos» que inducirán respuestas automáticas; al mismo tiempo, estas respuestas motoras deberán ser también registradas. El refuerzo de estos mecanismos estímulo-respuesta produce el aprendizaje”(…) “¿qué signos y qué respuestas son seleccionados según los principios del darwinismo neural? Edelman insiste en que dependen de un sistema de valor constituido en el sistema límbico: aparece así «la conexión de los mapeados globales con la actividad de los llamados centros hedónicos y el sistema límbico del cerebro de una forma que satisface valores homeostáticos, apetitivos y necesidades de actuación establecidas evolutivamente».

Reentrada y fortalecimiento entre grupos neuronales

Figura. La conexión frecuente por reentrada de grupos neuronales conduce al reforzamiento de la actividad sincronizada de ambos grupos

Tampoco la dinámica de la reentrada tiene similitud con ninguna dinámica del funcionamiento de los ordenadores. Sincroniza la activación de áreas especializadas diferentes del cerebro, integrando procesos perceptuales y motores. Esta integración en última instancia da lugar a la categorización perceptiva, la capacidad de discriminar un objeto o evento de un fondo con fines adaptativos. Como se discutirá, la reentrada permite una unidad de percepción y comportamiento que de otro modo sería imposible, dada la ausencia en el cerebro de un único procesador central que coordine tareas.

Para tratar de ilustrar metafóricamente las extrañas características de la reentrada, los autores proponen imaginar un extraño cuarteto de cuerda en el cual cada intérprete responde mediante improvisación a ideas y señales de su propio entorno. Como no hay partitura, cada intérprete produciría sus propias melodías características, pero inicialmente estas melodías no estarían coordinadas con las de los otros intérpretes. Sin embargo, los cuerpos de los intérpretes estarían conectados con los de los otros mediante innumerables fibras, de modo que sus movimientos serían rápidamente transportados de unos a otros mediante las señales de tensión cambiante, que actuarían simultáneamente para sincronizar las acciones de cada intérprete. Así, estas señales simultáneas aumentarían la correlación de sus sonidos en el momento siguiente. Aunque cada intérprete mantendría su estilo y su rol, el resultado de conjunto tendería con el tiempo a volverse más integrado y coordinado.

Selección neuronal darwiniana durante el desarrollo y el aprendizaje

La selección de redes neuronales durante el desarrollo embrionario, proceso en el que las neuronas se conectan con las más cercanas y con otras lejanas de forma excesiva y bastante aleatoria, y el reforzamiento posterior de las sinapsis que más descargan juntas durante la experiencia habitual, son los dos mecanismos de selección de tipo “darwiniano” que generan las redes neurales particulares de cada individuo animal.

Luego, la reentrada permite a un animal con un sistema nervioso variable e individual dividir un mundo sin etiquetar, en objetos y eventos, sin necesidad de suponer la existencia de un homúnculo o un programa de ordenador dentro de la cabeza.

Los cerebros son sistemas degenerados, en el sentido de que diferentes configuraciones de interconexiones entre sus áreas especializadas pueden producir comportamientos muy similares o casi idénticos. Esto es, son grupos de neuronas, y no neuronas individuales, los que refuerzan sus interconexiones cuando un cerebro genera un percepto o un concepto.

Desarrollo de las conexiones

La estructura de conexiones dominantes que constituyen los subsistemas heredados del sistema somato-sensorial, el sistema nervioso y el cerebro, condicionan desde el principio la forma general de las interconexiones que se van a producir y que van a ser reforzadas por el aprendizaje.

Por ejemplo, el mero hecho de tener una mano con cierta forma y cierta tendencia a agarrar de una manera y no de otra, aumenta enormemente la selección de sinapsis y pautas neurales de actividad que conducen a acciones apropiadas con esos medios previos. Los objetos que vemos por primera vez y además son manipulables captan más nuestra atención que los que están fuera de nuestro alcance. Otro ejemplo son los muchos reflejos con los que los bebés recién nacidos están provistos. Las características morfológicas que ligan los órganos sensoriales y el aparato motor a distintas funciones cerebrales son otros ejemplos de valores. Éstos son necesarios para orientar los ojos de un bebé hacia una fuente de luz, pero no son suficientes para el reconocimiento de diferentes objetos, que se produce posteriormente mediante conceptualización.

Otro ejemplo importante son los sistemas noradrenérgicos, serotoninérgicos, colinérgicos, dopaminérgicos e histaminérgicos de la anatomía cerebral, que transportan información sobre el estado general de comportamiento del organismo (sueño, vigilia, exploración, aseo, etc.), así como de la aparición súbita de eventos inesperados. Los neuromoduladores que liberan estos centros son capaces de modificar la actividad de muchos centros especializados del cerebro y la probabilidad de que las neuronas respondan con un reforzamiento o debilitamiento de sus sinapsis en la presente circunstancia. Un sistema de valorización como los citados es capaz de orientar la evolución fenotípica de las redes neurales mediante reglas del tipo “la luz es mejor que la oscuridad”, descargándose por ejemplo cuando una luz ilumina el centro del ojo.

seleccion de conexiones en laexperiencia

Las emociones y la valoración de las percepciones

El enlace  https://webs.ucm.es/info/pslogica/mente/cap5.htm resume muy bien la teoría de Edelman sobre las emociones, ligadas a los sistemas neurales que Edelman y Tononi llaman de valorización o valor. En este apartado, usaremos la síntesis que hace ese enlace.

Toda nuestra conducta, hasta que la cultura se impone sobre ella, debe ser evaluada y orientada por un conjunto heredado de preferencias del organismo que parecen haber sido seleccionadas evolutivamente para facilitar la supervivencia del organismo. Estos sistemas de valor materializados en estructuras fenotípicas son los impulsos e instintos.

Los instintos son mecanismos reguladores que suponen comportamientos patentes y que determinan al organismo a actuar o no de una determinada manera. Por ejemplo, cuando nuestro nivel de azúcar en sangre baja, unas neuronas del hipotálamo detectan el cambio; la activación de la pauta fija de comportamiento correspondiente hace que el cerebro altere el estado corporal de modo que pueda solucionarse este déficit, entonces sentimos hambre y normalmente iniciamos acciones para terminar con el hambre.

Estos mecanismos reguladores aseguran la supervivencia al impulsar un estado corporal que tiene una lectura muy clara (hambre, sed, náusea) o una emoción reconocible (miedo, ira) o también alguna combinación de estado corporal y emoción.

Igualmente estos mecanismos son también importantes para que el organismo pueda clasificar cosas o acontecimientos como «buenos» o «malos» en función de su incidencia en la supervivencia. Estos sistemas de valor podrían percibir la ocurrencia de conductas adaptativas y seleccionarían los eventos neuronales que las producen en función de los valores simples que contengan. Estos valores podrían traducirse en algo similar a una regla que estableciera criterios del tipo: «comer es mejor que no comer» o «ver es mejor que no ver». Bajo la influencia de estos mecanismos el repertorio de cosas categorizadas como buenas o malas crece rápidamente.

Las emociones primarias son manifestaciones corporales (y mentales) que nos sirven como criterios, valores, también prejuicios, para afrontar los acontecimientos que nos suceden y para responder de una manera que nos sea beneficiosa. Visto de este modo no parece ya tan extraño decir que las emociones y sentimientos son puentes entre procesos racionales y los elementos de la regulación biológica.

Parece que de forma innata existen ciertos estímulos que provocan miedo. Estos estímulos son más bien elementos presentes en algunos objetos del mundo. Más concretamente: Gran tamaño, Gran envergadura, Determinadas sensaciones corporales (como dolores agudos repentinos),  Cierto tipo de movimientos de objetos externos (v.g. reptiles),  Determinados sonidos (v.g. gruñidos).

La presencia de uno o alguno de estos estímulos desencadena respuestas de huida, ira, esconderse rápidamente, etc. Al principio, lo hace de forma bastante automática pero, en los mamíferos llamados superiores y en el ser humano, la complejidad de su sistema cerebral le permite muy pronto conectar la emoción con el objeto que la provocó. Naturalmente, esto tiene nuevas ventajas adaptativas, porque si conocemos el objeto que nos produce miedo podemos:

-Predecir la posibilidad de su presencia en un ambiente determinado;

-Generalizar nuestro conocimiento y mostrar prudencia ante objetos semejantes.

– Investigar el objeto, descubrir lo vulnerable y explotar ese conocimiento.

En general, nuestra conciencia primaria de lo que sentimos nos ofrece flexibilidad de respuesta basada en la historia particular de nuestras interacciones con el ambiente.

Es en este tipo de proceso asociativo, frecuentemente metonímico, en donde podemos empezar a hablar de emociones secundarias. Las emociones secundarias son combinaciones de un proceso evaluador mental con respuestas disposicionales a dicho proceso, dirigido hacia el cuerpo principalmente, lo que manifiesta la emoción, pero también hacia el cerebro que provoca nuevos cambios mentales. Tienen lugar una vez que hemos comenzado a experimentar sentimientos y a formar conexiones sistemáticas entre categorías de objetos y situaciones, por un lado, y emociones primarias por otro. Es decir, una vez que nuestra experiencia en el mundo nos ha llevado a categorizar situaciones del ambiente incluyendo las emociones que nos producen.

La aparición, por ejemplo, de un acontecimiento destacable o imprevisto dispara, no conscientemente, las redes de la corteza prefrontal (morado en la figura siguiente), que contienen de manera disposicional información vivida por el sujeto de casos semejantes, evalúa emocionalmente la situación. Estas representaciones disposicionales son adquiridas y surgieron de encuentros primarios con el mundo, requirieron pues de emociones primarias.

Sistema de las emociones

Figura. Sistemas que asocian perceptos y conceptos con emociones

 

También de manera no consciente, automática e involuntaria esta respuesta prefrontal se señala a la amigdala (azul oscuro) que informa al sistema límbico que es el responsable de la producción de emociones (azul claro). Igualmente la respuesta prefrontal y de la amigdala informa al hipotálamo (verde) que inicia la producción de hormonas (triángulo rojo) que activan respuestas motoras ante el estímulo, lo que produce por ejemplo, determinadas configuraciones del rostro y expresiones faciales. También incidirán en los sistemas endocrino y de producción de péptidos, cuyas acciones químicas retroalimentaran el estado del cuerpo y del cerebro.

Toda esta compleja actividad prepara, desde un estado emocional, al organismo para afrontar la nueva situación, y asocia de forma perdurable, mediante reforzamiento de relaciones entre sentimientos y concepto, la valoración, y por tanto el recuerdo del acontecimiento novedoso.

También es sugerente lo que el mismo autor comenta sobre lo que sería neuralmente un sentimiento (que es una percepción continua del propio estado, a diferencia de una emoción, que es una actitud surgida rápidamente a consecuencia de una percepción primaria).

El sentimiento sería la percepción neural del estado del cuerpo promediado (como en una media móvil) a largo plazo: funcionando cómodamente dentro de los límites biológicos normales (tranquilidad), o lo anterior más difusamente esperanzado; o tranquilidad más la sensación de no necesitar nada más (felicidad); o la sensación de estar alerta ante una amenaza probable inminente (precaución, alerta, temor, miedo); o la sensación de haber sobrevivido a un ataque inesperado pero conservar aún la fuerza para reaccionar (ira); o la sensación de no estar consiguiendo en los últimos tiempos la satisfacción de los instintos básicos o de los objetivos que me he propuesto (tristeza); o la sensación de que los otros o los entes del mundo con los que he interaccionado últimamente no son como deberían ser (asco).

El ambiente, el medio externo, nosotros mismos son elementos que cambian notablemente a lo largo del tiempo. En consecuencia, las imágenes que podemos construir relativas a dicho medio son fragmentarias y condicionadas por circunstancias externas. Si no dispusiéramos de este sentimiento de fondo que unifica las variaciones percibidas de nuestro cuerpo y del exterior resultaría difícil determinar que todo ese flujo variado y cambiante de imágenes pertenece a una misma persona. Nuestra identidad es este fondo de uniformidad viva, pero ilusoria, contra la que podemos darnos cuenta de la multitud de cosas que cambian alrededor de nosotros.

Cualquier organismo debe estar atento a las emergencias que el mundo le plantea, pero la urgencia de cualquier incidencia no rompe la percepción continua de nuestro cuerpo, puede debilitarse para dedicar más atención a la incidencia que nos requiere, pero no desaparece. Imaginemos que esa verificación continua de nuestro estado corporal desapareciera, que ante la pregunta ¿cómo estás? No pudiéramos dar respuesta alguna.

Enfermos que sufren anosognosia prototípica y completa, es decir, que pierden su sentimiento de fondo, terminan no dándose cuenta de su estado corporal general. No se dan cuenta que sufren si contraen alguna enfermedad, no perciben si están paralizados, pero tampoco les preocupa su futuro. No tienen ninguna capacidad emocional, sus sentimientos son planos, posiblemente porque no disponen de un fondo sobre el que se destaquen otros sentimientos. Estos pacientes pueden estar alegres cuando no procede o tristes de manera monótona. En general, no poseen ya una representación integral del yo porque cualquier actualización de las representaciones es imposible.

Y continúa el autor:

Empezamos a comprender ahora qué relación tiene nuestra maquinaria neural básica, la que dispone de circuitos de evaluación innatos y de impulsos e instintos, con nuestros órganos cerebrales modernos que se encargan de representar la experiencia adquirida. En nuestra ontogénesis necesitamos una guía eficaz que nos evite experiencias que puedan ponernos en peligro. Emociones y sentimientos sirven a menudo como alarmas de estas experiencias y como invitaciones de aquellas otras más convenientes.

Lo que le pasaba a Gage o a Elliot (pacientes neurológicos en quienes el área límbica estaba seriamente dañada) es que sus circuitos prefrontales dañados eran incapaces de evaluar su estado corporal, su sistema emocional y no les alertaba de los peligros ni les invitaba a caminos convenientes. Disponían únicamente de su razonamiento lógico para tomar decisiones. Pero el razonamiento lógico está soportado por la atención y por la memoria funcional (o memoria de trabajo). Pero la atención es un mecanismo sumamente limitado y a la memoria funcional le ocurre lo mismo. Con lo que la explosión combinatoria que se suele producir al evaluar alternativas de acción no puede podarse de ninguna manera. Nada nos predispone contra las alternativas de acción erróneas, con lo que nuestra posibilidad de caer en ellas, mediante el cálculo de coste/beneficio de la racionalidad lógica, aumenta ante el mínimo descuido.

Normalmente, los sentimientos se disparan cuando consideramos, aunque sea fugazmente, resultados negativos de una acción. “¡No me gusta!” es la alarma que nos indica que esa opción no nos conviene, inmediatamente y casi de modo inconsciente desechamos esa posibilidad. Con lo que reducimos drásticamente el número de opciones a considerar racionalmente.

Los sentimientos aumentan probablemente la precisión y la eficacia de nuestro razonamiento, mientras que, como hemos visto en los casos estudiados, su ausencia las reduce.

Es plausible pensar que de aquí radican conceptos que están muy arraigados en el sentido común, pero sólo recientemente están mereciendo la atención de los científicos. Conceptos como la intuición, las corazonadas e incluso la distinción entre experto y no experto, posiblemente encuentren una base sólida si tenemos en cuenta lo que ya está siendo denominado inteligencia emocional.

Las intuiciones o las corazonadas pueden ser el resultado consciente de la presencia inconsciente de actividad emocional en el proceso de toma de decisiones. Pero su fuerza es tal que nos evita una consideración racional adicional.

En el caso de los expertos, se sabe que su proceso de toma de decisión ante el problema del que se es experto se reduce notablemente por el uso de heurísticas. Las heurísticas son sugerencias no conscientes adquiridas de la experiencia que permiten agilizar la representación del problema o detectar soluciones al mismo. En estos casos, los sentimientos pueden estar actuando sobre la atención y la memoria funcional, amplificando las imágenes y valorándolas positivamente cuando estos mecanismos las seleccionan. Esto es algo semejante a subrayar con un marcador fosforescente una palabra de un texto, inmediatamente recoge nuestra atención y facilita su memorización.

La memoria

El mismo modelo de Edelman que nos explicaba cómo los grupos de neuronas crean categorías perceptivas es el que nos explica las bases de la memoria. En efecto, la memoria es en un primer nivel, la habilidad para repetir una ejecución o una acción. El tipo de acción depende de la estructura del sistema en el que la memoria se manifieste, porque la memoria no es un almacén donde nuestros recuerdos quedan almacenados como huellas, es más bien una propiedad dinámica de poblaciones de grupos de neuronas. Según Edelman, las bases de la memoria surgen de alteraciones en la fuerza sináptica de grupos en un mapa global.

¿Qué características del cerebro dan nacimiento a una memoria dinámica sin necesidad de almacenar representaciones codificadas? Edelman y Tanoni creen que las mismas que las de un sistema seleccional: Un conjunto de circuitos neurales degenerados construyendo un variado repertorio (de acciones y experiencias mentales); un medio de cambiar las poblaciones sinápticas tras recibir varias señales input; un conjunto de restricciones valorativas que aumentan la probabilidad de la repetición de un output adaptativo o recompensador independientemente de qué circuito degenerado es el usado.

En un sistema como ese, las señales procedentes del mundo exterior o de otras partes del cerebro pueden actuar seleccionando ciertos circuitos dentro de las enormemente variadas posibilidades combinatorias disponibles. La selección tendría lugar mediante la alteración de las intensidades sinápticas. Qué sinapsis particulares son alteradas ante la presencia de los inputs desencadenantes depende de la experiencia previa, así como de la actividad combinada de los centros valorativos que comentamos antes.

Al recordar se activan algunas, pero no necesariamente todas, de las porciones previamente establecidas del mapa global. De este modo se origina una respuesta categorial similar a alguna previa, pero normalmente los elementos que contribuyen a esa respuesta son diferentes, y en general es probable que hayan sido alterados por la conducta en marcha del organismo. Así pues, como las categorías perceptivas no son inmutables y son alteradas por la conducta continua del animal, la memoria es el resultado de un proceso de recategorización continua. Lo que se pone en funcionamiento cuando se repite un acto (motor o mental) debe ser uno o más de los patrones de respuesta neural adecuados para esa actuación, no una secuencia específica.

La degeneración de esos circuitos dentro de la misma pauta (el hecho de que la interconexión se haya reforzado entre grupos de neuronas de áreas especializadas distintas, y no entre neuronas individuales) es la que permite cambios en los recuerdos particulares cuando tienen lugar nuevas experiencias y cambios de contexto. La memoria en un sistema seleccional es recategorizante, no estrictamente replicativa. La degeneración da también una gran robustez a los recuerdos, a pesar de la muerte de algunas neuronas concretas.

El siguiente gráfico puede esclarecer esta idea.

Memoria

Figura. Un estímulo sensorial o cerebral similar a otro del pasado pone en funcionamiento sinapsis diferentes entre los mismos grupos neuronales que se sincronizaron ante el estímulo pasado, y cuya conexión reentrante quedó reforzada entonces

En la acción de alcanzar un vaso de agua, por ejemplo, la satisfacción de la sed activará los sistemas de valores y conducirá a la selección de varios circuitos apropiados para realizar esa acción. Por estos medios, los circuitos estructuralmente diferentes dentro de los repertorios degenerados son capaces de producir un output similar, lo que lleva a la repetición o variación del acto de alcanzar. Su actividad da lugar a las propiedades asociativas de la memoria; por ejemplo, un acto puede desencadenar otro acto, una palabra puede desencadenar otras palabras o una imagen puede provocar una narración. Estas propiedades asociativas derivan materialmente del hecho de que diferentes miembros del conjunto degenerado de circuitos usados en diferentes momentos tienen diferentes conexiones de red alternativas.

Este mecanismo de memorización puede explicar por qué los recuerdos que uno tiene tras muchos años suelen diferir de los que nosotros mismos tuvimos hace menos años, y difieren también en muchos detalles de lo que quedó grabado en una cinta de video. Lo fundamental aquí es comprender que ni siquiera en el nivel básico, los recuerdos son recuperados exactamente como quedaron grabados, sino que más bien son nuevas recategorizaciones, recreaciones de episodios pasados que salen a la luz dependiendo de las necesidades concretas del organismo.

Existirían tantos tipos de memoria como sistemas específicos tengamos. Tenemos una memoria motora, otra visual, una que permite el aprendizaje, otra que facilita el trabajo lingüístico y conceptual, incluso una que se mantiene activa como una especie de cuaderno de notas cuando iniciamos un proceso extenso y complejo, aún otra que maneja los números de teléfono que hemos aprendido o las caras de personas que conocemos, y también una que organiza nuestros episodios biográficos permitiendo poder disponer de una vida.

Podríamos añadir que, cuando unas percepciones sensoriales concretas dentro de un escenario excitan en nosotros unas conexiones antiguas de nuestra experiencia que nos provocan una consciencia de escena familiar o, incluso, sensación de “ya vivido”, lo que le ocurre a nuestro cerebro en ese momento es que está utilizando una parte de los enlaces entre grupos neuronales que utilizó en otras experiencias análogas del pasado (o en una experiencia única pasada), pero esa reactivación de conexiones neurales es identificada como sólo una imagen mental en la consciencia, y no como una escena real, porque al núcleo dinámico que ha surgido le faltan los estímulos sensoriales (bastantes complejos) que entonces acompañaron a este núcleo dinámico, pues las áreas de percepción primaria del cerebro están enviando señales que el córtex identifica como diferentes (aunque algo parecidas) a las que en el pasado acompañaron a las conexiones que ahora se han activado. Si esa diferencia no llegara a ser consciente, lo único que estaríamos haciendo es identificar una escena nueva, de un modo muy cercano a como la identificamos por primera vez. En este caso, seguiría habiendo una memoria (conexiones adecuadas para identificar la escena, mantenidas en el tiempo gracias al reforzamiento de las conexiones entre ciertos grupos neuronales) pero no nos llegaría a producir consciencia de estar identificando una escena parecida a otra que vivimos en el pasado.

La memoria es pues, una propiedad del sistema neural de interacción, reentrada y valoración. Tal memoria tiene propiedades que permiten que la percepción altere el recuerdo y que el recuerdo altere la percepción. No tiene ningún límite fijo de capacidad ya que genera “información” construyéndola. En este modelo, cada acto de percepción es hasta cierto punto un acto de creación, y cada acto de memoria es, en algún grado, un acto de imaginación. La memoria biológica es creativa, y no estrictamente replicativa. Además, es una de las bases esenciales de la consciencia.

La percepción en la memoria: el presente recordado

Es útil distinguir entre consciencia primaria y consciencia de alto orden. La consciencia primaria es la capacidad de construir escenas mentales, sin una clara conceptualización o sentimiento de uno-mismo o el testigo que observa. La consciencia de alto orden es propia de los humanos, y presupone la anterior, pero le añade el sentimiento de uno-mismo y la capacidad, en el estado de vigilia, de construir explícitamente escenas pasadas y futuras. En este post nos estamos centrando exclusivamente en la primera.

La primera condición neurológica para la existencia de una consciencia primaria es la categorización perceptual, la capacidad de dividir el mundo de señales en categorías adaptativas para una especie animal dada. El segundo requerimiento es el desarrollo de conceptos. Edelman y Tononi proponen que los conceptos derivan de la inspección del propio cerebro sobre la actividad de sus propias áreas y regiones. Otros dos requerimientos son la aparición de una memoria categórica sensible a la valoración, y la actividad de reentrada.

Montserrat (2014) resume así la concepción de Edelman sobre la formación de los conceptos: “En la formación de conceptos el cerebro construye mapas de sus propias actividades, no solamente de los estímulos externos como en la percepción. De acuerdo con la teoría las áreas cerebrales responsables de la formación de conceptos contienen estructuras que categorizan, discriminan y recombinan las variadas actividades que ocurren en diferentes clases de mapeados globales. Categorizan partes de los mapeados globales pasados de acuerdo con modalidades, la presencia o ausencia de movimiento y la presencia o ausencia de relaciones entre categorizaciones perceptuales. Estructuras capaces de realizar estas actividades se hallan probablemente en los lóbulos frontal, temporal y parietal del cerebro”.

cerebro_lateral

Edelman y Tononi proponen que la consciencia primaria emergió en la evolución cuando, a través de la aparición de nuevos circuitos que mediaban en la reentrada, las áreas posteriores del cerebro que se dedican a la conceptualización perceptual, fueron ligadas dinámicamente con áreas anteriores que son responsables de la memoria basada en valoraciones. Con tales medios, un animal sería capaz de construir un presente recordado, una escena que liga adaptativamente contingencias inmediatas o imaginadas a la historia previa de comportamientos dirigidos por valores del animal.

La categorización perceptual es compartida por todos los animales con sistema nervioso vertebrado. Es la capacidad de dividir el mundo de señales en categorías o perceptos. La segunda capacidad necesaria es el desarrollo de conceptos. La capacidad de combinar diferentes categorizaciones perceptuales relacionadas con una escena u objeto y construir un “universal” que refleje la abstracción de algún rasgo que es común en toda la variedad de perceptos.

Cuando el cerebro inspecciona las actividades de todas sus regiones, puede abstraer pautas en el funcionamiento conjunto, pautas que corresponderían a lo que llamamos conceptos. Por ejemplo, «Cerebelo y ganglios basales activos en el patrón a, grupos neuronales en regiones premotoras y motoras que participan en el patrón b, y submodalidades visuales x, y y z simultáneamente interactivas».

Esquemas neurales de orden más alto registrarían estas actividades y generarían un output correspondiente a la noción de que un objeto está moviéndose hacia delante en relación con el cuerpo del gato.

Las valoraciones ofrecidas por los centros de valoración, la saliencia (sorpresa) y las emociones generadas por el sistema límbico cuando se genera un percepto o un concepto son claves para que ese concepto o percepto sean memorizados con mayor o menor fuerza.

La reentrada entre distintos esquemas neurales especializados (en el color, la forma, el movimiento, la distancia, etc. de un objeto, por ejemplo) proporciona una atadura o ligazón entre los mismos que les obliga a estar activos al mismo tiempo y en sincronía con el input perceptual.

Los autores creen que los sistemas corticales responsables de la construcción de perceptos estaban ya en funcionamiento en los reptiles y pájaros de la era secundaria. Luego, evolucionaron las áreas corticales secundarias y sus apéndices, tales como el ganglio basal, momento en que los sistemas de la memoria conceptual emergieron.

En un momento en el tiempo evolutivo que corresponde aproximadamente a las transiciones de los reptiles a las aves y de los reptiles a los mamíferos, apareció una nueva conectividad anatómica crítica. La conectividad reentrante masiva surgió entre las áreas corticales multimodales que llevan a cabo la categorización perceptiva y las áreas responsables de la memoria de categoría de valor. Esta conectividad reentrante derivada evolutivamente es implementada por varios grandes sistemas de fibras corticocorticales que unen una parte de la corteza con el resto y por un gran número de conexiones recíprocas entre la corteza y el tálamo (véase figura 4-A y siguiente). Los circuitos talamocorticales que median estas interacciones reentrantes se originan en las subdivisiones principales del tálamo: estructuras conocidas como los núcleos talámicos específicos, el núcleo reticular y los núcleos intralaminares. Todas las estructuras talamocorticales y sus conexiones recíprocas actuando juntas vía reentrada conducen a la creación de la escena consciente.

Fibras blancas del sistema talamo-cortical

Figura. Fibras blancas (axones) que unen una parte de la corteza con el tálamo y con los subsistemas vecinos del tálamo

 

La capacidad de construir una escena consciente es la capacidad de construir, en fracciones de segundos, un presente recordado. “Considere un animal en la jungla, que siente un cambio en el viento y un cambio en los sonidos de la jungla al comienzo del crepúsculo. Tal animal puede huir, aunque no exista un peligro obvio. Los cambios en el viento y el sonido han ocurrido independientemente antes, pero la última vez que ocurrió, apareció un jaguar; una conexión, aunque no probablemente causal, existe en la memoria de ese individuo consciente.

Un animal sin dicho sistema aún podría comportarse y responder a estímulos particulares y, en ciertos entornos, incluso sobrevivir. Pero no podría vincular eventos o señales en una escena compleja, construyendo relaciones basadas en su propio historial único de respuestas dependientes del valor. No podía imaginar escenas y con frecuencia no lograría evadir ciertos peligros complejos. El surgimiento de esta habilidad es lo que conduce a la conciencia y subyace a la ventaja evolutiva selectiva de la consciencia. Permite una mayor selectividad al elegir sus respuestas en un entorno complejo” (Edelman y Tononi, 2000).

 

El reconocimiento visual

Según Dennet (2017), en el reconocimiento visual hay más conexiones descendientes (desde el córtex visual hacia el núcleo geniculado lateral del tálamo y luego hacia la retina) que ascendentes (desde la retina hacia el núcleo geniculado lateral del tálamo y luego hacia el córtex visual), lo cual encajaría bien con los modelos bayesianos del funcionamiento cerebral. Los modelos bayesianos descienden de los modelos de «análisis por síntesis» de la ciencia cognitiva temprana, en los cuales la curiosidad de arriba hacia abajo («¿Es un ciervo?», «¿Es un alce?») guía la formación de hipótesis para probar contra los datos entrantes (Su cerebro analiza los datos haciendo una suposición, sintetizando una versión de lo que está buscando y comparándola con los datos).

Sistema visual

Figura. Las tres etapas del procesamiento neuronal del sistema visual

Entiendo que sería algo similar a esto: entre la capa de neuronas retinales y primarias motoras habría una capa intermediaria (el núcleo geniculado lateral) y luego la capa superior del córtex visual. La capa intermedia haría un esbozo general de lo que le llega de la visión primaria y la enviaría hacia arriba. La capa superior no tendría en general en memoria nada idéntico al esquema que llega, y devolvería un esquema alternativo, correspondiente a conceptos u objetos identificados en circunstancias similares. La capa intermedia enviaría hacia abajo señales para que los receptores primarios efectuasen movimientos oculares e imágenes adicionales y tras las nuevas imágenes recibidas detectaría que no son coherentes con el esquema que le llega de arriba en ciertos aspectos. El informe de esas diferencias subiría hacia arriba. La capa superior modificaría entonces su  propuesta en forma de esquema nuevo que bajaría hacia la capa intermedia, que repetiría sus instrucciones hacia abajo y volvería a comparar, dando su respuesta hacia arriba. Así sucesivamente, se alcanzaría una iteración en la que no habría respuesta hacia arriba significativa para el córtex superior, y éste daría por buena su última propuesta.

Edelman y Tononi desarrollaron un modelo de ordenador de la parte superior del sistema visual que creen aplicable en su filosofía a otros sistemas sensoriales y motores. El modelo interconecta 64 áreas del cortex del gato con 1.134 conexiones, la mayoría de ellas recíprocas. Representan a nueve áreas corticales visuales que producen outputs relacionados con el color, la forma y el movimiento.

Modelo de percepcion visual de Edelman

Figura. Modelo del cortex visual de Edelman y Tononi (2000)

Por ejemplo, grupos de neuronas en el área V1 del modelo, correspondiente al córtex visual primario, responden a rasgos elementales de los objetos, como la orientación de los bordes en una posición particular del campo visual. Grupos de neuronas en áreas visuales superiores, tales como la IT, correspondiente al córtex inferotemporal, responden a clases de objetos que tienen cierta forma, independientemente de su posición en el campo visual. Otros grupos, tales como los del área V4, responden al color de los objetos, no a su forma o dirección de movimiento, mientras que las neuronas en el área V5 responden a la dirección de movimiento pero no a la forma o el color.

Un test del modelo fue que discriminara una cruz roja de una cruz verde y un cuadrado rojo, presentados simultáneamente en el campo visual. Una respuesta discriminatoria correcta implicaba  la conjunción de varias propiedades de los estímulos individuales, su color, forma y posición. El modelo-autómata fue entrenado activando en él un “sistema de valoración” con proyecciones difusas que liberaban neuromoduladores cada vez que el sistema movía su “ojo” hacia el objeto correcto. Esta activación equivale a recompensar a un animal experimental con alimento cada vez que realiza la respuesta correcta. La activación del sistema de valoración señalaba globalmente la ocurrencia de un evento saliente y permitía cambios en la fortaleza de las conexiones entre los grupos distribuidos de neuronas. Tras algún entrenamiento, el sistema era capaz de lograr la discriminación correcta con el 95% de éxito.

Es notable resaltar que el modelo tenía limitaciones a la hora de identificar la figura objetivo sin mezclarla con las otras, análogamente a lo que nos ocurre a los humanos. La óptima eficacia se obtenía con 3 objetos diferentes, y a partir de ese número la probabilidad de que se otorgase al objeto un color falso, por ejemplo, aumentaba.

El autor no da detalles sobre cómo estaba programado su modelo y cómo consigue su identificación conceptual correcta de los objetos visuales, pero otros autores han propuesto un modo como podría hacerlo el cerebro: cuando la parte más sensible de la retina enfoca sobre la imagen óptica que contiene la cruz roja las neuronas que procesan la forma se activan en sincronía y grado de intensidad alto, a la vez (en sincronía) que las neuronas que reaccionan ante el color rojo. Esto haría que neuronas especializadas en consciencia primaria visu-espacial asociaran la presencia de un color rojo junto a una cruz justo en esa parte del campo visual, esto es, identificaran allí una cruz roja (véase Jackendorf, 2003, Cap. 3.5.1). Tanto el núcleo geniculado lateral del tálamo (la estación intermedia) como el cortex occipital (el área visual superior, conceptual) están organizados topográficamente (en forma isomorfa con el campo visual que crean las neuronas retinales), lo cual debe facilitar al cerebro identificar en todo momento que la actividad de las áreas especializadas en color y forma corresponden principalmente a la parte del área visual que está siendo focalizada en el centro del campo visual en ese momento. Sin embargo, esta clase de algoritmos de identificación de conceptos funciona mal cuando el campo visual está lleno de objetos y todos ellos deben ser reconocidos. En estos casos, lo que ocurre quizás en el cerebro real es que éste focaliza su atención en una parte del campo visual cada vez, el tiempo suficiente para identificar varios objetos significativos allí, y esta sub-escena genera una memoria a corto plazo; luego, otra parte del campo visual es atendido, y así sucesivamente, hasta que todo el campo visual ha sido “resuelto” conceptualmente.

Los autores simularon un cerebro viejo y deteriorado eliminando muchas de las conexiones entre neuronas interiores a las áreas corticales. Estas áreas disparaban entonces de un modo crecientemente independiente, acercándose al extremo de un “gas neural”. Para un observador exterior un gas neural puede ser interpretado como conteniendo muchísima información; pero desde la perspectiva del propio sistema (número de subconjuntos que se comportan de forma estadísticamente diferente al resto del sistema), la información mutua media es siempre bajísima en cualquier subconjunto, y la complejidad del cerebro es también bajísima. La complejidad es calculada por Edelman como la suma de todas las informaciones mutuas entre cada subconjunto posible de neuronas cerebrales (normalizadas a su tamaño) y el resto del cerebro. En otras palabras, aunque hay muchos comportamientos diferentes dentro del sistema, ellos no hacen ninguna diferencia, no son diferentes para el propio sistema, no son diferenciados.

Otro caso que simularon fue el de un córtex muy joven e inmaduro, en el que cada grupo neuronal está conectado con todos los otros de una manera uniforme. En este caso casi todos los grupos neuronales acabaron oscilando juntos coherentemente, recordando a la hipersincronicidad de las descargas neuronales en las epilepsias o en el sueño profundo. El sistema es altamente integrado, pero la especialización funcional está completamente ausente. La información mutua media entre neuronas individuales y el resto del sistema es alta, pero no se incrementa significativamente  cuando se toman subconjuntos conteniendo más y más neuronas, pues el número de estados diferentes que pueden ser discriminados no se incrementan con el tamaño de los subconjuntos. La complejidad del sistema es pues baja, aunque mayor que en el primer caso. El sistema está muy integrado pero nada diferenciado.

En un tercer caso, correspondiente a un cortex adulto normal, los grupos de neuronas fueron conectados de  acuerdo con las reglas siguientes: (i) los grupos de neuronas con similar preferencia por cierta orientación del estímulo visual (horizontal, vertical, angulado, oblongo, etc.) tendían a estar más conectados entre sí. (ii) ellos eran conectados de modo que la intensidad de las conexiones disminuía con la distancia topográfica.

En este caso, los grupos de similar orientación, más interconectados, tienden a dispararse juntos más a menudo que los no relacionados, pero a veces casi todo el área cortical completa muestra periodos cortos de oscilaciones coherentes. Ello recuerda a los electroencefalogramas del sueño REM. En este caso, la información mutua media entre un grupo neuronal y el resto del cerebro toma un valor intermedio, ni máximo ni mínimo, pero la complejidad de las dependencias es máxima.

La estructura anatómica de los enlaces entre bloques neuronales condiciona el tipo de sincronización que se obtiene. Pero la actividad mayor o menor de los centros de valoración, combinados de distintas maneras, son capaces de modificar en cuestión de minutos la intensidad de las conexiones, en particular de las reentrantes, entre grupos neuronales, lo cual conduce a cambios dinámicos de la complejidad que permiten el paso de un estado de consciencia REM a otro de sueño profundo, o a otro de vigilia, por ejemplo.

Hemos visto que un córtex, en el modelo de los autores, es capaz de generar descargas similares a las del sueño REM, sin necesidad de estimulación externa.

Un estímulo sensorial actúa no tanto agregando grandes cantidades de información extrínseca que necesitan ser procesadas sino más bien amplificando la información intrínseca resultante de las interacciones neuronales seleccionadas y estabilizadas por la memoria a través de encuentros previos con el medio ambiente. El grado en el cual un estímulo sensorial afecta a las señales internas depende de la experiencia que el cerebro haya tenido de un conjunto de estímulos relacionados. La respuesta de los animales conscientes a un estímulo es “un presente recordado”. Un pictograma chino presentado a un español puede carecer de significado para éste pero no para un chino.

Solamente una vez que un nivel alto de complejidad ha sido logrado en un cerebro adulto, es cuando incluso relativamente aislado en situación de sueño REM, puede generar procesos neurales integrados de suficiente complejidad como para sostener una experiencia consciente.

 

Los procesos inconscientes versus conscientes

Hay personas a las que se les ha extirpado un hemisferio cerebral completo debido a tumores o epilepsias intratables y, aun así, sus capacidades cognitivas han sido afectadas sólo marginalmente. Y otras con hidrocefalia que conservaban sólo una delgada capa de cortex cerebral, pero que sorprendentemente mantenían un IQ cercano al normal. Dejando a un lado estos casos especiales, en situaciones normales cada experiencia consciente implica la activación o desactivación de grandes porciones del cerebro.

Hay acuerdo sobre que el funcionamiento de específicas regiones del córtex cerebral es responsable, en un alto grado, de contenidos particulares de la consciencia. Lesiones de regiones particulares del córtex conducen a déficits en la experiencia consciente (por ejemplo, la capacidad de percibir un color, o la de percibir un estímulo móvil), pero no a la pérdida de la experiencia consciente como un todo. Sólo la lesión del sistema reticular activador (sobre el hipotálamo posterior) provoca la pérdida de la consciencia y la entrada en estado de coma. Este sistema se vuelve prácticamente inactivo durante el sueño profundo o descarga intermitente y periódicamente, e insensiblemente a los estímulos que le llegan. Pero otras evidencias sugieren que, siendo una condición necesaria para la experiencia consciente, este sistema no genera por sí mismo la consciencia.

Podemos tomar como estados de referencia de la inconsciencia aquellos que se producen en el cerebro de las personas comatosas, profundamente anestesiadas o en estado de sueño profundo (con aparición de ondas de actividad neural de longitud de onda larga). El estado de inconsciencia está asociado empíricamente con una depresión profunda de la actividad neural tanto en el córtex como en el tálamo, aunque otras áreas pueden verse también afectadas.

Otro estado de referencia sería la respuesta a un estímulo sensorial simple cuando el sujeto no es consciente del mismo, en comparación con la respuesta cuando el sujeto es consciente del mismo. De experimentos de esta clase, los autores concluyeron que la fracción de cerebro que se activa en una tarea realizada inconscientemente o casi, es en general más pequeña que cuando la tarea es consciente. Además, las regiones habitualmente activas en un individuo que percibe el estímulo sin ser consciente del mismo, aumentan su actividad en un 50-85% cuando el sujeto se vuelve consciente del estímulo. Igual de notable, el subconjunto de regiones que aumentan su actividad cuando el individuo es consciente del estímulo difiere en individuos diferentes.

La automatización generalizada en rutinas automáticas de nuestra vida adulta sugiere que el control consciente se ejerce solo en las coyunturas críticas, cuando se debe hacer una elección definitiva o un plan. En el medio, las rutinas inconscientes se activan y ejecutan continuamente, de modo que la conciencia puede flotar libre de todos esos detalles y proceder a planificar y dar sentido al gran esquema de las cosas.

Como lo expresa William James: Si un acto requiere para su ejecución de una cadena, A, B, C, D, E, F, G, etc., de sucesivos eventos nerviosos, luego, en la primera ejecución de la acción, la voluntad consciente debe elegir cada uno de estos eventos de una serie de alternativas incorrectas que tienden a presentarse a sí mismos; pero el hábito pronto provoca que cada evento llame a su propio sucesor apropiado sin que se ofrezca otra alternativa, y sin ninguna referencia a la voluntad consciente, hasta que al final toda la cadena, A, B, C, D, E, F, G , se despliega tan pronto como se produce A. . . . Una mirada a los jeroglíficos musicales, y los dedos del pianista han ondulado a través de una catarata de notas.

 

Actividad neural integrada y diferenciada

Roger Sperry, el neurocientífico que investigó durante años a los enfermos con el cuerpo calloso seccionado, resume así sus décadas de observaciones:

La cirugía ha dejado a estas personas con dos mentes separadas, es decir, dos esferas de conciencia separadas. Lo que se experimenta en el hemisferio derecho parece estar completamente fuera del ámbito de la conciencia del hemisferio izquierdo. Esta división mental se ha demostrado con respecto a la percepción, cognición, volición, aprendizaje y memoria. Uno de los hemisferios, el hemisferio izquierdo, dominante o mayor, tiene habla y normalmente es hablador y versado. El otro, el hemisferio menor, sin embargo, es mudo o tonto, siendo capaz de expresarse solo a través de reacciones no verbales.

Una de esas reacciones no verbales es que su brazo izquierdo puede comenzar a desvestir al sujeto cuando él conscientemente intenta vestirse con su brazo derecho.

Libet realizó una serie de experimentos con sujetos humanos que eran invitados a mover libremente cualquier dedo y a indicar a la vez el momento en que eran conscientes de la intención de hacerlo. La aparición del potencial de preparación que antecede siempre a una acción motora humana  invariablemente precedió dicha conciencia en un promedio de aproximadamente 350 milisegundos y en un mínimo de aproximadamente 150 milisegundos. Libet llegó a la conclusión de que la iniciación cerebral de un acto espontáneo y libremente voluntario puede comenzar inconscientemente, es decir, antes de que haya una conciencia revocable de que la decisión de actuar ya se ha iniciado cerebralmente. Por lo tanto, parecería que la conciencia de una intención motora, como la de un estímulo sensorial, requiere que la actividad neuronal subyacente persista durante un período de tiempo considerable, del orden de 100 a 500 ms. Otra conclusión notable es que primero nuestro cerebro quiere iniciar una acción, y luego uno es consciente de lo que uno quiere. La consciencia sería una especie de sistema que informa de modo coherente de lo que nuestro cuerpo y nuestro cerebro están haciendo, más que el disparador último de las decisiones.

Las interacciones suficientemente duraderas de grupos de neuronas son necesarias para la experiencia consciente, pero no es aún suficiente, como demuestran los ataques epilépticos y el sueño profundo, donde las interacciones entre estructuras lejanas son duraderas y bastante periódicas, pero no generan consciencia.

El exceso de sincronía en las descargas de 3 Hz de las neuronas corticales durante los ataques epilépticos va siempre asociados de hecho a las “ausencias” de consciencia de los pacientes.

Por otra parte, durante el sueño profundo, en que la consciencia es fragmentaria, reducida o ausente, la tasa de descarga de las neuronas individuales es similar a la observada en la vigilia. En algunas áreas corticales puede ser incluso mayor. Las que son muy diferentes son las pautas de activación en la vigilia y en el sueño profundo. En la vigilia (y el sueño REM) el electroencefalograma (EEG) muestra descargas de bajo voltaje y actividad rápida en toda la corteza; en el sueño profundo, las neuronas se activan en ráfagas periódicas de alta frecuencia seguidas de silencios. Esas descargas periódicas están además sincronizadas espacialmente con las que ocurren en las demás regiones del cerebro, en contraste con lo que ocurre durante la vigilia. El repertorio de estados neurales (estado del conjunto de todas las neuronas) disponibles es así enorme durante la vigilia y muy reducido durante el sueño profundo. Así pues, parece que la consciencia requiere actividad neural que cambie continuamente y sea así temporal y espacialmente diferenciada.

Otra observación importante es que la actividad neural debe exhibir suficiente varianza en el tiempo para soportar la percepción consciente. Si las imágenes de la retina son inmovilizadas mediante lentes de contacto que crean imágenes que se mueven con el ojo, la percepción visual consciente de esas imágenes se desvanece rápidamente. Un efecto similar fue descrito por exploradores del ártico y llamada luego estimulación Ganzfeld: después de mirar fijamente un campo congelado de nieve blanca, muchos exploradores experimentaban una especie de ceguera a la nieve. Psicólogos posteriores confirmaron que cuando la gente mira fijamente un campo de visión sin contrastantes (un Ganfeld), todo el color se disipará pronto del campo de visión, tras lo cual la experiencia visual misma se desvanecerá. Se diría que un número suficiente de estados cerebrales diferenciados y variables deben estar continuamente disponibles para que surja y se sostenga una experiencia consciente.

Las observaciones empíricas sugieren pues que la base de la conciencia son procesos neuronales distribuidos que, a través de interacciones reentrantes, están a la vez altamente integrados pero cambian continuamente y, por lo tanto, están muy diferenciados.

Los sueños

El modelo bayesiano de la formación de perceptos que propone Dennet (2017) podría explicar la arbitrariedad y fantasía de los contenidos de los sueños. Cualquiera que sea la suposición de los niveles más altos del cortex perceptual, ésta cuenta como realidad por defecto en ausencia de desconfirmación por parte de los niveles más bajos. Pero en el descanso nocturno estos niveles bajos reciben una cantidad de señales sensoriales muy disminuidas respecto a las habituales en el estado despierto, por lo que podrían generar muchas menos señales desconfirmadoras. Por otra parte, la variedad de combinaciones de conceptos visuales que puede  proponer el cortex visual superior no está limitada a lo que el individuo ha visto hasta el momento, sino que sería casi infinitamente mayor, del orden de cualquier campo visual posible que pueda ser entendido. Esto incluye todas las posibles imágenes que artistas realistas, surrealistas, impresionistas, fantásticos, de ciencia ficción, cubistas, etc, etc, puedan imaginar alguna vez. La existencia de sueños con paisajes y combinaciones de sensaciones que no se parecen en nada a percepciones que hayamos tenido previamente en la vigilia podría deberse pues a que estas construcciones no están constreñidas por la percepción presente ni pasada, sino que son construcciones pertenecientes al amplísimo grupo de todo lo que puede ser entendido, ligeramente constreñidas y modificadas por los pocos grupos neurales cerebrales que están activos durante el sueño REM (vagas sensaciones táctiles y sonidos del entorno del durmiente, vagos recuerdos de escenas y conceptos usados durante el día, vagas intencionalidades reprimidas durante el día que aún no están en reposo…).

El núcleo dinámico y la experiencia consciente

¿Cuándo una percepción o una actividad compleja se vuelve consciente?

La hipótesis de los autores es que la actividad de un grupo de neuronas puede contribuir directamente a la experiencia consciente si forma parte de un grupo funcional, caracterizado por fuertes interacciones mutuas entre un conjunto de grupos neuronales durante un tiempo de cientos de milisegundos. Es esencial que este grupo funcional esté altamente diferenciado y tenga valores altos de complejidad. Este grupo es llamado “núcleo dinámico” debido a una composición siempre cambiante pero que mantiene permanentemente su alta integración, y es generado en su mayor parte, aunque no exclusivamente, dentro del sistema tálamo-cortical.

Otra indicación de que hay una gran proporción de actividad neural que no contribuye a la experiencia consciente son las muchas rutinas que hacemos inconsciente y automáticamente cuando hablamos, leemos o escribimos en papel. Los procesos neurales activados en tales procesos son complejos pero no son experimentados conscientemente. Sin embargo, en la expresión escrita por ejemplo, son capaces de poner a disposición de la consciencia la palabra o palabras apropiadas a la idea que conscientemente buscamos expresar. Como  se mencionó previamente, alguna evidencia indica que los circuitos neuronales que llevan a cabo rutinas neuronales tan altamente practicadas pueden quedar funcionalmente aislados. Estos circuitos no están integrados con procesos neuronales más distribuidos, excepto en las etapas de entrada y salida.

Similarmente, eventos naturales que son demasiado fugaces o demasiado débiles como para participar en interacciones distribuidas sostenidas, no consiguen contribuir a la experiencia consciente. Actividad neural que es suficiente para disparar una respuesta conductual particular pero de insuficiente duración para afectar a procesos neurales distribuidos, pueden ser responsables de muchos ejemplos de percepción sin consciencia.

La organización anatómica del sistema tálamo-cortical es mucho más efectiva generando estados dinámicos coherentes que la de otras regiones como el cerebelo. Los mismos estudios sugieren que aunque todos los elementos del cerebro es probable que sean interactivos funcionalmente en plazos largos, sólo ciertas interacciones son suficientemente fuertes y rápidas para conducir a la formación de un agregado funcional en unos pocos cientos de milisegundo. Por ejemplo, las llamadas  conexiones dependientes del voltaje.

Sólo un subconjunto de grupos neuronales del cerebro (aunque no un subconjunto pequeño) contribuye directamente a la experiencia consciente. ¿Qué es lo que es especial en estos grupos de neuronas y cómo deberían ser identificados? Teniendo en cuenta que la consciencia no es una cosa ni una propiedad simple, sino que sus dos principales propiedades son la integración y la diferenciación, la respuesta según los autores es la siguiente:

  1. Un grupo de neuronas puede contribuir directamente a la experiencia consciente solo si es parte de un grupo funcional distribuido que, a través de interacciones reentrantes en el sistema talamocortical, logra una alta integración durante varios cientos de milisegundo.
  2. Para mantener la experiencia consciente, es esencial que este grupo funcional esté altamente diferenciado, lo cual debe ser evidenciado por altos valores de complejidad estadística.

Los autores llaman a ese agregado un núcleo dinámico, para subrayar su integración y su continuamente cambiante composición. Las conexiones reentrantes de ese núcleo funcional deben ser suficientemente diferenciadas para que haya experiencia consciente. Ese núcleo dinámico sería pues un proceso, no una cosa o un lugar (la idea de que la consciencia es un proceso se debe a William James). Un grupo dado de neuronas puede formar parte un instante de un núcleo dinámico y contribuir a la experiencia consciente, y en un momento posterior no formar parte de un núcleo dinámico, participando entonces en procesos inconscientes. La composición del núcleo que genera estados conscientes particulares (por ejemplo, la percepción consciente de una rejilla de barras horizontales rojas), es de esperar que varíe significativamente de persona a persona.

Una propiedad fundamental de la consciencia como es su unidad se corresponde con la   integración (o unidad) del núcleo dinámico. La privacidad también deriva de la subjetividad y privacidad de la historia de percepciones, recuerdos y estructura producto de la historia, que tienen los cerebros de cada persona. Cada cerebro genera núcleos funcionales diferentes ante el mismo estímulo perceptivo, y trabaja  mucho más con las señales que vienen de dentro de ese núcleo que con la señal perceptual. De todo ello deriva  la privacidad.

La consciencia es una sucesión de muchísimos estados diferenciados posibles, que se suceden en fracciones de segundo. Esta propiedad parece muy cercana a la forma como los núcleos dinámicos funcionan, cambiando continuamente las conexiones concretas que lo constituyen.

Cuando somos conscientes de repente de una forma que emerge entre los puntos aleatorios de un estereograma, es como si múltiples centros especializados del cerebro fueran advertidos de una información que, un momento antes, estaba confinada en un sistema especializado. Este evento puede conducir a múltiples acciones diferentes.

La capacidad limitada que tiene la consciencia a la hora de recordar más de tres o cuatro cosas a la vez refleja la existencia de un límite superior para el número de subprocesos parcialmente independientes que pueden ser sostenidos dentro del núcleo dinámico sin interferir con su integración y coherencia.

Un núcleo dinámico integrado debe moverse de un estado global a otro, siguiendo una trayectoria simple, de modo que lo que se manifiesta como una “decisión” puede ocurrir solamente una tras otra. En personas normales, no hay evidencias de la existencia de una división de la experiencia consciente en dos o más consciencias en paralelo, aunque sería interesante estudiar qué ocurre con los núcleos dinámicos en las personas esquizofrénicas.

Edelman y Tononi ilustran su teoría del núcleo dinámico aplicándola a cómo se produce la consciencia de estar viendo un color rojo puro.

Sobre la discriminación del color, sabemos que hay tres clases de fotorreceptores retinales, o conos, selectivos a longitudes de onda largas, medias y cortas. En el núcleo geniculado, un intermediario talámico entre la retina y el cortex visual, se encuentran neuronas oponentes. Están organizadas acordes a tres ejes que definen psicológicamente pares opuestos. Algunas son activadas por longitudes de onda en el rango rojo e inhibidas por las del rango verde, otras son activadas por longitudes de onda en el rango azul e inhibidas por las del rango amarillo, y otras responden a la cantidad total de luz blanca y son inhibidas por la oscuridad. En el cortex visual, especialmente el área V4, ciertas neuronas manifiestan la propiedad de constancia para el color. Esto es, su respuesta al color de un objeto es invariante con respecto a la cantidad de luz que lo ilumine (se resta la intensidad de luz a partir de la iluminación de los objetos cercanos que lo rodean). Finalmente, en el área IT del mono (cortex inferotemporal), las neuronas responden selectivamente a un rango de colores que se corresponden cercanamente con el espacio de colores perceptual. Su organización puede incluso reflejar las categorías básicas de color identificadas en estudios transculturales.

Así pues, la específica distribución de actividad en  estos grupos neuronales del área IT podrían generar la percepción del color, tal como la generaría un zombi o el autómata constituido por el programa de percepción visual que vimos arriba y un ordenador con cámara móvil donde estaría programado dicho algoritmo.

Pero atentos a la profunda observación de Edelman y Tononi: para que la percepción mecánica (e inconsciente) del color se convierta en una escena consciente, en un quale (cualidad subjetiva, con sus emociones y sentimientos incluídas), esos grupos neuronales deben formar parte de un núcleo dinámico completo. Si sólo los grupos funcionales del área IT (relacionados con el color) estuvieran funcionando, no habría consciencia alguna del color, pues no habría manera de que el cerebro (o el autómata) discriminara entre lo que es un color y lo que es otra cosa diferente a un color (!!) porque no habría otras dimensiones (grupos neuronales especializados en movimientos, formas, distancias, sensaciones táctiles, propiocepción, señales auditivas, etc.) para realizar esa discriminación. Necesitaríamos también la actividad simultánea de grupos neuronales cuyas descargas estén correlacionadas con la posición concreta de tu cuerpo en relación al entorno, y grupos de neuronas cuyas descargas estén correlacionadas con su sentido de familiaridad y congruencia de la situación en la que está, y grupos neuronales indicando si en ese momento se están produciendo o no acontecimientos inesperados. Y así sucesivamente, hasta que haya un espacio de grupos neurales de referencia suficientemente rico para permitir la discriminación de un estado de consciencia correspondiente a una pura (y lo más simple posible) percepción de un color, entre miles de millones de otros estados conscientes posibles. Sólo cuando está dentro de ese espacio de referencia mucho mayor, el quale de estar viendo un color rojo adquiere su completo significado. Si falta  ese espacio de referencia (con las actividades de los millones de grupos especializados activados de unas determinadas maneras, algunos de ellos con mínima actividad y otros no, pero siempre en conexiones de reentrada con los especialistas del color), la percepción del color puede estar presente (como lo está en la respuesta de un diodo fotoeléctrico) pero no está presente el significado asociado a esa respuesta, y por tanto no hay ningún quale asociado ni ninguna consciencia.

Por otra parte, una percepción pura del rojo es tan informativa como la percepción de una calle concurrida de la ciudad porque ambos descartan un número más o menos igual de estados conscientes, y esta es exactamente la forma en que se define el significado del estado seleccionado.

En mi opinión, ésta es la explicación científica más profunda que se ha dado hasta ahora sobre qué es la consciencia primaria de un ser consciente. En un próximo post, resumiremos las opiniones de Edelman, Tononi, Dennet y Jackendorf sobre el segundo gran interrogante: ¿cómo surge la consciencia auto-reflexiva y en qué consiste?

Referencias

-Dennett, Daniel C . (2017). From bacteria to Bach and back: the evolution of minds. W. W. Norton & Company. Edición de Kindle.

-Edelman, Gerald and Tononi, Giulio (2000). A Universe of Consciousness: How Matter Becomes Imagination. Ingram Publisher Services, US.

-Izhikevich, Eugene M. and Gerald M. Edelman (2008). Large-scale model of mammalian thalamocortical systems, PNAS 105 (9), 3593-3598; https://doi.org/10.1073/pnas.0712231105

-Jackendorf, Ray (2003), Foundations of Language. OUP Oxford. Edición de Kindle.

-Monserrat, Javier (2006). Gerald M. Edelman y su Antropología Neurológica, Pensamiento vol. 62, núm. 234, pp. 441-470.

 

La Biosfera como Sistema Complejo

 

Los humanos parecemos tener una compulsión, innata o que se estabiliza en los primeros años de vida, tendente a percibir todo (y a describir todo lo que percibimos) en forma secuencial (temporal), espacial, y causal (en cadenas de causa-efecto) (véase v.g. https://entenderelmundo.com/2018/05/11/la-sintesis-kantiana-entre-racionalismo-y-empirismo/; https://entenderelmundo.com/2018/05/14/schopenhauer-el-mundo-como-voluntad-y-representacion/; https://entenderelmundo.com/2018/04/25/las-metaforas-y-la-construccion-imaginaria-de-la-realidad/). Somos sistemas complejos sometidos a un proceso permanente de cambio, y que construye representaciones sobre lo que es el mundo, a partir de percepciones muy puntuales procedentes de éste. Esto no significa que cualquier representación que podamos crear tenga la misma validez práctica. Dentro de nuestros pre-condicionamientos constitutivos a la hora de construir representaciones, no todas las descripciones espacio-temporales y causales que podemos hacer de la realidad se  ajustan a lo que observamos de forma consistente y coherente, es decir, de forma pragmáticamente útil a la hora de manipular y de predecir el comportamiento futuro de los objetos observados. El llamado “conocimiento científico” no es sino el estado actual de esa pragmática en la que un conjunto de metáforas y conceptos sobre supuestos objetos reales (y clases de objetos) ha sido aceptado como el conjunto cuya coherencia y consistencia intrínseca (de unos conceptos observacionales con los otros) es máxima.

Las descripciones científicas de la realidad se hacen utilizando modelos, que son conjuntos muy especiales de metáforas y conceptos. Un modelo contiene un conjunto de teorías generales sobre la clase de objetos a la que supuestamente pertenece el objeto descrito y también un conjunto de hipótesis auxiliares sobre características únicas del objeto que estamos describiendo y el ambiente que le rodea. Normalmente, los modelos científicos se construyen en forma matemática.

En las “instrucciones de uso” de un modelo también hay que definir la «escala espacio-temporal» en la que se debería observar la realidad para poderla comparar con lo que el modelo predice (o escala espacio-temporal de aplicabilidad del modelo) y la definición de lo que debería considerarse como “las variables de interés” del objeto observado. No todas las propiedades observables en el objeto las consideramos importantes y relevantes para el modelo; sólo algunas de ellas. El conjunto elegido constituye el «sistema de interés». Esta elección de variables y escala del “observador-modelador” tendrá pues un importante efecto sobre los resultados y predicciones que se obtendrán del modelo.

Hay algunos casos en los que la relación particular entre »observador-modelador» y »objeto observado-modelado» puede ser olvidada sin que los resultados del modelo pierdan validez. Son aquellas en las que existe un acuerdo previo e incontrovertido entre las diversas partes interesadas que utilizarán el modelo, sobre cómo interaccionarán con el objeto, sobre la ‘‘escala espacio-temporal’’ a la que interesa observarlo (por ejemplo, los distintos ambientes, momentos y geografías en los que los actores observarán al objeto real no lo afectarán hasta el punto de convertirlo en otra cosa a una velocidad que requeriría un análisis evolutivo complementario) y hay también un consenso previo sobre lo que debería considerarse como «el sistema de interés», dentro de la variedad de detalles diferentes con los que se puede presentar una misma clase de objetos en momentos y sitios diferentes y para observadores diferentes.

En los apartados que siguen resumiremos la forma como la ciencia actual ha llegado a concebir los procesos de cambio en los objetos más complejos que percibe y describe, y analizaremos con más detalle el ejemplo concreto de la biosfera.

 Sistemas disipativos y sistemas auto-organizativos

Todos los sistemas naturales de interés para la sostenibilidad y para la supervivencia de los humanos sobre el planeta Tierra (por ejemplo, los ciclos biogeoquímicos complejos, las células vivas que realizan la fotosíntesis, los sistemas ecológicos, o los sistemas humanos cuando se analizan en diferentes niveles de organización y escalas por encima de la molecular) son “sistemas disipativos”. Esto es, son sistemas atravesados por flujos de energía, lejos del equilibrio termodinámico, y afectados por procesos auto-organizativos.

Ejemplos de procesos auto-organizativos relativamente simples son los cilindros de agua rotante (o las columnas hexagonales) que se forman en una caja con agua calentada por debajo; o las ondas y espirales que se producen en las  reacciones químicas no-lineales, como la de Belusov-Zhabotinski, y que a veces siguen una pauta periódica y otras se generan de forma caótica e impredecible.

Resumamos las características de los procesos auto-organizativos. (i) Se dan en sistemas alejados del equilibrio y abiertos a la energía y/o a los materiales externos, por lo que no son sistemas hamiltonianos (que conservan su energía total) sino sistemas abiertos disipativos (que toman energía de baja entropía del medio, la hacen circular entre sus componentes, y la dejan salir de nuevo al medio con mayor entropía de la que entró).

(ii) Muestran creación espontánea (no buscada por el observador humano) de inhomogeneidad y cambios cualitativos donde su estado previo era homogéneo y/o estable.

(iii) Sus variables observables a escala macroscópica (como la temperatura o la densidad) interactúan de un modo no-lineal. En los modelos matemáticos de los sistemas de este tipo, cuando hay más de dos variables (y una variable que varía espacialmente, como las de un fluido, equivale a infinitas variables) el sistema puede generar atractores para la evolución de sus variables, esto es, trayectorias recurrentes hacia las que las variables del sistema tienden. Los atractores pueden ser estacionarios, ciclos limite, ciclos multiples, o atractores caóticos.

Desde el punto de vista del modelo matemático, la estructura disipativa se produce cuando el sistema, que estaba inicialmente en un estado estacionario (típico en muchos sistemas termodinámicos abiertos), (a) pierde la estabilidad y (b) cae en otro atractor de igual o mayor complejidad.

¿Cómo se produce la inestabilización del sistema? Prigogine distingue tres formas: (a) por la aparición de una fluctuación suficientemente intensa de las componentes, que desestabiliza el atractor actual de la dinámica macroscópica del sistema; (b) por cambio en los parámetros externos que controlan los flujos, fuerzas termodinámicas, interacciones entre las partículas o probabilidades de interacción entre los subsistemas («inestabilidades sinergéticas» sistematizadas posteriormente por H. Haken), o (c) por inestabilidad estructural ante la aparición de nuevos componentes y/o nuevas interacciones («inestabilidad estructural ante la aparición de nuevas variables»).

La primera clase de inestabilidad es muy improbable en sistemas con atractores intensos que llevan funcionando establemente mucho tiempo, porque esto mismo es una demostración de que son estables ante las fluctuaciones estadísticas habituales en sus componentes y en el entorno; pero todo sistema compuesto de partes es sólo “metaestable”, esperando el tiempo suficiente es siempre posible que aparezca una fluctuación estadística que meta en el sistema una concentración de energía anómala del entorno, o que lleve una gran parte de la energía del sistema hacia un grupo de componentes que, al moverse sincronizadamente, pueden romper la (meta)estabilidad del sistema.

En las inestabilidades de tipo (b) (sinergéticas), los parámetros del medio ambiente dentro del cual está el sistema pueden ir modificándose lentamente a lo largo de periodos de tiempo mucho más dilatados que los tiempos típicos de cambio del propio sistema; ello puede acabar volviendo inestable a los atractores que ordenan el comportamiento del sistema. Éste puede volverse inestable porque se modifiquen las tasas de interacción con el entorno, las restricciones externas, o las probabilidades de interacción entre sus subsistemas componentes (por ejemplo, partículas). Esto último genera una posibilidad adicional de comportamiento complejo, pues tales probabilidades de interacción pueden estar siendo modificadas por alguna de las emergencias macroscópicas generadas por la interacción de los componentes.

La aparición de columnas de convección de forma hexagonal en sistemas naturales o de laboratorio se pueden predecir mediante esta clase de modelos sinergéticos.

exagonos conveccion lago

Columnas de convección formadas espontáneamente en un lago salino

La reacción de Belousov-Zhabotinsky es otro ejemplo. El atractor estacionario del sistema se ha debilitado por variación de sus parámetros, y pequeñas perturbaciones locales producidas por la propia turbulencia del fluido, por una vibración sonora, o por la acumulación casual de muchas moléculas de ácido malónico  en un mismo punto,  pueden desencadenar la amplificación de una pauta macroscópica, que en cada momento es diferente, como muestra la figura siguiente.

Belousov-Zhabotinsky.jpg

Las inestabilidades del tercer tipo son importantes cuando estructuras previamente autoorganizadas y que tienen cierta (meta)estabilidad se encuentran unas con otras y alguna propiedad emergente de una afecta a la dinámica de la otra. La aparición de simbiosis o endosimbiosis entre células simples puede modelarse en principio mediante esta clase de inestabilización de estructuras previas que se encuentran por azar.

eucariotas

Las células eucariotas parecen haber surgido de la entrada simbiótica de células procariotas dentro del citoplasma de otra célula procariota receptora

Aún no se ha podido encontrar una ley universal válida para la evolución de cualquier sistema alejado del equilibrio. Lo más que se puede hacer es construir el diagrama de bifurcaciones e inestabilidades para las clases de sistema cuya forma de inestabilizarse tiene una estructura matemática recurrente. Al hacerlo, conviene tener en cuenta que: (i) el sistema puede contener impurezas e influencias no consideradas al escribir las ecuaciones, que proceden de escalas inferiores (escala “micro”) a la de observación (escala “macro”); (ii) no siempre se puede aislar el sistema de la aparición de nuevos elementos y/o interacciones a nivel microscópico (a escala de los constituyentes); (iii) hay que considerar, además, las fluctuaciones de las variables macro relevantes (originadas muchas veces en la impredecibilidad de comportamiento de los componentes), su probabilidad, y su influencia en la trayectoria del sistema por su “espacio de fases” (conjunto de valores accesibles a sus variables macro v1,v2…vn). Por ello, la predicción de los modelos suele dar la probabilidad P(v; t) de que en el tiempo futuro t el estado del sistema sea v= (v1,v2…vn). Si no hubiera fluctuaciones, P sería siempre una distribución de varianza nula o «delta de Dirac» (trayectoria determinista); debido a la existencia de fluctuaciones y perturbaciones impredecibles, y la forma como las interacciones internas del sistema reaccionan ante ellas, las variables vi se distribuyen con cierta probabilidad en torno a una trayectoria media en muchos sistemas naturales. Las fluctuaciones y su forma estadística se convierten en determinantes en momentos en que un atractor se convierte en inestable o se bifurca. Por ello, en tales momentos las descripciones macro y mesoscópica se vuelven insuficientes, y se suele recurrir al uso de ecuaciones, llamadas «master», para la evolución de la probabilidad P.

Finalmente, hay un tema de reflexión muy interesante, y es el de cuál es el rasgo común que tiene el proceso de inestabilización del estado estacionario en sistemas tan distintos como una reacción química y un fluido por ejemplo, y por qué tal estado nunca se vuelve inestable cuando el sistema está “cerca del equilibrio” (atravesado por flujos débiles de energía). ¿En qué consiste esa retroalimentación positiva o catálisis entre componentes micro que desestabiliza el estado estacionario y genera una pauta macro nueva? Una respuesta heurística a esta cuestión podría ser la siguiente:

En los sistemas cerca del equilibrio, las fluctuaciones no son lo suficientemente intensas como para provocar encuentros lo suficientemente frecuentes entre los elementos micro.

Por contra, si hay mayor densidad de energía, materiales y momento atravesando al sistema, en forma de fuertes flujos y fuerzas termodinámicas (que aumentan las energías internas y/o potenciales), habrá mayor energía disponible para fluctuaciones grandes (y pequeñas).

Por otro lado, los encuentros entre los constituyentes (colisiones si son partículas) generan propiedades emergentes que (i) son posibilitadas por los encuentros y (ii) muchas veces se intensifican con la frecuencia de encuentros. Y tales propiedades emergentes facilitan (probabilísticamente) la continuación del tipo de encuentros que es capaz de producirlas (en un verdadero «embuclamiento» micro→macro→micro). En esto parece consistir en general la autocatálisis, que es el rasgo principal de la auto-organización.

Muchas veces, la autocatálisis producto de las colisiones (o los encuentros, o las interacciones entre componentes) basta para generar emergencias como las correlaciones a largas distancias de las propiedades macroscópicas generadas por esas sincronizaciones micro.

Es importante resaltar que la metodología reduccionista utilizada por la ciencia mecanicista hasta bien entrado el siglo XX presupone que explicar el comportamiento o las propiedades del todo a partir de sus partes es “objetivo” mientras que explicar el comportamiento de las partes a partir del todo, eso no es objetivo ni científico. Sin embargo, la retroacción de la propiedad emergente macroscópica sobre el comportamiento (o las propiedades) de los constituyentes es algo que aparece una y otra vez en procesos complejos; y esta evidencia es devastadora para las pretensiones del reduccionismo (Rosen, 1993). La aplicabilidad de éste debe ser circunscrita en lo sucesivo a situaciones muy particulares del objeto y de los sujetos que lo describen.

Sistemas que se auto-mantienen

Los sistemas que se automantienen son sistemas constituidos por sistemas auto-organizativos cuyos atractores (estacionarios o cíclicos) mantienen a sus variables macro emergentes en cierta (meta)estabilidad. De este modo, los sistemas auto-organizativos componentes pueden permitirse mantener cierta persistencia en la interacción de sus propiedades (variables) emergentes con las de otros componentes. Pero además, y este es el rasgo esencial de los sistemas que se automantienen, los sistemas componentes se producen unos a los otros de forma operacionalmente cerrada (Hejl 1984). Esto es, los materiales y energía requeridos por cada componente proceden de los materiales y energía liberados por otros componentes. Para resaltar y modelar la materialidad de esos flujos en red entre los ingredientes de un ensamblaje que se automantiene, el concepto de red o hiperciclo de auto-mantenimiento puede ser de gran utilidad. Se trata de un esquema de flujos materiales (y energéticos) entre los componentes del sistema, tal como el de la Figura siguiente.

hiperciclo

Los sistemas que se auto-mantienen son la consecuencia de un bucle de retroalimentación constructivo (organización) que permite la regeneración continua de los componentes (Varela 1974).

Los lazos causales y materiales cerrados que son característicos de los sistemas que se auto-mantienen impiden la posibilidad de explicar de forma reduccionista (a partir de las propiedades de las partes únicamente) el comportamiento de tales sistemas (Rosen 1993).

Sistemas auto-poiéticos

Los sistemas auto-poiéticos se pueden considerar casos especialmente complejos de sistemas que se auto-mantienen. Un sistema autopoietico se organiza (definido como una unidad) como una red de procesos de producción (transformación y destrucción) de componentes que producen los componentes que:

  1. a través de sus interacciones y transformaciones, continuamente regeneran y realizan la red de procesos (relaciones) que los produjeron; y
  2. Lo constituyen [a la red que se auto-mantiene] como una unidad concreta en el espacio en el que [los componentes] existen especificando el dominio topológico de su realización como tal red (Varela 1979).

Un sistema autopoiético es siempre un sistema que se auto-mantiene. Pero la característica clave de un sistema autopoiético es el mantenimiento de su organización, es decir, la preservación de la red relacional que lo define como una unidad sistémica. Esta invariancia o persistencia organizacional es el resultado crítico de la ‘autopoiesis’, mientras que la (re)producción de los componentes es el medio por el cual esto se lleva a término de forma continuada. De ahí la definición resumida de autopoiesis que Maturana (1975) ha empleado a veces: «Los sistemas autopoiéticos operan como sistemas homeostáticos que tienen su propia organización como la variable crítica fundamental que ellos activamente mantienen constante”.

Los sistemas auto-poiéticos son además sistemas autónomos, esto es, sistemas organizacionalmente cerrados que no son dependientes de procesos de control externos a su organización (o hiperciclo de flujos). Según Varela, si a un sistema autopoiético se le quita la propiedad de que las componentes están siendo producidas físicamente por la organización de los flujos, entonces nos queda un sistema autónomo. El concepto de sistema autónomo y el de sistema que se auto-mantiene son vecinos. Si aceptamos nuestra definición, un sistema que se auto-mantiene sería un sistema autónomo (organizacionalmente cerrado) cuyas componentes son sistemas auto-organizativos. Por otra parte, una sociedad sería un sistema autónomo, dado que sus componentes son sistemas autopoiéticos humanos (que son sistemas autoorganizativos), artefactos (que no son sistemas autoorganizativos) y sistemas socio-técnicos institucionalizados (una combinación de los dos anteriores).

Un ejemplo de sistemas autopoiéticos son los organismos procariotas. Una célula viva es un caso especial de sistema auto-poiético en el que sus componentes son moléculas orgánicas. La figura siguiente esquematiza los principales flujos moleculares entre enzimas (proteínas catalizadoras) componentes de una célula. La red completa es un hiperciclo que representa al metabolismo celular.

metabolismo celular

Esquema de los flujos principales del metabolismo celular. El círculo central es el ciclo de Krebs

Todo ese hiperciclo cerrado de flujos materiales exige la vecindad de los materiales reactantes y de las enzimas catalizadoras de las reacciones. Esta vecindad es posibilitada por la presencia de una membrana celular cerrada que impide la libre difusión de los materiales por el espacio.

bicapa

Las moléculas de fosfolípidos tienen la propiedad de que, cuando son agitadas por la turbulencia en un medio acuoso, orientan espontáneamente sus cabezas hidrofílicas hacia las moléculas de agua y sus colas hidrofóbicas lejos del agua. Esto les permite formar estructuras bicapa como la de la figura. Este parece ser el origen de las membranas biológicas, una estructura auto-organizada sobre la que la selección natural pudo actuar, añadiendo mecanismos metabólicos reparadores, canales y otras sofisticaciones. Aunque son estables, tales membranas pueden sufrir accidentes y, en esos casos, una parte del metabolismo de la célula procariota se activa y se encarga de su reparación. Dentro de esa estructura pudo evolucionar un metabolismo celular auto-poiético que añadió innovaciones a la propia membrana, como la aparición de canales con puertas que pueden sea abiertas o cerradas por moléculas específicas, lo cual permitió la comunicación de la célula con el medio exterior y con otras células.

Sistemas auto-referenciales y otros

Mingers (1997) y otros autores han diferenciado otras clases de sistemas complejos, pero no necesariamente auto-poiéticos, que establecen relaciones circulares de algún tipo. Los más relevantes son los siguientes:

Sistemas que se auto-influyen: Sistemas dinámicos que tienen bucles causales o causalidad circular (retroalimentaciones positivas o negativas). Ejemplo: Tamaño y tasa de crecimiento de una población.

Sistemas que se auto-regulan: Sistemas que mantienen alguna variable en un nivel particular (homeostasis). Ej.: El sistema de regulación de la temperatura corporal.

Sistemas organizacionalmente cerrados: Sistemas en que sus componentes y procesos son dependientes unos de otros para el funcionamiento del conjunto y de sí mismos, pero que no necesariamente producen sus propias componentes.

Sistemas que se auto-reconocen: Sistemas capaces de reconocer sus propios componentes (y eventualmente rechazar componentes no «propios») pero que, de nuevo, pueden necesitar de otros sistemas externos para su propio mantenimiento. Ej.: Sistema inmunológico.

Sistemas que se auto-replican: sistemas que construyen réplicas de ellos mismos. Ej.: Virus, bacterias, organismos que se reproducen.

Varela también distinguió los sistemas auto-referenciales. Son sistemas que organizan los estados de sus sistemas componentes de un modo operacionalmente cerrado. Pero no necesariamente son sistemas auto-poiéticos, pues sus componentes pueden no estar siendo producidos por el propio sistema, sino por sistemas exteriores. Son sistemas similares a los que Mingers (1997) llama “autorreferentes” y que serían sistemas simbólicos o representativos que se refieren a sí mismos ya sea por alguna forma de señalar a la propia organización como una unidad; o por contener una imagen de sí mismos dentro de sí mismos; o porque se refieren a ellos mismos lingüísticamente. El cerebro podría ser un sistema auto-referencial.

Sistemas que se auto-conocen: Sistemas que generan identidad cognitiva. Ej.: animales con sistemas nerviosos que interaccionan simbólicamente.

Sistemas auto-conscientes: Sistemas capaces de interaccionar con descripciones de ellos mismos (el observador observando al observador). Ej.: Una persona diciendo “actué egoístamente hoy”.

Sistemas jerárquicos

Un sistema que se auto-mantiene es habitualmente un sistema jerárquico. O’Neill (1989) define sistema jerárquico de este modo: “un sistema disipativo es jerárquico cuando opera en múltiples escalas espacio-temporales, esto es, cuando se encuentran en el sistema diferentes tasas de procesamiento”. Otra definición útil que da de los sistemas jerárquicos es: «los sistemas son jerárquicos cuando son analizables en conjuntos sucesivos de subsistemas».

La existencia de diferentes niveles y escalas en las que opera un sistema jerárquico implica la inevitable existencia de formas no equivalentes de describirlo. Por ejemplo, podemos describir a un ser humano en el nivel microscópico para estudiar el proceso de digestión de nutrientes dentro de su cuerpo. Sin embargo, este tipo de descripción no sería compatible con la descripción que se requeriría para describir su «cara» a otro ser humano (Giampietro 2005).

Los seres vivos, las sociedades humanas y los ecosistemas son generados por procesos que operan en varios niveles jerárquicos sobre una cascada de diferentes escalas. Por lo tanto, son ejemplos perfectos de sistemas jerárquicos disipativos anidados que requieren una pluralidad de descripciones no equivalentes para ser utilizadas en paralelo para analizar sus características relevantes en relación con la sostenibilidad.

Sistemas complejos adaptativos

Los componentes de un sistema complejo pueden ser autómatas. Un autómata es cualquier elemento que puede interaccionar con su entorno, tiene un código interno (o programa) para interpretar esas interacciones y modificar su estado interno acorde con ellas, y produce una respuesta de acuerdo con el cambio de su estado interno. Cuando el autómata tiene sensores y programas sofisticados de respuesta se suelen denominar agente (v.g. un programa complejo de control de procesos, un robot, un ser humano).  La respuesta de los autómatas y agentes puede ser determinista (una respuesta única, función de su estado interno actual) o estocástica  (muchas respuestas posibles para un estado interno, que pueden obedecer, o no, a una distribución estable de probabilidad. A veces se habla de que un agente tiene un comportamiento “en parte determinista, en parte estocástico”. Esto significa que responde estocásticamente, pero que podemos predecir cómo evoluciona en el tiempo la distribución de probabilidad de sus respuestas.

giphy

Comportamiento del “Juego de la Vida” de Conway. Se trata de un sistema de autómatas estáticos en el cual cada autómata muere o sigue viviendo según una regla muy sencilla función del número de autómatas que lo rodeen, de los ocho vecinos posibles. Si esta regla se modificara en función de la historia pasada del autómata, el sistema se convertiría en adaptativo. De https://gliderlabs.com/devlog/2015/a-pattern-emerges/

Un sistema complejo adaptativo es un sistema: (i) compuesto de autómatas (o agentes) con un comportamiento en parte determinista y en parte estocástico; (ii) la respuesta (o comportamiento futuro) determinado de cada agente es una función determinista de su estado interno, el cual depende de las interacciones pasadas; (iii) la función determinista de respuesta (o comportamiento determinista) está controlada por un conjunto de reglas (o leyes) de interacción; (iv) cada agente modifica sus reglas (o leyes) de interacción en función de los resultados obtenidos por su comportamiento pasado.

Nótese que el punto (iv) supone implícitamente capacidades auto-referenciales en el agente, esto es, la capacidad de que una parte del agente sea sensible al estado del propio agente. El agente debe ser capaz, pues, de identificar su estado interno (efecto de su comportamiento e interacciones pasadas), asignarle un valor a este estado, y cambiar sus reglas de interacción en función de ese valor. Por supuesto, esta reflexividad no tiene por qué ser necesariamente consciente; la consciencia humana de uno mismo es una forma especial de reflexividad. Los agentes pueden interaccionar sólo localmente, con sus vecinos próximos, o simultáneamente con todos los agentes constituyentes del colectivo. Esta clase de modelos se han aplicado para representar interacciones entre humanos (modelados como agentes) sometidos a distintas reglas morales, o a distintas estrategias inversoras en un mercado, o a distintas preferencias políticas, etc. También se ha usado para modelar la creación de memes o pautas de opinión en redes de contactos o redes sociales de Internet. Otro campo de aplicación fructífero es la teoría de juegos evolutiva (que trata de identificar estrategias evolutivamente estables) y la toma de decisiones colectivas.

Las ciencias de la complejidad han seguido su curso desde sus inicios en la cibernética y la teoría de sistemas. La figura siguiente resume dicha evolución entre los años 50 y la actualidad.

2018_Map_of_the_Complexity_Sciences

La biosfera y la hipótesis Gaia

Bertalanffy (1952 pp. 124-125)  fue uno de los primeros en caracterizar los seres vivos como estructuras que se autoproducen y automantienen canalizando por su interior un flujo continuo de energía y materiales que lo atraviesan:

Cuando comparamos objetos inanimados y animados encontramos un contraste sorprendente. Un cristal, por ejemplo, está construido de componentes invariables; persiste con ellos tal vez durante millones de años. Un organismo vivo, sin embargo, sólo en apariencia es persistente e invariable; en realidad es la manifestación de un flujo perpetuo. Como resultado de su metabolismo, que es característico de todo organismo vivo, sus componentes no son las mismas de un momento al siguiente. Las formas vivas no están en el ser, están sucediendo; ellos son la expresión de una corriente perpetua de materia y energía que atraviesa el organismo y al mismo tiempo lo constituye…

Esta concepción dinámica del organismo puede ser contada entre los principios más importantes de la biología moderna. Conduce a los problemas fundamentales de la vida, y nos permite explorarlos.

Desde el punto de vista de la física, el estado característico en que encontramos el organismo vivo se puede definir afirmando que no es un sistema cerrado con respecto a su entorno, sino un sistema abierto que continuamente entrega materia al mundo exterior e incorpora materia de él, pero que se mantiene a sí mismo en este intercambio continuo en un estado estacionario, o se aproxima a ese estado estacionario en sus variaciones en el tiempo.

En su libro The evolution of the biosphere (1986) M. I. Budyko usó el término “biosfera” para designar el Sistema constituido por todas las especies vivas. Un hecho esencial de este sistema según Budyko es que las tasas de intercambio de materiales que se producen entre las especies son mucho más altas que las tasas de incorporación de estos materiales desde otros sistemas, como la litosfera, la hidrosfera o el espacio exterior. Además, estos intercambios de materiales sólo “se cierran” en la escala de la propia biosfera, no en escalas más locales como los ecosistemas particulares. Siguiendo esta perspectiva, podemos definir la biosfera como el sistema global de reciclado de los materiales que sirven como sustrato para el metabolismo y autopoiesis de los seres vivos. Barlow y Volk (1990) defienden una perspectiva similar a ésta sugerida por Budyko.

Lovelock y Margulis (1974) y Lovelock y Watson (1982) sugirieron que la biosfera controla la temperatura, la composición atmosférica y la disponibilidad de otros materiales que la vida utiliza como sustrato de su metabolismo, contribuyendo así a estabilizar las condiciones ambientales necesarias para su supervivencia. Esta es una hipótesis muy fuerte que ha suscitado un vivo debate desde entonces.

En su formulación fuerte, la hipótesis no parece sostenible. El sistema regulador principal que mantiene la temperatura del planeta aceptable para la vida es geológico: la meteorización de los silicatos del suelo por el ácido carbónico de la lluvia (procedente del CO2 tectónico) y su retroacción negativa: sobre la concentración atmosférica de CO2 tanto cuando ésta es alta como cuando la temperatura es alta (véase Historia del clima terrestre). El artículo de Kirschner (2003) ilustra otras críticas a esta formulación fuerte de la hipótesis Gaia. Tal como lo expone el resumen de dicho artículo: “Las incertidumbres que rodean el cambio climático global proporcionan amplia evidencia, si alguna fuera necesaria, de la necesidad de una visión sistémica de la Tierra. Podría decirse que el intento más visible, y controvertido, de entender la Tierra como un sistema ha sido la teoría Gaia de Lovelock. Gaia ha sido un generador de hipótesis fructíferas y ha generado muchas conjeturas interesantes sobre cómo los procesos biológicos podrían contribuir a la regulación a escala planetaria de la química atmosférica y el clima. En muchos casos importantes, sin embargo, estas conjeturas son refutadas por los datos disponibles. Por ejemplo, la teoría de Gaia predice que la composición de la atmósfera debería estar estrechamente regulada por los procesos biológicos, pero las tasas de absorción de carbono en la biosfera se han acelerado en solo un 2% en respuesta al aumento del 35% en el CO2 atmosférico desde los tiempos preindustriales. La teoría de Gaia predeciría que el CO2 atmosférico debería estar más efectivamente regulado por la captación del ecosistema terrestre (que está mediada biológicamente) que por la captación oceánica (que es principalmente abiótica), pero ambos procesos son igualmente insensibles a los niveles de CO2 en la atmósfera. La teoría de Gaia predice que las retroalimentaciones biológicas deberían hacer al sistema Tierra menos sensible a la perturbación, pero los mejores datos disponibles sugieren que el efecto neto de las retroalimentaciones biológicamente mediadas será amplificar, no reducir, la sensibilidad del sistema terrestre al cambio climático antropogénico. La teoría de Gaia predice que los subproductos biológicos en la atmósfera deberían actuar como reguladores del clima planetario, pero el núcleo de hielo de Vostok indica que el CO2, el CH4 y el sulfuro de dimetilo, todos subproductos biológicos, funcionan calentando la Tierra cuando hace calor; y enfriándola cuando hace frío. La teoría de Gaia predice que las retroalimentaciones biológicas deberían regular el clima de la Tierra a largo plazo, pero los picos en la paleo-temperatura se corresponden con los picos en el paleo-CO2 en registros que se remontan al Pérmico; por lo tanto, si el CO2 está regulado biológicamente como parte de un termostato global, ese termostato ha estado conectado al revés durante al menos los últimos 300 millones de años. La teoría de Gaia predice que los organismos alteran su medio ambiente para su propio beneficio, pero en la mayor parte de la superficie del océano (que comprende más de la mitad del globo), el agotamiento de nutrientes por el plancton casi ha creado un desierto biológico, y se mantiene bajo control solo por la hambruna de nutrientes del propio plancton. Por último, cuando los organismos mejoran su entorno por sí mismos, crean una retroalimentación positiva; por lo tanto, los dos principios centrales de la teoría de Gaia: primero, que los organismos estabilizan su entorno, y segundo, que los organismos alteran su entorno de manera que los beneficia, son mutuamente inconsistentes entre sí. Estos ejemplos sugieren que el desarrollo posterior de la teoría de Gaia requerirá una comparación más ajustada de la teoría y los datos.

En efecto, el aumento de CO2 atmosférico tiende a aumentar el CO2 disuelto en el océano, lo cual tiende a aumentar la propducción primaria (fotosintética) en los océanos y con ello la tasa de producción de esqueletos carbonatados que caen hacia el fondo (tras la muerte de los animales con concha o esqueleto calcáreo). Pero este efecto es compensado con creces por dos retroalimentaciones que actúan en sentido contrario y que son provocadas por la vegetación de los continentes. El primero es el siguiente: cuando sube el CO2 atmosférico, la vegetación continental se vuelve más densa; esto fija el terreno y disminuye la resuspensión de polvo (que es rico en hierro) por el viento; la disminución del hierro que llega a los océanos disminuye la producción neta de éstos; esto tiende a aumentar el CO2 en atmósfera, lo cual aumenta la temperatura; tanto el aumento de CO2 como de temperatura tienden a aumentar la densidad de la vegetación.  El segundo es el siguiente: cuando sube el CO2, la vegetación se vuelve más densa; esto disminuye el albedo de los continentes; esto aumenta la temperatura de los continentes; el aumento térmico aumenta la densidad de vegetación que cubre las regiones frías, lo cual disminuye aún más el albedo. Como discute Bender (2003) ambas retroalimentaciones positivas tienen un efecto mayor que el del CO2 sobre la tasa biológica de sedimentación de carbonatos marinos, de modo que el efecto neto es que, cuando la concentración de CO2 aumenta en la atmósfera, la vegetación planetaria tiende a aumentar aún más esa concentración de CO2, un efecto desestabilizador y no estabilizador sobre el clima, al contrario de lo esperable según la hipótesis Gaia.

Barlow y Volk utilizan el término Gaia y no el de biosfera, no en el sentido fuerte que le da Lovelock, sino como forma de subrayar que esta biosfera es una entidad global que es probablemente más autónoma, más autorregulada y más persistente que sus ecosistemas constituyentes o los agregados de ecosistemas. Podemos llamar a esto el planteamiento débil de la hipótesis Gaia.

Estos autores sugieren que la naturaleza casi cerrada del sistema tierra para los flujos de materiales impuso una presión de selección a todas las especies desde el principio. Esta presión tendió a seleccionar las combinaciones de especies que tenían mayores capacidades de reciclar (conjuntamente) materiales esenciales.

Para ello se apoyan en Margulis y Sagan, quienes describen la secuencia de eventos en la evolución de los procariotas como habiendo sido provocada por una escasez tras otra. Las primeras formas de vida pueden haberse alimentado de productos químicos libremente disponibles y de ATP generado abióticamente. La evolución de la fermentación simple liberó a la vida de los límites impuestos por la cantidad de ATP generado abióticamente, porque los azúcares generados abióticamente podían ahora consumirse para generar ATP. A la escasez de azúcar le siguió la evolución de nuevas formas de fermentación por las cuales las bacterias podrían derivar energía de los desechos metabólicos (ácidos y alcoholes) de otros fermentadores. Otras bacterias desarrollaron estrategias metabólicas por las cuales el ATP era construido desde sulfatos. Luego se produjo la evolución de diferentes estrategias fotosintéticas que usaban la energía del sol para construir carbohidratos a partir del último producto de desecho, el dióxido de carbono, y alguna fuente de hidrógeno. La disponibilidad de gas hidrógeno y de sulfuro de hidrógeno de origen volcánico (y de los residuos metabólicos de bacterias del azufre) puso un límite a la cantidad de actividad fotosintética que podía inicialmente ser soportada. Pero cuando una bacteria mutante fue capaz de extraer el hidrógeno nada menos que rompiendo la estable molécula de agua, tuvo lugar un salto cuantitativo para la biomasa terrestre. Como lo expresaron Margulis y Sagan, la inexorable pérdida de hidrógeno que sufre un planeta interior de baja gravedad “condujo a una de las mayores innovaciones evolutivas de todos los tiempos: el uso del agua en la fotosíntesis. Pero también condujo a una tremenda crisis de contaminación, la acumulación de gas oxígeno, que era originalmente tóxico para la gran mayoría de los organismos».

Entonces, aprovechando la nueva oportunidad – oxígeno libremente disponible – los organismos procariotas evolucionaron incorporando otra serie de estrategias metabólicas: respiración con oxígeno del hidrógeno fermentable para formar agua, de metano para formar dióxido de carbono, del sulfuro para formar sulfito, y del amoniaco para formar nitrato. Otro efecto que tuvo la rotura de la molécula de agua por los organismos fotosintetizadores y la presencia de oxígeno en la atmósfera fue la oxidación de la mayoría del hierro disuelto y ligado a las rocas de los océanos, lo que convirtió a este metal en un factor limitante del crecimiento de los organismos marinos.

Barlow y Volk citan también la evolución de las técnicas de captura de nitrógeno como otro ejemplo del papel que tuvo el cierre planetario a los materiales en la evolución de la vida. Los procesos abióticos originales fueron la oxidación del nitrógeno atmosférico por los rayos, que produjeron NO, NO2 y NO3, y la fotolisis del amoniaco que producía nitrógeno atmosférico. A estos procesos originales, la vida añadió sucesivamente el consumo de amoníaco, la amonificación o producción de NH3, la  asimilación de nitratos, la nitrificación (o producción de NO2 y NO3 a partir de NH3), y la fijación de nitrógeno (o producción de NH3 a partir de N2 atmosférico). La escasez de nitrógeno fácilmente disponible y la demanda biológica de fuentes adicionales parecen haber sido las fuerzas motrices en tales innovaciones evolutivas.

 Diversidad biológica y resiliencia

En ecología, la resiliencia se define como la capacidad de un ecosistema de mantener las mismas relaciones entre sus poblaciones después de sufrir perturbaciones externas; esto es, la magnitud de la perturbación que un ecosistema puede soportar antes de cambiar su estructura (Holling, 1973). Sin embargo, el concepto ha tomado un significado algo más amplio en estudios de sistemas socio-ecológicos. Por ejemplo, como subraya Castillo-Villanueva y Velázquez-Torres (2014), algunos autores plantean la resiliencia como la capacidad de un sistema de mantener sus funciones y estructuras básicas en momentos de choques y perturbaciones (Birkmann, 2006: 15-16). Otros señalan que “la resiliencia implica que el sistema, ya sea social, ecológico o socio-ecológico, puede movilizar la suficiente auto-organización para mantener las estructuras y los procesos esenciales mediante adaptación o estrategias de supervivencia. Otros definen la resiliencia como la capacidad de un sistema, comunidad o sociedad para anticiparse o adaptarse a los efectos de un evento peligroso, absorberlos o recuperarse de ellos, en forma oportuna y eficiente, garantizando la preservación, la restauración o la mejora de sus estructuras y funciones básicas y esenciales”. Esto es, se asume implícitamente que el sistema puede sufrir restructuraciones en sus componentes (e.g. especies) y en algunos de sus atractores emergentes, pero manteniendo las funciones principales (atractores emergentes principales).

Si definimos pues, qué retroalimentaciones y ciclos del hiperciclo de un sistema son los esenciales para garantizar sus funciones emergentes principales, todo sistema, ante una variable externa perturbadora, tiene un rango de resiliencia, un valor (con su incertidumbre asociada) para el cual la estructura esencial del sistema sufre un cambio irreversible, y un rango de vulnerabilidad, o rango de valores de la variable perturbadora para el cual el sistema no puede mantener su estructura anterior.

En ecología, hay bastante consenso en que la biosfera como un todo ha demostrado una enorme resiliencia ante cambios climáticos muy intensos (como se discute en Historia del clima terrestre); y que esta resiliencia está asociada a la gran diversidad de los ecosistemas terrestres. La diversidad biológica a su vez está relacionada con la abundancia de genes diferentes, de especies, y de hábitats.

selva macrotermica

Selva macrotérmica, con clima Af (sin época de sequía) en Barro Colorado (Panamá), que muestra la gran diversidad ecológica en este tipo de vegetación que tiene muchas especies con distintas épocas de floración. Los pájaros e insectos se encargan de la polinización, por lo que la diversidad existente es origen de su alimentación continua. Se puede ver la característica fundamental de la selva ecuatorial: miles de especies vegetales por unidad de superficie, pero pocos ejemplares de cada una, también por la misma unidad de superficie.

Stuart Kauffman ha estudiado cómo ha podido surgir y evolucionar esa gran biodiversidad utilizando modelos de sistemas complejos de agentes adaptativos. Consideremos el conjunto de todos los genes humanos, unos 80.000, cada uno de los cuales puede estar activo o inactivo, según sean activados o desactivados por la combinación de señales (traídas por proteínas) procedentes de otros genes con los que cada gen está conectado a distancia. El número de estados posible para una célula es de 280000, unos 1024000 estados. Si se tardara un segundo en activar o desactivar un gen, una célula tardaría 1024000 segundos en explorar todos sus posibles estados, esto es, unos 426 billones (1012) de años, necesitaría un tiempo muy superior al que lleva existiendo el universo (13.800 millones). Las células, sin embargo, no parecen explorar la totalidad de sus posibles estados de activación genética, sino más bien explorar ciclos concretos cerrados de activaciones que, tras varias horas, o días de tiempo, vuelven a un estado inicial.

Supongamos que una célula tiene solo tres genes, A, B y C, cada uno de los cuales puede estar activo (1) o inactivo (0). El conjunto de los 8 estados posibles sería: {(000),(001),(010),(011),(100),(101),(110),(111)}.  En un sistema dinámico determinista, dado un estado del sistema en el tiempo t, el sistema cambia a otro estado sucesor que es único, y función del estado precedente; si el sistema no es determinista, cambia a uno de los N estados sucesores posibles de acuerdo con cierta distribución de probabilidad.

Supongamos que nuestro sistema de genes celulares es determinista. La función de cambio de estado podría ser la definida por la tabla siguiente:

T                        T+1
(ABC)                  (ABC)
(000)     →           (110)
(001)    →           (010)
(010)     →           (010)
(011)     →           (100)
(100)     →           (011)
(101)      →          (110)
(110)     →           (111)
(111)     →           (110)

Con tales reglas de transición entre estados, el sistema genera tres bucles finales, ciclos de estados, o “atractores” de tipo ciclo-límite, tal como se muestra en el esquema siguiente:

(101)

(000) →(110) →(111) →(110)

(001) →(010) →(010)

(100) → (011) →(100)

El primer ciclo límite se produce entre los estados (110) y (111). El segundo ciclo se produce simplemente entre el estado (010) y él mismo, o sea, más que un ciclo límite se puede llamar un atractor estable. El tercer ciclo límite se produce entre (100) y (011). Estos ciclos finales pueden llamarse “atractores”, pues atraen hacia ellos el flujo de otros estados “transitorios”, como los estados ((101), (000), o (001). El conjunto de los estados que fluyen hacia un atractor más los estados que componen el propio atractor se llama “cuenca de atracción” del atractor. Las cuencas de atracción dividen el espacio de estados en conjuntos disjuntos.

Cuando el sistema tiene mucho más que tres genes y reglas de transición diferentes a esta, aparecen ciclos límites más largos, que relacionan cíclicamente a muchos genes a lo largo del tiempo. Kauffman y otros investigadores encontraron sistemáticamente tres formas de funcionamiento en estos sistemas de “genes” conectados: un régimen ordenado, un régimen caótico y un régimen fronterizo, o “frontera del caos”. En el régimen ordenado, la mayoría de los genes permanecen activados o desactivados la mayor parte del tiempo (generalmente dentro de un ciclo límite largo) y cambian su estado sólo de vez en cuando, y hay unos pocos grupos de genes que cambian de estado continuamente. En el régimen caótico, la situación se invierte: la mayoría de genes cambian de estado continuamente, mientras grupos aislados de genes permanecen estables o lentamente cambiantes. La frontera del caos es una situación intermedia entre los dos regímenes citados, y de transición entre los mismos.

En el régimen ordenado, las longitudes de los atractores crece de forma polinómica con el número de genes. En la frontera del caos, el número de estados de un ciclo es proporcional a la raíz cuadrada del número de genes. En el régimen caótico, la longitud de los ciclos crece exponencialmente con el número de genes.

Si, por ejemplo, la regla de transición cambia al azar en cada interacción, el resultado es un régimen caótico en el que la longitud típica de un ciclo de estados es de 212000 transiciones.

Dado que el ser humano tiene unos 80.000 genes, y la raíz de ese número es 283, si el genoma humano funcionara en un régimen ordenado pero cercano al caótico (o sea, en la vecindad o frontera del caos), debería tener ciclos de esa longitud. El número de clases de células humanas es d 256, por lo que Kauffman piensa que: (i) el sistema genético humano (con su citoplasma asociado) funciona en el régimen ordenado cercano al caos, (ii) los ciclos límite de activaciones del genoma humano corresponden a la construcción de todas las clases de células posibles para ese genoma; (iii) Además, el periodo de duración de un ciclo límite completo correspondería a los tiempos característicos de los ciclos biológicos: como lleva entre uno y diez minutos el activar o desactivar un gen eucariótico, el periodo de sus ciclos genéticos sería de entre 4.75 y 48 horas, un tiempo claramente en el margen de lo biológico.

Además, en el régimen ordenado pero fronterizo con el caos, el funcionamiento anómalo repentino de un gen se propaga perturbando solamente a un número de genes que es igual como máximo a dos veces la raíz cuadrada del número total de genes. En el régimen caótico, la avalancha afecta a casi la totalidad de los genes (el “efecto mariposa”, o sensibilidad exponencial a pequeñas diferencias iniciales, es la norma en los atractores caóticos). En la mosca Drossofila, que tiene unos 16.000 genes, la peor avalancha debería afectar a unos 254 genes; según Kauffman, la más grande observada hasta ahora afecta a unos 155 genes, luego el modelo resulta hasta el momento verosímil.

El mecanismo por el cual la evolución habría seleccionado a los organismos para que permanezcan en este régimen sería precisamente el que la diversidad genética hace más adaptable a una especie (al igual que hace más adaptable a un ecosistema). El régimen fronterizo con el caos es el que más eficazmente puede explorar las posibilidades genéticas posibles cercanas a las que están funcionando en un metabolismo celular dado; pero, lo hace sin que el metabolismo celular se vuelva super-crítico (caótico) y la célula empiece a tener un comportamiento molecularmente impredecible que sería incompatible con sus hiper-ciclos de auto-poiesis. Si alguna célula, alguna vez, ha traspasado esa frontera, con toda probabilidad se ha extinguido. Así que, según Kauffman, las especies y los ecosistemas tenderían a ser tan diversos como lo permite la dinámica de las relaciones entre agentes adaptativos en la frontera del caos.

complejo

La frontera del caos es un régimen de funcionamiento donde los comportamientos, y sus atractores, no son ni excesivamente predecibles ni absolutamente impredecibles, sino complejos.

Uno de los parámetros que la selección natural ha podido ir ajustando es el número K de entradas (señales de otros K genes) a las que cada gen es sensible. Kauffman, Derrida y Pomeau demostraron que si K=2 o inferior, las redes funcionan en el régimen ordenado, independientemente del contenido de las reglas de transición. Éstas pueden ser aleatorias, y aún así el funcionamiento es ordenado. Como dice Kauffman, “si tomamos 10.000 genes al azar y los combinamos también al azar con la única limitación de que tengan sólo K=2 entradas, aunque la función de transición asignada a cada gen sea aleatoria (de las 16 posibles), el sistema se las arregla para orbitar alrededor de sólo unos 100 estados de los 210000 posibles!”. Esta forma de autoorganizarse de los sistemas complejos de agentes, combinando cambios azarosos con atractores, sugiere que una parte importante del orden que observamos en los seres vivos procede de procesos autoorganizativos; y sobre ellos, actúa la selección natural perfilando los últimos detalles, por así decirlo.

Para valores de K mayores que 2, las redes funcionan en el régimen caótico, salvo si las funciones o reglas de transición poseen alguno de dos tipos de sesgo. El primer sesgo es que los genes tiendan a responder preferentemente con una clase de respuesta (i.e. activarse; o desactivarse) independientemente de la combinación de señales que reciba. Si la preferencia por una respuesta es del 80% de media, por ejemplo, los genes pueden tener 4 entradas y la red permanece en el régimen estable; si la preferencia es del 90%, pueden llegar a tener hasta 11 entradas, etc.

La segunda clase de sesgo (“reglas canalizadas”) es la de que la mayoría de los genes tienen alta sensibilidad (responden siempre) hacia las señales que reciben de algunos de los N genes, y baja sensibilidad (responden con poca frecuencia) hacia las señales que reciben de los demás genes. Kauffman encontró que los seres vivos utilizan esta segunda clase de sesgo sistemáticamente, para poder tener 4, 5 y 6 entradas por gen en algunos casos, y no utilizan la primera. Esto es, cada gen tiene “predilección” por lo que le señalan algunos genes concretos con los que está conectado, y reacciona más débilmente a los demás. Es plausible que la selección natural haya partido de redes autoorganizadas de genes con 2 conexiones por gen de media, y sobre ellas haya explorado el “entorno posible” de ese régimen añadiendo a la vez conexiones genéticas nuevas y reglas canalizadas (“preferencias” limitadas entre genes), manteniéndose así en el régimen fronterizo con el caos.

Este modelo ha sido utilizado por Kauffman también para simular de forma genérica el proceso de la co-evolución de dos especies. Considera una especie representada por un organismo típico con N genes, cada uno de ellos conectados a otros K genes. Todos los genes presentan dos versiones o «alelos» (0 y 1), y cada alelo de un gen hace una contribución distinta a la eficacia global del organismo; esa contribución depende de su propio alelo (0 o 1) y de los alelos (valores) de los K genes con los que está conectado. Habrá 2K+1 combinaciones de valores posibles, y cada una de ellas hace una contribución a la eficacia del organismo que Kauffman elige aleatoriamente (entro 0 o «mínima», y 1 o «máxima»).

La eficacia del organismo en un instante dado es definida, por ejemplo, como la media de las aportaciones hechas por cada uno de sus genes. Cuando K=0 en un sistema de este tipo, los N genes son independientes, hay un alelo óptimo para cada gen, y por tanto una eficacia del organismo óptima. Cualquier otra combinación de alelos (o «genotipo») tiene una eficacia inferior a la óptima, pero la selección natural puede ir aumentando su eficacia haciendo mutar sus genes uno por uno y seleccionando aquellas combinaciones que mejoran la eficacia. Cuando K=N-1, valor máximo posible, cada gen contribuye en la aportación a la eficacia de todos los demás; como esta aportación es aleatoria, el número de máximos locales para la eficacia es un número gigantesco: M = 2N/(N+1), y es prácticamente imposible encontrar el óptimo general por selección natural, el sistema siempre se quedará atrapado en algún pico local, y si tuviera algún mecanismo para saltar de vez en cuando de allí, aún así tardaría más tiempo que la edad del universo para encontrar el óptimo global entre esos M óptimos locales.

Kauffman estudia entonces la co-evolución de dos especies diferentes, una rana y una mosca por ejemplo. Cada uno de los N genes de la rana recibe entradas de K genes de la rana y de C genes de la mosca, y viceversa: una rana puede tener una lengua pegajosa, cuya eficacia se ve afectada por la presencia o ausencia de sustancias resbaladizas en el exoesqueleto de la mosca, por ejemplo. La selección natural que modifica el genoma de la rana hacia valores más altos modifica el relieve adaptativo de la mosca, cuya trayectoria ascendente por su propio relieve modifica a su vez el relieve adaptativo de la rana. Kauffman estudió sistemas co-evolutivos de 4, 8 y 16 especies y encontró que el ecosistema de 4 especies llega, tras algunas subidas y bajadas de las eficacias de todos los participantes, a un estado en el que las cuatro eficacias dejan de cambiar, un estado evolutivamente estable. Cada especie ha encontrado un óptimo local compatible con los óptimos locales propios encontrados por las otras especies. En ese estado, lo mejor que puede hacer cada especie es no cambiar mientras no lo hagan las demás. En cambio, en los ecosistemas de 8 o de 16 especies las eficacias suben y bajan siempre caóticamente a medida que las especies co-evolucionan. Sus propios óptimos adaptativos se desplazan más rápidamente de lo que ellas tardan en alcanzarlos, debido a las derivas genómicas de las demás especies. En las simulaciones de Kauffman, la K de cada especie puede ser modificada por selección natural si ello mejora la eficacia y, lo que se observa es que esa K tiende a aumentar en todas las especies pero que, cuando se hace demasiado alta, aumenta la frecuencia de grandes extinciones, por lo que los ecosistemas que sobreviven tienden a adoptar valores intermedios de K. Así pues en los ecosistemas, como en los organismos individuales, la evolución tiende a llevar al sistema a un régimen cercano a la frontera del caos, pero sin traspasar esa frontera (Kauffman, 1995; 2003).

red trofica

Representación de las relaciones tróficas (o alimentarias, o de depredación) entre las especies de una comunidad biológica

El tamaño de los ecosistemas de especies en interacción también parece estar controlado espontáneamente por pautas autoorganizativas emergentes. Kauffman cita los trabajos de Stuart Pimm y Mack Post sobre comunidades arbitrarias de organismos autótrofos y heterótrofos. Las interacciones de tipo depredador-presa entre estos organismos se suelen representar mediante ecuaciones de Lotka-Volterra. Esencialmente, un organismo o bien es comido por otro(s), o bien come a otro(s) o ambas cosas a la vez, y las ecuaciones de Lotka-Volterra predicen el tamaño de la población de cada organismo en función del tiempo, cuando interacciona de ese modo con las otras poblaciones. Si solo hubiera una población de presas A y una población de depredadores B, las ecuaciones para las tasas de variación temporal de las poblaciones A y B serían:

dA/dt  = p1 A – p2 AA – p3 AB
dB/dt  = -p4 B + p5 AB

donde p1, p4 son parámetros que representan la tasa de crecimiento de ambas poblaciones en ausencia de depredación, p3, p5 son las tasas de crecimiento de ambas poblaciones debidas a los encuentros con la otra especie, y p2 es una tasa de frenado del crecimiento de la especie presa cuando su número se hace excesivo (impuesto por la capacidad de sustentación finita de los vegetales que come, o por la degradación del entorno que provoca la superpoblación, o por ambos factores).

Pimm y Post representaron en un modelo N especies cuyos parámetros p de interacción con otras eran tomados al azar. Entre los resultados posibles, estaba que todas las poblaciones se vinieran a cero (extinción de todas las especies), que sólo algunas poblaciones alcanzaran tamaños estables, que algunas de ellas oscilaran periódicamente y otras permanecieran estables, que todas subieran y bajaran caóticamente, etc. En contra de lo que esperaban, todas las poblaciones llegaron a un estado estacionario estable. Pimm y Post continuaron agregando especies al azar y observaron que, cuanto más especies había más difícil era añadir una nueva y que no se extinguiera (o extinguiera a otra al entrar ella en la relación). Sin embargo, la causa no era una falta de alimento o energía.

Según Bruce Sawhill y Tim Keitt, la situación que estamos considerando es equivalente a un problema lógico que se denomina Ksat. Tomemos una expresión lógica booleana. Toda expresión booleana puede ser traducida a su forma normal disyuntiva, esto es, cláusulas unidas por disyunciones («y»), por ejemplo: (A1 o A2) y (A3 o no A4) y (no A2 o no A3). Las expresiones entre paréntesis se llaman «cláusulas», en nuestro ejemplo tenemos tres cláusulas para cuatro variables (las «A»). La expresión lógica será cierta sólo si lo son todas las cláusulas. La primera cláusula será cierta sólo si A1 o A2 o ambas son ciertas; la segunda cláusula será cierta sólo si A3 es cierta o A4 es falso; la tercera será cierta sólo si A2 es falso o A3 es faso, o ambos lo son. Por todo ello, la expresión completa será verdadera, por ejemplo, cuando A1 = verdadero (o falso), A2 = verdadero, A3 = falso, A4 = falso. En cambio, hay expresiones para las cuales no hay ninguna combinación de valores para las variables que la hagan cierta. Por ejemplo, la expresión: (A2) y (no A2), que nunca es cierta, pues una cláusula contradice a la otra. En general, una expresión en su forma normal disyuntiva que contenga K variables en cada cláusula, un total de C cláusulas, y un total de V variables, puede ser satisfecha por muchas combinaciones distintas de valores de las variables; por sólo unas pocas combinaciones; o por ninguna combinación de valores. Lo curioso es que estos dos investigadores encontraron que para un número fijo V de variables y un número fijo K de variables en cada cláusula, si vamos aumentando el número de cláusulas C en una expresión arbitraria, al principio, hay muchas combinaciones que la satisfacen, y cerca del valor C/V = ln 2 · 2K el número de combinaciones cae exponencialmente a cero. Para ese valor crítico de C/V, la expresión (arbitraria) pasa de satisfacerse con casi total seguridad a no satisfacerse de ninguna manera.

Según estos autores, la formación de una comunidad trófica de criaturas elegidas al azar, con necesidades alimentarias y de interacción también aleatorias, es equivalente a un problema Ksat, puesto que encontraron la misma «transición crítica» en sistemas aleatorios de Lotka-Volterra que en el problema Ksat. La conclusión sería que, a medida que las comunidades tróficas aumentan en número de especies llega un momento en el que se cierran a cualquier intento de entrada de nuevas especies. Pero a largo plazo, si todas las especies de la red van aumentando en media el número de especies con las que interactúan (aumenta el número de especies «generalistas»), la red puede hacerse accesible de nuevo a especies adicionales.

Referencias

Barlow C. & Volk T. (1990). Open systems living in a closed biosphere: a new paradox for the Gaia debate. BioSysrems, 23, 371—384.

Bender M. 2003. Climate-biosphere interactions on glacial-interglacial timescales. Global Biogeochemical Cycles, Vol. 17, No. 3, 1082, doi:10.1029/2002GB001932

Bertalartffy, L.V., 1952, Problems of Life: An Evaluation of Modem Biological Thought, (John Wiley, New York).

Birkmann, Jörn, 2006: «Measuring vulnerability to promote disaster-resilience societes: conceptual frameworks and definitions», en Birkmann, Jörn. (Ed.): Measuring Vulnerability to Natural Hazards: towards disaster resilient societies, New Delhi, India: Teri Press.

Castillo-Villanueva L., Velázquez-Torres D. 2015. Sistemas complejos adaptativos, sistemas socio-ecológicos y resiliencia. Quivera, vol. 17, núm. 2, 2015

Hejl, P. M. (1984) Towards a Theory of Social Systems: Self-Organization and Self-Maintenance, Self-Reference and Syn-Reference, in Self-Organization and Management of Social Systems, H. Ulrich and G. J. B. Probst (eds.), Springer, Berlin.

Holling C. S. (1973). Resilience and Stability of Ecological Systems. Annual Review of Ecology and Systematics, Vol. 4, pp. 1-23.

Kauffman, S. (1995), At Home in the Universe, The Search for the Laws of Self-Organization and Complexity. Oxford University Press, New York.

Kauffman, S. (2003), Investigaciones, Barcelona,Tusquets.

Kirchner J. W. 2003. The Gaia Hypothesis: Conjectures And Refutations. Climatic Change 58: 21–45

Lovelock, J.E. and Margulis, L., 1974, Atmospheric homeostasis by and for the biosphere: the Gala hypothesis. Tellus 26, 1–9.

Lovelock, J.E. and Watson, A.J., 1982, The regulation of carbon dioxide and climate: Gaia or geochemistry, Planet. Space Sci. 30, 795–802.

Maturana, Humberto R. (1975). The organization of the living: A theory of the living organization, International Journal of Man-Machine Studies, Vol. 7, pp. 313-332.

Mingers J. 1997. Systems Typologies in the Light of Autopoiesis: A Reconceptualization of Boulding’s Hierarchy, and a Typology of Self-Referential Systems. SYST. RES. BEHAV. SCI. VOL. 14, 303-313.

O’Neill, R.V.: Perspectives in Hierarchy and Scale. In: J. Roughgarden, R.M. May and S. Levin (eds.): Perspectives in Ecological Theory. Princeton University Press, Princeton, 1989, pp. 140–156.

Rosen R. 1993. Drawing the boundary between subject and object: comments on the mind-brain problem. Theoretical Medicine 14.

Varela, Francisco J. (1979). Principles of Biological Autonomy, New York: Elsevier (North Holland).

Zhong Y.J., Huang K.K., Lan Y.F., Chen A.Q. 2018. Simulationof Carbon Isotope Excursion Events at the Permian-Triassic Boundary Based on GEOCARB. Open Geosci. 10: 441–451.

 

 

Historia del clima terrestre

 

Se cree que el sistema solar se formó hace unos 4600 millones de años, por colapso gravitacional de una nebulosa de hidrógeno, helio y polvo residual de la explosión de antiguas estrellas. La presencia de átomos radioactivos en la Tierra sugiere que el colapso gravitacional debió haber sido provocado por la explosión de una supernova cercana, probablemente a una distancia de 0.02-1.6 parsecs (1 parsec equivale a unos 3.3 años luz) y con una masa de 15-25 masas solares (Portegies-Zwart 2009). Tales estrellas masivas viven de 4 a 10 millones de años y luego estallan como supernovas, esparciendo gran parte de su masa por sus alrededores. La nebulosa originaria debió de tener unas 500-3000 masas solares y un radio de 1-3 parsecs, y una o varias partes de ella debieron sufrir una compresión súbita provocada por la onda de choque de los materiales procedentes de la supernova. Esas regiones de sobredensidad alcanzaron la densidad crítica por encima de la cual la gravitación vence a la velocidad de expansión del gas comprimido, y éste entonces continuó cayendo hacia el centro. En este colapso gravitacional el gas debía de tener cierta velocidad lateral inicial que se fué acelerando por conservación del momento angular, en una rotación cada vez más rápida. La nebulosa fue adoptando la forma de un disco de gas de unos 200 UA (una Unidad Astronómica o UA  es aproximadamente la distancia media entre la Tierra y el Sol) con un centro esférico rojo y caliente. Tras unos 50 millones de años de compresión, el centro esférico alcanzó unos 10 millones de grados, y comenzó la fusión termonuclear del hidrógeno para producir helio. Con el Sol empezando a radiar, el gas de la nebulosa fué empujado hacia el exterior del sistema solar, mientras que el polvo en rotación tendía a agregarse gravitacionalmente en «grumos» de 1-10 km de diámetro, que a su vez se atraían mutuamente formando planetesimales en rotación alrededor del Sol, que crecían unos 15 cm cada año por choques con materiales externos. La teoría de los planetesimales fue propuesta por el geofísico ruso Otto Schmidt en 1944.

clear_disk_loop

Formación del sistema solar. GIF creado por Lynette Cook a partir de información extraída de los metadatos de fotos del IPTC

La región cercana al Sol era demasiado cálida para que los planetesimales pudieran retener materiales líquidos como el agua o el metano, pero los planetesimales que orbitaban más lejos estaban a temperaturas más bajas, y sobre su superficie sólida pudieron retener océanos de metano, de agua e incluso de hidrógeno líquido (actualmente Júpiter, Saturno, Urano y Neptuno). Esta teoría de la nebulosa planetaria tiene sin embargo puntos oscuros. Los modelos predicen que Júpiter, Saturno, Urano y Neptuno no deberían tener tanta masa, salvo que en su formación hubiesen estado mucho más cerca del Sol de lo que están ahora.

Integrando hacia atrás la velocidad actual del Sol alrededor de la galaxia, se deduce que el sol ha debido dar unas 7 vueltas alredor del centro de la Vía Láctea desde que se formó, y actualmente se encuentra en posición casi opuesta a donde se formó, detrás del núcleo galáctico. Entre el 1 y el 8% de las estrellas que están actualmente a menos de 100 pc de distancia del Sol deberían ser hermanas de nacimiento de la nebulosa que originó al sistema solar y a otras estrellas. El resto ha debido alejarse mientras giraban alrededor de la galaxia.  Portegies Zwart (2009) opina que el satélite Gaia debería ser capaz de identificar a las hermanas del Sol a partir del análisis de sus características orbitales y de su espectro luminoso.

Poco después de la formación de la Tierra, se formó la Luna, posiblemente como resultado de una fuerte colisión oblicua con un cuerpo del tamaño de Marte, de un 10 % de la masa terrestre. Parte de este objeto se incrustó en la Tierra y parte fue eyectada hacia el espacio. Una parte de ese material eyectado volvió a reunirse gravitatoriamente  y originó el satélite que orbita la Tierra.

colision lunar

La mayoría de los cráteres de la Luna parecen tener una antiguedad de unos  4500 millones de años. Posteriormente, el número de colisiones parece haber disminuido drásticamente. Estas observaciones han reforzado la hipótesis de Schmidt de la acreción colisional o formación de los planetas a partir de planetesimales. Debido a la mayor radioactividad y a las frecuentes colisiones, la Tierra debió estar fundida al principio (hace 4500 millones de años). La disminución del número de objetos «sueltos» por el sistema solar hizo disminuir el número de colisiones, lo cual permitió el enfriamiento de la Tierra y la solidificación de su corteza, aunque ésta debió sufrir una enorme actividad volcánica.

Según el geofísico Claude J. Allègre hace 4.440-4.410 millones de años el impacto de los planetesimales y los meteoritos había provocado la fusión del hierro terrestre y su descenso al interior hasta formar un proto-núcleo en el centro. Al mismo tiempo los elementos gaseosos, más ligeros, fueron moviéndose hacia arriba y terminaron formando una atmósfera primigenia. El análisis cronológico de algunos isótopos de helio, argón y xenón pertenecientes a minerales del manto terrestre emitidos en las dorsales marinas sugiere que entre el 80 y el 85 por ciento de los gases que componen la atmósfera actual se expulsaron durante el primer millón de años que siguieron a la formación del núcleo terrestre. La atmósfera primigenia (aún sin oxígeno) se originó, pues, alrededor del 4400 millones BP (BP: Before Present, antes del presente), y estaba constituida aparentemente por dióxido de carbono y nitrógeno, y en menor cantidad por metano, amoníaco, dióxido de azufre y ácido clorhídrico.

Esa desgasificación primitiva del interior terrestre liberó también enormes cantidades de vapor de agua, que se condensó en la superficie terrestre constituyendo los océanos, aunque una parte del agua ha debido proceder del hielo de los cometas y meteoritos colisionantes. La presencia de cristales de yeso y bacterias fijadoras de nitrógeno encontradas en las rocas más arcaicas sugieren que las temperaturas de la superficie terrestre y de sus océanos debían de estar entonces entre los 30 y los 60º C.

La estratificación de los magmas de distinta densidad a distintas profundidades permitió que aparecieran magmas, enriquecidos paulatinamente en ciertos elementos (sílice, aluminio, sodio, potasio, etc.), cuya cristalización originó las primeras rocas graníticas.

Los primeros fragmentos estables de corteza terrestre debieron situarse sobre zonas de ascenso de magma. Allí, la acumulación de rocas graníticas fue haciendo crecer una  corteza terrestre primigenia. Los magmas graníticos contenían en su composición una serie de elementos químicos en pequeñas concentraciones, entre ellos el circonio. Las rocas ricas en circonio son especialmente resistentes a la erosión, y permanecen estables durante miles de millones de años. El descubrimiento de rocas con circonio (“circones”) de 4.100 -4.300 millones de años en Australia permite pensar que la corteza primigenia debió formarse en esas fechas.

La era precámbrica (desde la formación de la Tierra hasta 542 Ma BP) suele dividirse en tres periodos: hádico, arcaico y proterozoico. Debido a las altas temperaturas y frecuentes colisiones (sobre todo en su inicio), la era entre 4.6 y 4 Ga ha recibido el nombre de Hádico (en referencia al infierno de la mitología griega, Hades).

Al hádico siguió el eón Arcaico (4000-2500 millones de años BP). En esa época la corteza terrestre se debió enfriar lo suficiente para que se comenzaran a formar las rocas y las placas continentales, pero la tectónica de la Tierra era probablemente distinta a la actual. Hay rocas muy metamorfoseadas y otras que sugieren la posible formación de proto-continentes que se fusionaron poco después. Algunos geólogos sostienen que el calor que acumulaba el planeta causó que la actividad tectónica fuera más intensa que en la actualidad, lo que dio como resultado un reciclado más activo de los materiales de la corteza, lo que habría evitado la formación de cratones (bloques rígidos) continentes hasta que el manto terrestre se enfrió y se ralentizó su convección. Otros argumentan que el manto litosférico subcontinental era demasiado ligero para sufrir una subducción y la escasez de rocas del eón Arcaico es una consecuencia de la erosión y de los acontecimientos tectónicos derivados.

hadico

Posible paisaje del periodo hádico

El registro geológico del Proterozoico (2500-542 millones BP) presenta ya numerosos estratos depositados en extensos mares de poca profundidad aparentemente situados sobre plataformas continentales. Muchas de las rocas están menos metamorfoseadas que las de la era Arcaica. Parece haber tenido lugar un rápido crecimiento continental, “ciclos supercontinentales” de unos 500 millones de años en que todas las masas de corteza se unían para luego separarse, y una actividad orogénica similar a la actual.​ Hace unos 750 millones de años comenzó a desgajarse el supercontinente más antiguo que se conoce, Rodinia. Después se recombinaron los continentes para formar Pannotia, hace entre 600 – 540 millones de años.

La tectónica de placas

En 1915, el meteorólogo alemán Alfred Wegener publicó El origen de los océanos y continentes, un libro en el que afirmaba que el saliente de Brasil y la depresión de la parte sudoeste de África encajan perfectamente, como piezas de un puzzle. Además, decía, los únicos lugares del mundo donde se habían encontrado fósiles (de 270 millones de años) del mesosaurio eran el este de Sudamérica y el oeste de África. Ello sugería que los dos continentes habían estado unidos en el pasado y después de habían separado.  Los continentes actuales formaban según Wegener un único supercontinente, al que denominó Pangea.

Deriva Wegener

Figura. La deriva de los continentes según Wegener.

Wegener no sabía qué fuerzas podían haber movido esas enormes masas de roca, pero la existencia de fuerzas enormes en el interior terrestre no había pasado desapercibida. El propio Darwin, en su diario a bordo del Beagle sospecha la existencia de fuerzas extrañas bajo el suelo en un famoso comentario en la víspera del gran terremoto de 1835 que arrasó la isla de Chiloé (Chile):

«Echamos anclas en la bahía de San Carlos, en la isla de Chiloé. Durante la noche del 19 se pone en erupción el volcán de Osorno (…) a las tres de la mañana observamos el más soberbio espectáculo (…) objetos negros proyectados al aire sin cesar y que caen después. La luz es tan intensa que ilumina el mar (…) Mucho me sorprendió saber más tarde que en Chile, el Aconcagua, situado 480 millas (772 km) más al norte, había entrado en erupción la misma noche, y más aún me admiró saber que la gran erupción del Conseguina (2.700 millas, 4.344 km al norte del Aconcagua) acompañada de temblor de tierra que se hizo sentir en 1.000 millas, había tenido lugar seis horas después (…) Difícil es aventurarse ni siquiera a conjeturar si esa coincidencia es accidental o si hay que ver en ella la prueba de una comunicación subterránea (…) Los tres volcanes forman parte de la misma cadena de montañas y las extensas llanuras que limitan la costa oriental y las conchas recientes, levantadas en una longitud de más de 2.000 millas (3.220 km) en la costa occidental, demuestran a igualdad con que han obrado las fuerzas elevadoras.»

En 1929, el geólogo inglés Arthur Holmes sugirió que el flujo convectivo de la roca calentada del manto situado bajo la corteza podría proporcionar la fuerza motriz necesaria: el material rocoso que se encuentra en las profundidades del manto se calentaría, se volvería menos denso y subiría a la superficie, donde arrastraría a la corteza oceánica y a los continentes, hasta enfriarse y hundirse de nuevo.

El descubrimiento de la gran dorsal submarina del centro del Atlántico, 15.000 kilómetros entre Groenlandia y el sur de África, dió nuevo apoyo a esa teoría. Los alrededores del sistema dorsal estaban prácticamente libres de sedimentos, en contraste con la gruesa capa de sedimentos (de hasta varios kilómetros) que cubre las planicies de los márgenes continentales. Las muestras recogidas del fondo de la fisura central de esa doble cordillera revelaron que el fondo del océano estaba compuesto por roca volcánica oscura y sumamente joven.

Earth_seafloor_crust_age_1996

Edad del fondo oceánico. En rojo el más joven, junto a las dorsales, por ejemplo en la centroatlántica. En azul el más antiguo, por ejemplo, junto a las costas norteafricana y norteamericana. NOAA.

Posteriormente, se descubrió que la polaridad magnética de algunos minerales que habían cristalizado dentro d ese suelo joven, se alineaban con la orientación de los polos terrestres, y lo hacían idénticamente a un lado y otro de la dorsal. Todo parecía indicar que el magma brotaba por el valle central (el rift) de la dorsal, formaba la doble cordillera a un lado y otro, y arrastraba el fondo marino, que se desplazaba a ambos lados mientras el nuevo magma se solidificaba.

En las regiones oceánicas donde el fondo es más antiguo (en azul en la figura) se detectan, además, grandes fosas submarinas y en muchos casos (Perú-Chile o Pacífico frente a Norteamérica), grandes cordilleras paralelas a la costa, como si la corteza del fondo oceánico presionara contra el continente y se curvara (hasta los 60º frente a Chile), deslizandose bajo el mismo. La tectónica de placas actual llama a esas regiones zonas de subducción. La alta sismicidad de esas regiones se explicaría por la presión del fondo oceánico contra el continente (que pliega los estratos creando cordilleras costeras) a la que vez que desliza bajo y él y funde las rocas en toda la superficie de contacto. Esa roca fundida emerge hacia la superficie por las grietas producidas por la sismicidad, creando volcanes continentales frente a la costa. El propio movimiento de esas cintas transportadoras que van desde la dorsal centrooceánica hasta las costas, es el que arrastra los sedimentos del fondo y los acumula contra la costa.

Tectonica de Placa

El fragmento relativamente rígido de litosfera situado entre una dorsal centrooceánica y una subducción (y que desliza sobre la astenosfera o capa plástica que está debajo) se denomina placa tectónica. Como muestra la figura anterior, la expansión del suelo atlántico parece estar empujando al continente americano (a la izquierda de la figura) hacia occidente, mientras que la expansión del suelo pacífico en dirección contraria, algo más lenta, empuja al continente americano hacia oriente a la vez que subduce bajo el mismo. El efecto neto de ambas fuerzas es que el continente tiende a moverse actualmente hacia occidente, abriendo aún más el Atlántico a costa del Pacífico. El balance actual de fuerzas y movimientos de los fondos marinos tiende a mover a los continentes tal como muestra la figura siguiente. Obsérvese el probable cierre completo del antiguo Mar de Thetis (hoy Mediterráneo), el choque de Australia con Asia, y la apertura del Ártico a la entrada de corrientes cálidas del Atlántico, en los próximos 50 millones de años.

Movimiento continentes

La ciencia geológica actual piensa que la Tierra tiene un núcleo interno sólido donde se han acumulado por gravedad los materiales más densos, con alto contenido en hierro, níquel y átomos radiactivos. La desintegración de esos átomos mantiene muy caliente al núcleo y funde a los materiales, más ligeros, que lo rodean, que forman un núcleo externo de hierro y níquel líquidos (entre los 2.885 y los 5.155 km de profundidad) donde se producen corrientes de convección. Estas corrientes de metales conductores se combinan con el movimiento de rotación de la Tierra para crear una dinamo que mantiene el campo magnético terrestre.

Nucleo terrestre

Desde los años 30 del siglo XX se ha pensado que existirían posibles corrientes de convección entre ese núcleo externo hasta la corteza terrestre, sólida. Sin embargo, encima de ese núcleo externo y hasta la base de la corteza terrestre la capa existente no parece ser líquida, sino plástica, según la tomografía sísmica, y no son posibles corrientes de convección en un material plástico.

¿Qué causa entonces el movimiento del suelo marino y el cambio de forma de las placas tectónicas de la corteza terrestre? En los últimos años, ha aparecido una teoría que afirma que la parte de la placa que ha subducido sigue bajando hasta el manto profundo, tirando con su peso del resto de la placa (emergida). En contacto con el núcleo exterior, esta placa sumergida se funde y crea penachos de material fundido que ascienden en otro lugar geográfico, hasta encontrarse con la litosfera, que se calienta en su base, apareciendo allí “puntos calientes”. Estos puntos pueden generar volcanes. Las dorsales centrooceánicas, en esta teoría, se formarían al fracturarse la litosfera por el tirón de la placa sumergida, no serían los impulsores del movimiento. La teoría es verosímil salvo en que la gravedad, en un sistema estratificado, nunca puede causar un movimiento vertical persistente a largo plazo; la elevación de magma caliente hacia las dorsales centrooceánicas, o bien hacia los puntos calientes, o hacia ambos, deberían seguir siendo, más probablemente, el motor energético del movimiento tectónico.

Estructura capas terrestres

Sea como fuere, las zonas volcánicas cercanas a las subducciones y en las dorsales centrooceánicas son fuentes activas de CO2, que van directamente e indirectamente a la atmósfera, respectivamente. En Venus, este gas se ha ido acumulando en la atmósfera hasta hacer de este planeta un auténtico infierno para cualquier forma de vida. Esto se debe al efecto invernadero que provoca el CO2.

El efecto invernadero y su regulación en la Tierra

El efecto invernadero es un sobrecalentamiento de la superficie terrestre producido por la presencia de gases que interceptan la radiación infrarroja emitida por la superficie de nuestro planeta en su camino hacia el espacio, y la reemite en todas direcciones, con lo cual una parte de esa radiación infrarroja vuelve a la superficie. Los gases absorben luz sólo a las frecuencias específicas que necesitan para pasar de un estado de vibración (o rotación) menos energético a otro estado más energético.

El vapor de agua es el principal gas invernadero de nuestra atmósfera, pues la rotación y vibración de su molécula intercepta la mayor parte de la radiación infrarroja emitida por la superficie (Figura). Pero el CO2 produce efecto invernadero también porque varios modos de vibración de su molécula necesitan absorber ondas infrarrojas de frecuencias de 1.8, 4.5 y 12 micrometros, y esas frecuencias coinciden con ventanas que la rotación y vibración de la molécula de agua deja abiertas, esto es, el vapor de agua no intercepta esas frecuencias infrarrojas.

Efecto Invernadero Moleculas

Como la atmósfera está bastante saturada de vapor de agua, sus aumentos de concentración aumentan el calentamiento de la superficie, pero no tanto como lo que correspondería al aumento de concentración, debido a que las ventanas de absorción que le corresponden están ya casi saturadas (casi toda la radiación procedente de la superficie ha sido interceptada ya, y el que haya aún más vapor cambia poco el panorama). Este no es el caso del CO2, que al estar en concentraciones relativamente bajas en la atmósfera, una duplicación de su concentración induce casi una duplicación de su efecto invernadero.

En cualquier caso, cuando el CO2 aumenta su concentración, provoca una subida de la temperatura media de la superficie. Esa subida térmica aumenta un poco más la evaporación del agua de los océanos y suelos, y el aumento consiguiente de vapor de agua atmosférico aumenta en una cantidad adicional el efecto que le correspondería al CO2 en solitario. Cuando los climatólogos habla del aumento del “efecto invernadero” causado por un aumento de CO2 antropogénico se están refiriendo al efecto combinado (directo e indirecto, a través de la evaporación) de ese aumento de CO2.

La comparación de nuestra atmósfera con la de los dos planetas vecinos nos permite comprobar el efecto que tienen distintas coberturas gaseosas sobre la temperatura de la superficie de un planeta.

 

venus-1

Foto de Venus

En Venus la Constant solar (potencia luminosa que entra por m2 en la alta atmosfera) es de 2637 Wm-2 , y su albedo (fracción que vuelve reflejada hacia el espacio) es de 0.77, debido a su cobertura de nubes de ácido sulfúrico. Esto hace que lleguen realmente 606,5 Wm-2 al suelo. Su densa atmosfera tiene un 96% de CO2 y crea una presión de 89 atm en la superfície. La temperatura en su alta atmosfera es de Te= 227 K (-46ºC), y en superficie Ts= 737 K (464ºC); la diferencia de temperatures es provocada por el efecto invernadero, que se puede ver que es enorme.

Marte, en cambio, tiene una atmosfera muy tenue, de solo  0.007 atm, compuesta de  CO2 al 95%.

Marte-0

Foto de Marte

Su constante solar es de 592 Wm-2  con un albedo de 0.14, por lo que llega al suelo 509,12 Wm-2. Las temperatures sobre y bajo la atmosfera son: Te= 218 K, (-55ºC) y Ts= 220 K (-53ºC), por lo que podemos comprobar que tiene un efecto invernadero muy débil. Una vida como la terrestre probablemente no habría sido capaz de sobrevivir y evolucionar con una temperatura superficial tan baja y tan poca agua.

Tierra-0

La Tierra, en cambio, tiene una constante solar de 1367 Wm-2 y un albedo de 0.30, por lo que llega a la superfície 956,9 Wm-2. Con abundancia de agua y un 0.03% de CO2, su atmosfera tiene un efecto invernadero moderadamente intenso: Te= 255 K (-18ºC), Ts= 288 K (15ºC). Sin atmósfera, la superficie terrestre estaría unos 33 grados más fría, en promedio; y sufriría oscilaciones térmicas fortísimas entre el día y la noche.

La Tierra pasa por eras geológicas de alta actividad tectónica (y por tanto, volcánica) y por periodos de baja actividad. Las épocas de alta actividad tectónica son también épocas de alta emisión de CO2 a la atmósfera, dorsales oceánicas más voluminosas, en consecuencia el océano está más alto, y hay también una deriva más rápida de los continentes.

vulcanismo

Esas épocas suelen coincidir con fuertes aumentos del CO2 atmosférico, como muestra la primera Figura del apartado siguiente. Sin embargo, esa figura muestra también que, a lo largo de la historia de la Tierra, el CO2 no se ha ido acumulando como ha ocurrido en Venus, sino que siempre ha estado en concentraciones moderadas, entre las de las épocas glaciales (33% inferiores a la actual) y las del Ordovícico (unas 17 veces superior a la actual).

¿Qué mecanismo planetario mantiene la concentración de CO2 acotada en esos márgenes? La hipótesis que formuló Lovelock con su hipótesis Gaia fue que la propia biosfera es la que mantiene a ese gas (y a otros) dentro de márgenes tolerables para la vida. Sin embargo, la explicación más aceptada es que el mecanismo principal de esa regulación es la meteorización química de los silicatos del suelo por acción del ácido carbónico, esquematizada en la Figura siguiente.

Meteorizacion escala geologica

Esencialmente, una parte del CO2 presente en la atmósfera se disuelve en las gotas de lluvia; allí, una parte del CO2 disuelto pasa a ácido carbónico disuelto, H2CO3, y éste, cuando las gotas de lluvia tocan las rocas del suelo, reaccionan con los silicatos presentes en éstas y los convierte en carbonatos y bicarbonatos. Las raíces de la vegetación disgregan las rocas silíceas y amplifican la formación de ácido carbónico (con ayuda de sus bacterias asociadas), por lo que ayudan a la meteorización. La reacción agregada sería:

CaSiO3  +   H2O  +  CO2             →        CaCO3  +  SiO2  +  H2O

Roca           Lluvia    Vulcanismo                    Carbonato

Llevados por los ríos hasta el mar, los carbonatos fluviales van sedimentando por el camino, y los bicarbonatos disueltos precipitan en forma de carbonatos sólidos, por acción de los organismos marinos, que crean estructuras óseas y conchas a partir de ellos. Así, la meteorización retira CO2 de la atmósfera y lo deposita, en forma sólida estable, en los fondos marinos. De allí, en plazos muy largos de unos millones de años, estos carbonatos son arrastrados por el movimiento del fondo oceánico hacia las subducciones, y tras fundirse bajo los continentes, regresan a la atmósfera mediante el vulcanismo. El flujo de carbonatos de origen abiótico es unas cuatro veces mayor que el flujo biótico desde el bicarbonato disuelto hacia los fondos marinos (Figura próxima). Esto sugeriría que la meteorización era un mecanismo previo a la aparición de la biosfera, pero que ésta ha acabado contribuyendo con una aportación importante (y reforzante) a una parte de su ciclo; sin embargo, ese efecto reforzante del termostato geológico de una parte de la biota marina es arruinado por la dinámica de la biota terrestre que, como comentaremos en otro post, actúa aumentando la emisión de CO2 cuando el CO2 está alto en la atmósfera, y viceversa.

Zhong-2018-Ciclo C geologico

Ciclo geológico del carbono. Tomado de Zhong et al. (2018).

Hay además una retroalimentación negativa múltiple entre la subida de concentración de CO2 en la atmósfera y la retirada de CO2 de la atmósfera por efecto de la meteorización. Por una parte, la reacción de meteorización aumenta su tasa de actividad cuando la concentración de CO2 (y con ello, la temperatura) es más alta; por otro, en las épocas de mucho CO2 en atmósfera hay más flujo de este gas hacia las gotas de lluvia y mayor formación de ácido carbónico reactante; finalmente, si la temperatura global es más alta, hay mayor tasa de evaporación y por tanto de precipitación, con lo que aumenta la cantidad de ácido carbónico que llega al suelo y lo ataca químicamente.

La retroacción entre temperatura y meteorización controla la concentración atmosférica de CO2 (y con ello la temperatura media de la superficie) no sólo por arriba sino también por abajo, tal como ilustra la figura siguiente, por lo cual constituye un eficaz “termostato” climático en la Tierra.

Feed back meteorizacion

Este mecanismo de regulación parece haber salvado el clima del planeta en varios momentos críticos, y haberlo mantenido apto para la evolución de la vida.

El clima del Precámbrico

Hace 4000 millones de años el sol era una estrella recien nacida, más fría y que brillaba probablemente un 30% menos intensamente que en el presente. Esto debió haber impedido la existencia de agua líquida en superficie, en contra de algunas evidencias geológicas. Esta paradoja fue planteada por Carl Sagan y G. Mullen en los años 70. No hay datos geológicos creíbles del nivel de CO2 en la atmósfera para ese periodo tan arcaico, pero la explicación más creíble es que en esa época la concentración de CO2 en atmósfera debió ser mayor (por el mayor flujo de calor desde el interior terrestre y la mayor actividad tectónica); y la relativamente baja temperatura debió provocar una baja meteorización de ese CO2.

CO2 geologico.png

Otros momentos críticos debieron producirse en el precámbrico tardío (1000 a 560 millones de años BP). En ese periodo hay evidencia de al menos dos (y posiblemente más) glaciaciones anormalmente grandes. La primera (“Sturtian”; ~730 millones BP) pudo haber provocado una auténtica “Tierra bola de hielo” pero han quedado poquísimos datos geológicos como para poder afirmarlo con seguridad. La más reciente (~650 a ~560 millones BP), parece haber provocado efectivamente una “Tierra bola de hielo” con evidencias claras de hielo marino llegando al ecuador.

Clima Escala Geologica

Entre los sedimentos geológicos correspondientes a esta época, se encuentran en efecto sedimentos  que se depositan sólo en glaciares o icebergs; sin embargo, estos sedimentos se observan incluso en regiones que se encontraban entonces en el ecuador.

Otra evidencia son las rocas con bandas de hierro. Tales rocas dejaron de formarse en 1800 Ma BP, porque el alto oxígeno disuelto (que alcanzó probablemente el océano tras la fotosíntesis) lo impidió. Sin embargo, en -700 Ma BP vuelven a formarse, asociados a depósitos glaciares en todos sitios. Como si el océano hubiera permanecido anóxico millones de años, luego se hubiera oxigenado con la fotosíntesis y de repente, se hubiera vuelto anóxico de nuevo.

roca bandas hierro.jpg

Roca con bandas de hierro

¿Cómo pudo enfriarse tanto el planeta pese al termostato de la meteorización? Una explicación plausible es que, en aquella época, los continentes pudieron estar todos entre los dos trópicos. Los dos polos relativamente aislados de corrientes oceánicas tropicales provocan, según los modelos climáticos globales, una alta retroacción positiva del albedo polar sobre el enfriamiento (el casquete de hielo que crece en los polos vuelve más reflectiva la superficie, lo cual disminuye más la temperatura, lo cual aumenta la extensión del casquete de hielo). Los casquetes polares debieron crecer sobre el mar y su crecimiento no inhibía directamente la formación de carbonatos (separando las rocas de la lluvia), porque estos seguían formándose en los continentes sin hielo.

Rodinia

Una vez los casquetes alcanzaron los 30º de latitud, los modelos dicen que el enlentecimiento de la meteorización por la bajada térmica fue incapaz de contrarrestar ya a la retroacción positiva del albedo sobre el enfriamiento. El hielo debió envolver la Tierra hasta el ecuador, mientras el océano se congelaba hasta una profundidad de 1000 m.

El planeta podría no haber salido nunca de ese estado, enormemente estable. Sin embargo, esta glaciación aberrante terminó misteriosamente sólo un poco antes de la “explosión cámbrica” de los seres pluricelulares. ¿Qué mecanismo “salvó” al planeta? La explicación más plausible es la de que los volcanes seguían emitiendo CO2. La bajísima evaporación, impedía que hubiera nubes de lluvia, por lo que sin gotas de lluvia, no se formaba ácido carbónico, ni había posibilidad de meteorización. Por tanto, el CO2 permanecía en la atmósfera. Tras unos 10 millones de años, los modelos nos dicen que el CO2 debería haber subido hasta 1000 veces su concentración atmosférica!

Ante un efecto invernadero tan intenso, las comarcas sin hielo alrededor de las fuentes geotérmicas y de los volcanes continentales sufrirían un calentamiento que fundiría todo los hielos de sus alrededores, según los modelos. Esto provocaría una bajada del albedo regional, aumentaría las temperaturas en tales regiones, abriendo más y más los huecos sin hielo, por la retroalimentación positiva y creciente de la bajada del albedo y el aumento de temperatura.

Cuando una fracción importante de la superficie se vio liberada del hielo, la acción reguladora de la meteorización se habría reiniciado, bajando el nivel de CO2 a sus valores normales. Así pues, una vez más, el termostato de la meteorización pudo haber “salvado” al planeta, volviéndolo favorable a la evolución de los organismos pluricelulares.

¿Dónde pudo sobrevivir la vida unicelular (bacteriana) del Precámbrico? Probablemente, en las fuentes geotérmicas continentales, alrededor de las chimeneas volcánicas oceánicas y, algunas células, en las grietas del hielo flotante. Las especies supervivientes de esa catástrofe, pudieron quizás ser especialmente adaptables como sugiere la explosión de formas vivas que se produjo a continuación tras el fin de esta glaciación extrema.

El Paleozoico (570 – 225 m.a.)

Este periodo comienza con la explosión de vida pluricelular que se observa en los estratos del Cámbrico. La evolución que permitió a las células simples (procariotas) fusionarse para generar células complejas (eucariotas) y a éstas asociarse en forma de colonias celulares para generar organismos pluricelulares de formas diversas es un tema en continua investigación (véanse algunas ideas claves en Resumen del libro “Deconstruyendo a Darwin- Los enigmas de la evolución a la luz de la nueva genética”, de Javier Sampedro).

Oceano cambrico

Representación de un posible Océano cámbrico

Inicialmente, la vida pluricelular fué exclusivamente marina, pero alrededor del 420 m.a. BP (Silúrico) se produce un punto crítico cuando la concentración de oxígeno en la atmósfera, que se venía acumulando gracias a la fotosíntesis, alcanzó el 10% del nivel actual. Por encima de este nivel, se piensa que la atmósfera generó una capa de ozono suficiente como para proteger a los organismos vivos de las radiaciones ultravioletas.

En esta época, las plantas empezaron a colonizar los continentes, seguidas por muchas especies de artrópodos (arácnidos e insectos entre ellos) que respiraban aire. Los vertebrados les siguieron 50 millones de años después, en el Devónico tardío.

Colonizacion de continentes.png

También en esta época, aparecen las plantas vasculares, con tallos rígidos y tejidos de lignina, que les permiten crecer en vertical por encima de otras plantas, buscando la luz solar.

Tiktaalik Roseae.png

Tiktaalik Roseae, un pez de 1.2-2.7 m, con aletas lobuladas, articulaciones en sus extremidades, costillas y cuello, y que parece haber tenido pulmones, pero conservaba aún estructuras branquiales y escamas. Puede haber sido uno de los primeros vertebrados que exploró el medio terrestre cercano al mar.

Tras un episodio glacial que se había producido en el Ordovícico-Silúrico (-450 Ma), las temperaturas se elevaron y mantuvieron cálidas durante el Devónico y casi todo el Carbonífero, hasta hace unos 300 millones de años. La figura siguiente muestra la situación y movimiento tectónico de los continentes del devónico.

Devonico tectonica

Se piensa que había una estrecha franja tropical ecuatorial, amplias zonas áridas subtropicales hasta 35° de latitud (provocadas por la gran extensión de los continentes, que se sobrecalientan y secan en su interior), y zonas templadas que llegaban hasta los polos, debido a la conexión abierta entre las corrientes oceánicas tropicales y los mares polares. El calor, la humedad costera y una atmósfera rica en CO2 facilitaron el desarrollo evolutivo y la colonización de los continentes por parte de la vegetación.

La aparición de la lignina, muy resistente a la degradación y a la oxidación, creó un nuevo material biológico que no podía ser descompuesto por otros seres vivos, dado que los hongos descomponedores aparecieron millones de años más tarde. Esto produjo que el material leñoso muerto quedara enterrado en grandes cantidades y preservado bajo otros sedimentos. Ello provocó a largo plazo un secuestro de CO2 de la atmósfera hacia los sedimentos, y una subida del oxígeno en la atmósfera, que alcanza máximos del 35% en el -300 Ma BP, al final del carbonífero.

Oxigeno en el carbonifero.png

Al principio de este periodo, las temperaturas medias eran cálidas, pero se fueron enfriando hacia el final, debido a la deriva del supercontinente Gondwana (parte sur del Pangea) hacia el polo sur, que hizo crecer una zona glaciada en el sur.

Los niveles de oxígeno tan altos permitieron a los invertebrados y artrópodos crecer hasta tamaños de uno y dos metros. El oxígeno se difunde en el exoesqueleto de los artrópodos hasta el interior. Un ciempiés llamado Arthropleura ostenta el récord de mayor insecto que haya existido, con 2.3 m de largo y 0.5 m de ancho. Sin embargo, tamaños mayores a 2 m no parecen asequibles a los artrópodos debido a que su esqueleto externo debe ser mudado cuando el animal crece, y en esa muda, un artrópodo demasiado pesado podría quedar aplastado por su propio peso. Los cuadrúpedos (en esa época, principalmente anfibios) no estaban expuestos a esa limitación y exploraron tamaños mayores, de hasta 6 metros de largo en esa época y mucho mayores posteriormente (en el Jurásico y Cretácico).

Al final del periodo, los extensos bosques de lluvia tropicales se iban estrechando, rodeados por crecientes zonas áridas y, al final, algunos episodios de enfriamiento y secado súbitos hicieron que colapsaran en muchas regiones. Esto provocó la extinción de muchos animales acostumbrados a la humedad, y entre ellos muchos anfibios; pero seleccionó una novedad evolutiva de largo alcance: los huevos con sacos amnióticos que mantenían una reserva de agua y alimentos para el embrión en desarrollo, y permitía a estos desarrollarse en climas secos. De estos cuadrúpedos evolucionaron los reptiles, pájaros y mamíferos.

El posicionamiento polar de Gondwana aumentó la intensidad de la glaciación, lo que hizo disminuir mucho el nivel del mar durante el Pérmico. Hay evidencias de una caída muy importante de la concentración de oxígeno: del 35 % de comienzos del Pérmico al 15% al final del período (Berner, 1999), quizás provocado por la anormal bajada del nivel del mar, que expuso a la oxidación al 70% de las plataformas continentales, ricas en sedimentos carboníferos. La reducida presión parcial de oxígeno por encima de unos pocos centenares de metros de altitud fue desalojando de allí  lentamente a muchos artrópodos y algunos cuadrúpedos, que se habían acostumbrado a un metabolismo muy consumidor de oxígeno. El comienzo de la extinción masiva que caracteriza el final de este periodo comenzó al parecer ya en esta etapa fría y con poco oxígeno. La escasez de oxígeno dio ventaja a las bacterias metabolizadoras de azufre sobre las aerobias, lo que aumentó las emisiones de sulfídrico y de metano por los océanos.

A mitad del periodo, el choque de China Sur con la placa del Mar de Thetis produjo un accidente geológico anormal, que fue el ascenso masivo de magma a través de depósitos de carbón, que liberó a la atmósfera 170 trillones de toneladas de CO2, 18 trillones de toneladas de ácido clorhídrico y gran cantidad de metano. Finalmente, 5-10 millones de años después, se produjo una segunda crisis tectónica en Siberia, con la emisión de 1-4 millones de m3 de lava basáltica que cubrió una superficie casi igual a la europea, quemando grandes extensiones de bosques. Este segundo pico de gases invernaderos y aumento térmico favoreció entonces la autocombustión de grandes masas de carbón que se habían generado desde el Carbonífero. Esto aún produjo más CO2 y disminuyó aún más la concentración de oxígeno en la atmósfera, que llegó a ser del 16%. Las aguas de los mares se calentaron, liberando los depósitos de metano congelado próximos a la costa, con lo que se incrementó aún más el efecto invernadero. Esto volvió aún más anóxico a los océanos, que vertieron tanta cantidad de sulfuro de hidrógeno que las costas, donde se habían refugiado muchas especies, se volvieron inhabitables. Se extinguieron el 96% de las especies, y hasta la mayoría de los insectos.

La extinción fue tan masiva que las cadenas tróficas de la biosfera típicas del Pérmico tardaron aparentemente unos 30 millones de años en reestablecerse. Sin embargo la biosfera tuvo la resiliencia suficiente para resistirlas, gracias probablemente a su diversidad, que le ha permitido hasta ahora adaptarse incluso a catástrofes que acabaron con la mayoría de las especies pluricelulares.

La era Mesozoica (225 – 65 m.a.)

La era mesozoica o secundaria comienza con el triásico (245 m.a. a 208 m.a.). El nivel de CO2 había vuelto a subir desde el mínimo de final del carbonífero hasta un nivel 4-5 veces superior al actual, debido en parte a la evolución de nuevas especies de hongos y descomponedores, que equilibraron un poco la tasa de respiración (oxidación de la materia orgánica) respecto a la fotosíntesis (producción de materia orgánica a partir de CO2 y otros materiales), y debido también al aumento de la actividad tectónica desde el final del pérmico. Esto provocó un fuerte efecto invernadero.

Las masas continentales se habían agrupado todas en un continente único, Pangea, y un único océano, Panthalasa, rodeaba el planeta. La lejanía de las costas (con su efecto moderador) produjo un clima árido en vastas extensiones del interior de los continentes, con oscilaciones térmicas estacionales muy fuertes.

Cuando pasan varios millones de años sin que los continentes colisionen entre sí, el relieve va erosionándose y las grandes cordilleras pierden su altura. Un relieve tan  erosionado y plano no favorecía la lluvia en el interior, por lo que los modelos sugieren veranos muy cálidos, inviernos muy rigurosos y grandes zonas áridas.

Algunas zonas tropicales de Pangea próximas al mar debieron tener clima monzónico, con lluvias estivales. Pero la ausencia de relieves importantes restaba fuerza al monzón y no facilitaba la formación de nubes. Por eso, en Pangea, las regiones ocupadas por desiertos tropicales fueron más extensas  que los bosques de lluvia.

Pangea en Triasico

Tras 30 millones de años de evolución y re-construcción de ecotopos, las plantas con semillas empezaron a dominar la flora terrestre. Los reptiles se adaptan especialmente bien al clima árido, y aparecen los primeros dinosaurios y los primeros mamíferos.

Triasico

Representación de un paisaje triásico

El final de este periodo (208 m.a.) es testigo de otra extinción masiva. El super-continente Pangea comenzó a fracturarse a lo largo de una línea de ruptura llamada “Central Atlantic Magmatic Province” (CAMP). En esa enorme región geográfica de unos tres millones de Km2 (figura) empezaron a emerger, una vez más, gigantescas coladas de basaltos, que provocaron continuas lluvias ácidas provocadas por las emisiones de SO2, y un probable calentamiento brusco provocado por el aumento del CO2.

extinción Triasico-Jurasico

El final del Mesozoico, conocido como periodo Cretácico, es testigo de la mayor acumulación de energía térmica en atmósfera y océano que haya conocido el planeta, al menos desde que hay evidencia creíble. No hay signo alguno de hielo en los polos, lo que elevó el nivel del mar 170 m  por encima del actual. La concentración de CO2 era todavía unas 2.5 veces mayor que la actual, con niveles de oxígeno no muy inferiores al actual. Esto estimuló el crecimiento exuberante de muchas especies de plantas grandes, que posibilitaron a su vez la existencia de grandes reptiles herbívoros y carnívoros. Esta era es testigo también de la evolución de las primeras aves, lo cual presiona evolutivamente a los insectos a disminuir su tamaño.

Hay evidencias fósiles de grandes migraciones de dinosaurios entre las zonas ‘Templada cálida’ y ‘Templada fría’ cuando las estaciones cambiaban. Hay también evidencias de tortugas, cocodrilos y otros reptiles de sangre fría habitando en el círculo polar, y de palmeras en la península de Kamchatka.

¿Qué causó este escenario climático tan extraordinario?

En primer lugar, la alta actividad tectónica. El supercontinente Pangea estaba en rápida desagregación, y un movimiento más rápido de las placas llevaba asociada a una mayor emisión volcánica de CO2, especialmente en la zona de apertura atlántica entre Groenlandia, Islandia y Noruega, y también en Alaska y en la zona asiática.

Un movimiento de separación en todos los continentes impide la formación de nuevas montañas y mantiene el proceso de erosión que venía aplanando el relieve desde el periodo triásico. Una superficie continental tan plana y baja reduce la emisión de infrarrojos hacia el espacio (hay menor superficie radiante) y ello tiende a mantener alta su temperatura.

Además, hay menor erosión, lo cual enlentece la meteorización y ello mantiene alto los niveles de CO2 atmosférico. Todo ello presionaba hacia temperaturas altas.

En segundo lugar, las corrientes oceánicas tenían el camino libre desde los trópicos hasta el círculo polar a través de un amplio océano Pacífico, por lo que no había hielo en el círculo polar norte, y muy poco o nada en el sur, por la alta temperatura de los océanos y la atmósfera.

Jurasico-Cretacico.jpg

Configuración de los continentes 100 m.a. BP. Obsérvese las grandes zonas inundadas por el mar dentro de los continentes, de 40-50 m de profundidad.Cretacico-continentes.jpg

Probables zonas de formación de aguas profundas (cálidas y salinas), en el Mar de Tetis (en rojo)

En tercer lugar, la alta evaporación de un Mar de Thetis situado en el trópico generó probablemente un océano muy salado que formaba agua que se hundía a pesar de ser cálida. El agua del fondo oceánico tenía, parece ser, una temperatura de 18ºC, no como hoy en día, que tiene 2ºC de media. Cuando este agua afloraba en muchos lugares del planeta, no refrescaba el clima como hoy, sino todo lo contrario.

Las cinco grandes extinciones de la historia de la vida son, a saber: la del Ordovícico-Silúrico (439 millones a BP, 85% de especies), la del Devónico-Carbonífero (367 millones a BP, 82% de especies), la del Pérmico-Triásico (210 millones a BP, 96% de especies), la del Triásico-Jurásico (210 millones a BP, 76% de especies), y la del Cretácico-Terciario (65 millones a BP, 76% de especies). La causa de la primera es completamente incierta, mientras que el resto pudieron ser causadas por emergencia de magma y erupciones volcánicas masivas (acompañadas en algún caso por el impacto de un gran meteorito).

La extinción del Ordovícico-Silúrico es incierta, pero pudo ser provocada por la explosión de una supernova cercana. Si una de estas explosiones sucediera lo suficientemente cerca destruiría la capa de ozono de la atmósfera. Esto nos expondría a la radiación ultravioleta del Sol, que además romperían el oxígeno hasta en las capas bajas de la atmósfera, formando ozono a ras de suelo, gas que, a ese nivel, es tóxico para la vida animal y vegetal. ¿Puede la biosfera adaptarse a cualquier perturbación? Está claro que la biodiversidad es y fue una gran baza, pero no garantiza la supervivencia en cualquier situación geológica. Un ejemplo es la evolución geológica de Venus.

La era cenozoica (65 m.a. al presente)

En los inicios del Cenozoico o Terciario (Paleoceno y principio del Eoceno), entre los 65 y los 48 m.a., el clima fue semejante al del Cretácico. En el óptimo de principios del Eoceno el CO2 aún era alto, de unos 1000 ppm. Los carbonatos sedimentados en el Mar de Thetys, que se está cerrando, eran reciclados hacia los volcanes en las subducciones vecinas, muy próximas, lo cual hacía perder eficacia a la retirada de CO2 atmosférico. Esto mantuvo alta la temperatura atmosférica, pero la temperatura del fondo marino parece haber iniciado ya su enfriamiento desde el Cretácico y es de unos 12ºC. Ello podría deberse al cierre progresivo del Mar de Tetis, que va haciendo disminuir la tasa de formación de aguas profundas salino-cálidas. Tras los 50 m.a., la tendencia al enfriamiento global es  ya permanente hasta la actualidad.

Eoceno

Las causas de esa tendencia al enfriamiento desde el Eoceno parecen estar relacionadas, primero, con la bajada del CO2. El movimiento de las placas tectónicas provoca una serie de colisiones continentales que han ido cerrando el antiguo gran mar de Tetis: la compresión de la sub-placa ibérica contra Francia formando las montañas de los Pirineos, de Italia con Francia y Suiza formando los Alpes, de Grecia y Turquía con los Balcanes formando las montañas Hellenide y Dinaride, de Arabia con Irán para crear las montañas de Zagros, de India con Asia y, finalmente, la colisión más joven, de la placa de Australia con Indonesia. Estos choques van plegando la superficie continental que aumenta así: (i) su capacidad de radiar infrarrojos hacia el espacio, y (ii) la producción de relieves y cantos rodados expuestos a la acción del ácido carbónico de la lluvia. Esto hace disminuir continuamente el CO2 atmosférico. En el Oligoceno (30 m.a.) el CO2 ya está en las 500 p.p.m.

clima Cenozoico

La Antártida, a pesar de haber estado centrada en el Polo Sur desde principios del Cretácico, se había mantenido hasta  entonces libre de hielo, gracias a las corrientes marinas cálidas que le llegaban. Pero los movimientos tectónicos provocaron su separación de Australia y luego del continente suramericano y la apertura del estrecho de Drake. En ese momento, se establecer una corriente marina fría que rodea permanentemente a la Antártida y la aisla de la influencia térmica moderadora de las corrientes marinas medias y tropicales. Esto estimuló la formación de una extensa «banquisa» invernal de “hielo marino” y posteriormente la acumulación de hielo en el continente, pues las nevadas invernales dejaron de derretirse durante los veranos. En ese momento la temperatura de los fondos marinos ya era de sólo 3ºC.

La Antártida y las corrientes marinas

Corrientes marinas hace 35 m.a., un poco antes del aislamiento de la Antártida. Tomado de Uriarte Cantolla (2010).

No hay aún una explicación definitiva sobre la causa del calentamiento relativo que aparentemente se produjo a final del Oligoceno y primera mitad del Mioceno, y que desglació de nuevo una gran parte de la Antártida. Pero desde hace 14 m.a. las temperaturas se desploman y el hielo aumenta en la Antártida hasta glaciarla completamente. En este enfriamiento jugaron un papel importante el levantamiento del Plateau Tibetano y el cierre final del Mar de Thetis. La subida del Plateau Tibetano se había iniciado hace 50 m.a. pero su mayor tasa de crecimiento se produjo en el Mioceno. Con una altura media de 5.000m y bordes que caen rápidamente hacia el Índico, aumentó la pluviosidad monzónica del sur de Asia y se convirtió en fuente de grandes cantidades de carbonatos y de materia orgánica que acaban sedimentadas en el Golfo de Bengala o en el Pacífico por los ríos Indo, Ganges, Brahmaputra, Yangtze y Mekong (que transportan el 25% de toda la materia disuelta que llega al océano global). Se piensa que fue un participante esencial en la retirada de CO2 de la atmósfera que tiene lugar durante el final del mioceno y durante el plioceno, hasta el presente. La instalación de nieves permanentes en la región elevó el albedo terrestre contribuyendo ello también al enfriamiento, aunque esos hielos han ido disminuyendo posteriormente debido a la creciente altura y sequedad de la mayor parte del plateau.

Historia_del_clima_de_la_tierra_-_Anton

Corrientes marinas antes del cierre del istmo de Panamá, según Uriarte Cantolla (2010).

El cierre del istmo de Panamá se produjo entre los 13 y los 4 m.a. BP, y modificó el clima del Norte del Atlántico de un modo contra-intuitivo. El Océano Ártico había estado relativamente aislado del Atlántico desde el final del Cretácico, sin embargo, se había mantenido templado gracias a las corrientes marinas atlánticas que le llegaban. Con el cierre del istmo, deberían haberse intensificado esas corrientes, pues una parte de ellas ya no se perdía hacia el Pacífico (figura siguiente). Sin embargo, ese aumento de corrientes templadas probablemente provocó un aumento de la temperatura y de la evaporación en el Atlántico Norte. Esta mayor humedad aumentó las precipitaciones en Europa del Norte y Siberia, lo cual incrementó la descarga de agua dulce de los ríos que desembocan en el Ártico, disminuyendo la salinidad de todo ese mar.  Un mar poco salino se congela más fácilmente, y esto pudo facilitar la formación de hielos permanentes en la región circumpolar, aumentando el albedo del hemisferio norte y provocando a su vez la glaciación de Groenlandia y la formación de hielo durante los inviernos en el Norte de América y de Eurasia. La gran sensibilidad de esa zona de hielos a las variaciones en la irradiancia solar (ciclos de Milankovitch) está probablemente detrás de la aparición de ciclos glaciales-interglaciales desde hace 5.5 m.a.

El enfriamiento de las aguas del Índico son otro de los factores que contribuyeron también a esa tendencia general al enfriamiento típica de finales del terciario. El levantamiento de las islas de Indonesia desviaron probablemente las corrientes cálidas que venían del Pacífico Sudecuatorial, contribuyendo a ese enfriamiento.

glaciaciones cuaternarias

Entre 5.5 y 1.5 m.a., hay glaciaciones cada 23.000 o 41.000 años, pero a partir de entonces y hasta el presente, aparecen glaciaciones con un ciclo definido de unos 100.000 años. En otro post futuro comentaremos con más detalles los mecanismos de retroalimentación que explican esas oscilaciones. Pero, muy básicamente, cuando durante varios miles de años la fecha del solsticio de verano ocurre con la Tierra cerca del afelio (más lejos del sol) y la inclinación del eje de rotación terrestre es moderada, la evaporación y las precipitaciones son elevadas, por lo que nieva mucho en el norte; pero los veranos son tan tibios que la nieve acumulada no se derrite en verano, acumulándose año tras año. Esto garantiza el inicio de una glaciación, por el aumento del albedo que induce el aumento de los hielos en el Ártico y su efecto sobre el enfriamiento del hemisferio norte.

El misterio del clima de Venus

¿Por qué el clima de la Tierra ha sido casi siempre relativamente benigno, y en cambio el clima de Venus es un auténtico infierno? Venus es una especie de gemelo de la Tierra por su masa, y aun estando más cerca del sol, la cantidad de radiación que llega a su superficie es menor que la que llega a la Tierra (debido a su densa atmósfera). Sin embargo, ha evolucionado geológicamente de una manera absolutamente hostil para cualquier forma de vida que conozcamos. La explicación más plausible está relacionada, sorprendentemente, con la diferente velocidad de rotación de ambos planetas.

La velocidad de rotación de Venus es de una vuelta cada 243 días terrestres. Esta rotación tan lenta produce un efecto dinamo inapreciable en un probable núcleo exterior líquido como el de la Tierra. Por lo que tiene un campo magnético planetario prácticamente inapreciable. En cambio, la Tierra tiene a su alrededor un campo magnético desarrollado, tal como muestra la figura.

Cinturon magnetico terrestre

El sol emite un flujo supersónico continuo de protones, electrones y núcleos de helio, llamado viento solar. Estos iones tienen una energía entre 1.5 y 10 kEV, unas 30-200 veces más que la energía de ionización y rotura de la molécula de agua, de modo que una molécula de agua tiene pocas probabilidades de sobrevivir entera al choque con uno de estos iones de alta energía. El campo magnético de la Tierra, sin embargo, curva la trayectoria de estos iones alrededor de la Tierra, de manera que sólo unos pocos consiguen alcanzar nuestro planeta, casi todos en las regiones polares, donde ionizan o excitan los átomos de nitrógeno, oxígeno y agua, y producen las auroras boreales (cuando los átomos o iones excitados vuelven a su estado fundamental de energía emitiendo fotones). La mayoría de los iones del viento solar, sin embargo, continúa su camino hacia el exterior del sistema solar.

En contraste con la Tierra, ningún escudo magnético protege la atmósfera de Venus. Los iones del viento solar inciden directamente contra las capas altas de su atmósfera. El vulcanismo de Venus, como el de la Tierra, debe de haber estado vertiendo a la atmósfera (principalmente) CO2 y agua desde hace varios miles de millones de años. Como el agua es más ligera que el CO2, flota sobre él, y tiende a colocarse encima, así que el agua en Venus ha debido ir colocándose en la atmósfera alta, a lo largo de millones de años, mientras el CO2 iba llenando su parte baja. Lo que ha debido ocurrir lo podemos imaginar, y ha sido en parte confirmado por las imágenes y datos enviados por la sonda Venus Express de la Agencia Espacial Europea (ESA) en 2006 (foto siguiente).

Venus y viento solar

Interacción entre Venus y el viento solar (Crédito: ESA / C. Carreau)

La sonda Venus Express (1270 kg), en órbita polar entre 250 y 66.000 km de Venus, fue lanzada en Noviembre de 2005 por un cohete Soyuz, alcanzó Venus tras 153 días de viaje y tras 5 días de maniobras controladas por radio desde la Tierra (a 40 millones de km), consiguió su órbita.

Una de las primeras fotografías enviadas mostró, en el lado nocturno de Venus, una estela turbulenta de átomos abandonando el planeta. Pues bien, el “Analyser of Space Plasma and Energetic Atoms” (ASPERA) de la sonda mostró en la composición de esa estela una proporción de dos átomos de hidrógeno saliendo por cada uno de oxígeno. ¡Venus está perdiendo continuamente agua ionizada! Y probablemente la ha estado perdiendo por más de 3000 millones de años, por lo que su atmósfera ahora tiene ahora 105 veces menos agua que la atmósfera terrestre.

Así pues, esa foto nos hace testigos de la tragedia de Venus. Sin agua en su atmósfera, el CO2 de los volcanes de Venus no puede formar ácido carbónico; La retroacción negativa de la meteorización no existe; el CO2 se acumula continuamente, mientras que el agua es descompuesta por el viento solar en su alta atmósfera, y va abandonando el planeta en forma de iones de alta velocidad. Tres o cuatro mil millones de años más tarde, la temperatura en su superficie es de cerca de 500ºC, llueve ácido sulfúrico, y la presión es tan alta (89 atm) que las primeras naves Venera que llegaron intactas a su superficie, filmaron una imagen óptica lechosa, como de estar sumergidos en algo más parecido a un líquido que al aire que conocemos.

La historia climática de Marte comenzó siendo muy similar a la de la Tierra. Indicios mostrados por orbitadores como la sonda MAVEN de la NASA sugieren que Marte tuvo una atmósfera mucho más densa en sus inicios; sin embargo, entre 3.700 y 4.000 millones de años BP la perdió súbitamente. Modelos geológicos relacionan este evento con el enfriamiento paulatino y la solidificación completa de su núcleo de hierro, que inicialmente era líquido. Su solidificación impidió que la rotación de Marte (análoga en velocidad de giro a la de la Tierra) pudiera seguir creando un campo magnético planetario. Expuesto al viento solar directo y con una masa relativamente pequeña, ambos factores contribuyeron a que Marte fuera incapaz de retener la mayoría del gas emitido por los volcanes, que se disoció y escapó al espacio. Con un efecto invernadero muy débil, su atmósfera actual apenas es capaz de templar la temperatura de su superfície.

Probablemente, las primeras células vivas que evolucionaron en la Tierra (ya sea por síntesis química estilo Oparin y Miller, ya sea por panespermia desde los cometas) se beneficiaron de ciclos reguladores del clima tal como la meteorización, y sobre ese contexto geológico construyeron sus propias dinámicas, que en algunos casos refuerzan la regulación climática geológica y en otros la debilita ligeramente sin inutilizarla. La biosfera ha evolucionado, como hemos visto, en el contexto de unas fuerzas, ciclos y eventos geológicos que, en muchos casos, eran demasiado poderosos y tenían una causación demasiado remota como para que la adaptación biológica pudiera afectarlos. Pero la biosfera era lo suficientemente resiliente, debido a su diversidad, para que un pequeño número de especies sobrevivieran a las grandes catástrofes, y repoblaran el planeta.

 

Referencias

Bender M. 2003. Climate-biosphere interactions on glacial-interglacial timescales. Global Biogeochemical Cycles, Vol. 17, No. 3, 1082, doi:10.1029/2002GB001932

Darwin Ch. Viaje de un naturalista alrededor del mundo, Tomo II, Akal, 1983.

Kirchner J. W. 2003. The Gaia Hypothesis: Conjectures And Refutations. Climatic Change 58: 21–45

Lovelock, J.E. and Margulis, L., 1974, Atmospheric homeostasis by and for the biosphere: the Gaia hypothesis. Tellus 26, 1–9.

Portegies-Zwart, S. F., 2009. The Lost Siblings Of The Sun. The Astrophysical Journal, 696: L13–L16, 2009 May 1. doi:10.1088/0004-637X/696/1/L13

Uriarte Cantolla, A. La Historia del clima de la Tierra. Géminis Papeles de Salud, 2010.

Zhong Y.J., Huang K.K., Lan Y.F., Chen A.Q. 2018. Simulationof Carbon Isotope Excursion Events at the Permian-Triassic Boundary Based on GEOCARB. Open Geosci. 10: 441–451.

 

 

Modelos Complejos en Ciencias Naturales y Sociales

Este post es continuación de la entrada La evolución de la complejidad, donde discutimos algunas de las aplicaciones que se hicieron del paradigma de los sistemas auto-organizativos en distintas ciencias. En este artículo, publicado hace unos años, generalizamos el concepto de proceso autoorganizativo del siguiente modo: es un proceso que tiene lugar (i) dentro de un sistema abierto constituído por muchas partes o agentes constituyentes que interaccionan; (ii) tales constituyentes intercambian flujos de energía, materiales y señales; (iii) tales intercambios son locales, pero a veces, por azar, y siempre que los intercambios tengan una intensidad suficiente, se sincronizan de tal modo que generan correlaciones entre subsistemas muy lejanos («organización», aumento de orden estructural); (iv) tales correlaciones producen propiedades macroscópicas observables («estructuras» nuevas o «emergencias» nuevas), (v) algunas de las cuales facilitan probabilísticamente el mantenimiento del conjunto de intercambios que ha sido capaz de producir la estructura recienaparecida («auto-organización», «automantenimiento», «autocatálisis», «autocircumscripción»).

Discutimos algunas herramientas matemáticas útiles para modelar los procesos de auto-organización y auto-mantenimiento que se suelen dar en los sistemas complejos. Algunas de esas herramientas son la ecuación master y la ecuación de Fokker-Planck. El artículo puede descargarse en el siguiente link:

empiria_2

Resumen del libro “Deconstruyendo a Darwin- Los enigmas de la evolución a la luz de la nueva genética”, de Javier Sampedro

La evolución de las especies

Sampedro comenta que, además de la selección natural, hay otros mecanismos que producen evolución en las especies y pone el ejemplo de la endosimbiosis seriada de Lynn Margulis. Pero la teoría original de Margulis ha sido ligeramente modificada por Gupta, un genetista que ha demostrado que la mitad de los genes eucariotas proceden de una antigua arquea (o Thermoplasma), como dice Margulis, pero la otra mitad, en lugar de venir de una espiroqueta viene de una bacteria gram-negativa, a la que se añadieron luego las mitocondrias y eventualmente los cloroplastos.

Origen_eucariota

 

El código genético

Luego comienza a desarrollar el tema del código genético.Recordemos que, enrollada en forma de cromosomas, dentro del núcleo de todas las células eucariotas (células complejas que constituyen a todos los seres pluricelulares) hay una larguísima molécula orgánica en forma de doble hélice llamada ADN (ácido desoxi-ribonucleico). Esta doble cinta helicoidal plegada debe ser separada en sus dos hebras dentro del núcleo, tal como muestra la figura que sigue.

mcell-transcription-translation_eng_zoom

 

Todo comienza cuando una proteína llamada «factor de transcripción» reconoce un motivo estructural que le es afín dentro de la hebra doble de ADN y se une a ese motivo. Es el comienzo de una activación (o una represión) de la transcripción en una zona concreta del ADN. Esta zona donde se ensambla el o los complejos de transcripción se llama «promotor», y se localiza en el extremo 5′-terminal del gen (5′ presenta un grupo fosfato unido al carbono quinto del anillo de azúcar del nucleótido de ADN), antes del comienzo del gen. A ese factor de transcripción se unen sucesivamente distintas proteínas constituyendo un «complejo de preiniciación». Cuando a ese complejo se une la helicasa, las dos cadenas de ADN empiezan a separarse en ese sitio, pues ésta proteína rompe los puentes de hidrógeno que unen las bases nitrogenadas utilizando energía del ATP celular. Se abre entonces un hueco ó «caja TATA» donde puede entrar una molécula de ARN polimerasa, formándose entonces la «burbuja de transcripción» o «complejo abierto». La ARN polimerasa sintetiza una cadena de ARN-mensajero (ARNm) hecho con nucleo-bases o «letras», y que se corresponde, letra por letra, con las letras (o nucleo-bases) contenidas en el gen de ADN.

El código de dicha correspondencia se muestra en la figura siguiente.

ARN-ADN

Así, las moléculas o «letras» C, G, A, T de la sección de cadena de ADN (gen) que está siendo «leída» o «transcrita», son convertidas en C, G, A, U, respectivamente, en la cadena de ARNm resultante. Todo el proceso se describe en mayor detalle en la Wikipedia (Transcripción genética).

El ARNm así formado atraviesa la membrana nuclear y, ya en el citoplasma celular, cataliza la formación de un polipéptido, o proteína construída a base de aminoácidos. Cada secuencia de tres letras de nucleótidos de ARNm corresponde a un aminoácido en específico o a un codón de terminación. El código de esta traducción final a aminoácidos se muestra en la siguiente figura.

Código Genético

Fig. Combinaciones de tres bases que codifican la construcción de los veinte aminoácidos codificados genéticamente: alanina, arginina, asparagina, aspartato, cisteína, fenilalanina, glicina, glutamato, glutamina, histidina, isoleucina, leucina, lisina, metionina, prolina, serina, tirosina, treonina, triptófano y valina.

Sampedro analiza el misterio de la existencia de intrones, o secuencias de letras que no valen para nada en el genoma, y el laborioso splicing que tienen que hacer todas las células eucariotas para eliminar tal información inútil de la copia (ARNm) para luego poder construir una proteína funcional.

Spicing Pre-mRNA_to_mRNA

Fig. Eliminación de intrones en el procesamiento del pre-mRNA para obtener el RNA mensajero final, sin intrones. La región 5′ UTR  («5′ untranslated region» es una región del RNA que está justo antes de la secuencia de iniciación, normalmente «AUG». La región 3′ UTR es la región que sigue a la secuencia de «final de traducción»,  normalmente «UAG», «UAA» o «UGA».

 

Las bases genéticas de la evolución

Algunos han sugerido que los intrones dan a la célula “evolucionabilidad”. Los exones (segmentos entre intrones) pueden codificar según Sampedro “unidades funcionales” dentro de la proteína, por lo que el barajarlos y volverlos a ensamblar es un ensayo interesante para la evolución, pues no es lo mismo mezclar entre sí genes al azar (cuyo resultado es casi seguro un desastre) que bloques que tienen funciones (cuyo resultado puede ser una emergencia inútil o imposible, pero también una función nueva). Y esa “barajabilidad” es la que facilitan los intrones, haciendo a las células que los tienen más flexibles o adaptables rápidamente a los nuevos entornos, lo cual viene muy bien en principio tras las grandes catástrofes geológicas,   y la Tierra ha tenido bastantes, tres de las más grandes las glaciaciones que tuvieron lugar en el Precámbrico, dos de las cuales pudieron haber convertido a la Tierra en una “bola de hielo”, justo antes de la explosión cámbrica que generó las principales estructuras pluricelulares de las que evolucionaron los reinos de seres vivos que hoy conocemos (protistas, hongos, animales y plantas).

fauna-brugess shale

Fig. Algunos de los taxones cámbricos reconstruidos a partir de los fósiles de Burgess-Shale, en Canadá. El número 15 corresponde a Pikaia, el posible antecesor de todos los cordados, esto es, nuestro más lejano abuelo. Imagen tomada de http://evolucionbiologica-apuntes.blogspot.com.es/2015/02/es-la-explosion-cambrica-un-fraude.html

Lo que no casa del todo en esta explicación es que el agregado molecular que hace el splicing, el spliceosoma, es muy complejo (unas 100 proteínas y seis moléculas de ARN), y muy parecido en todos los eucariotas, y por ello debió de inventarse antes de la ramificación cámbrica, esto es, hace unos 750 millones de años o algo así. Pero ningún procariota conocido de los que pudieron haberse ensamblado en la endosimbiosis que formó la primera eucariota tiene nada parecido a un spliceosoma.

Lo que sí tienen las bacterias son moléculas de ARN que catalizan la escisión de los intrones, que ellas también tienen. Estos ARN podrían haber pasado a la molécula posterior del spliceosoma. Habría que suponer que el resto de la gran proteína del spliceosoma no sirve para gran cosa.

Un problema aún mayor es el siguiente. El proceso de lectura del ADN en el núcleo por los ARN-mensajeros y la traducción de este código mensajero a una proteína en el citoplasma requiere varias máquinas multiproteicas exquisitamente acopladas en todos los eucariotas: una para iniciar la transcripción de ADN a ARN, otra para elongar la creciente molécula de ARN, otra para finalizar la elongación; en paralelo, otras sellan el extremo inicial del ARN, realizan el splicing, y añaden una etiqueta (AAAA…) de muchas adenosinas en el extremo final, para estabilizar al ARNm. Otras exportan el ARNm, liberado de intrones y acicalado en sus extremos, fuera del núcleo, allí otra (el ribosoma) lo traduce en aminoácidos alineados, y éstos se pliegan unos sobre otros bajo fuerzas de atracción y repulsión, adoptando la proteína su forma funcional, que le permite ensamblarse con moléculas específicas y catalizar reacciones químicas concretas en el citoplasma. El plegamiento obedece a: (i) las fuerzas electrostáticas entre las partes ionizadas de los aminoácidos (el pH intracelular ioniza ciertas cadenas laterales de los aminoácidos); (ii) a enlaces de hidrógeno entre cadenas laterales hidroxilo o amino; (iii) a interacciones de van der Waals; y (iv) a las partes hidrofóbicas de los aminoácidos, que buscan el interior de la proteína.

Sin embargo, estas máquinas multiproteicas que fabrican las proteinas funcionales mantienen contactos muy intensos unas con las otras, no actúan independientemente. Y el problema es que la máquina del splicing (el spliceosoma) está en el mismísimo centro de esa compleja red de relaciones entre todas las máquinas. No parece provenir de una modesta chapuza añadida secundariamente, ni de un accidente. Así que su aparición no puede provenir de una secuencia gradual (darwinista o de selección gradual). Debió ser inventado de una vez sin formas transitorias obvias.

Hay otro misterio interesante en esa endosimbiosis original entre archea y bacteria. Y es que hay 2136 genes fundamentales en las células eucariotas, que debieron proceder de los que poseía aquella primera simbiosis. Pero de ellos, 1789 proceden de una bacteria o una arquea, pero hay 347 que no tienen equivalente en ninguna bacteria ni arquea conocida y que, por tanto,  podría proceder de una tercera célula, que se ha venido en llamar un “cronocito”.

Lo curioso es que los genes que aportó la bacteria se encargan esencialmente del metabolismo, los que aportó la archea se encargan esencialmente del procesamiento y manipulación de la información genética, y estos 347 genes adicionales se encargan muy específicamente de la endocitosis (fagocitación) (91), la transducción, o comunicación de mensajes exteriores desde la membrana hacia el núcleo (108), y del sistema de puertas que comunican al núcleo con el citoplasma (47), y hay 101 genes restantes cuya función aún se desconoce. Pero estas tres funciones son la “marca de fábrica” de las eucariotas: ninguna procariota los tiene. Hay algo fundamental que se nos escapa, dice Sampedro. Lo más fácil es pensar que hubo una tercera célula, el cronocito, que aportó la “eucariotez”. Aunque no se ha descubierto ninguna célula moderna que pueda descender de ese supuesto cronocito, hay especies de bacterias, como Pirellula (por cierto, de las más arcaicas), que no tiene paredes celulares típicas de bacterias, que se reproduce por gemación (como muchas eucariotas) y que maneja grasas (ácido palmítico, oleico y palmitoleico) típicos de los eucariotas. Y para colmo, guarda su ADN en una estructura parecida a un núcleo, por lo que pudo necesitar genes para la comunicación entre el núcleo y el resto del citoplasma.

Luego Sampedro muestra que en las células las proteínas celulares que forman parte de una máquina multiproteica son prácticamente todas. Los 1400 genes analizados de la levadura de la cerveza (una tercera parte de su genoma) están constituyendo 232 máquinas celulares, la más pequeña tiene dos proteínas y la mayor 83, y algunas forman parte de varias máquinas. La mayoría de tales máquinas existen también en nuestra especie, y en las demás. Las máquinas se han conservado, pero sólo la mitad de las proteínas son exactamente las mismas en nuestra especie que en la levadura. La evolución parece haber jugado con las componentes respetando la estructura funcional. Ello puede obedecer en parte a que una proteína está implicada  en tantas interacciones con otras que no le suele quedar sitio en su superficie para añadir nuevas relaciones, pero siempre es posible sustituir un componente (proteína) por otro.

Las graduales sustituciones de letras en el ADN que han hecho las delicias de los darwinistas ortodoxos parecen ahora menos relevantes que nunca para generar novedades evolutivas, dado que los cambios en una proteína suelen ser compensados con cambios en las proteínas con las que interacciona de manera que se mantengan las funciones básicas de la máquina. Lo esencial de la explosión cámbrica fueron pues esas 232 máquinas que la endosimbiosis de (tres?) células aportó a la futura organización eucariota, y no los pequeños cambios de letras posteriores.

El equilibrio puntuado

Luego Sampedro describe la teoría del equilibrio puntuado de Gould y le da la razón, pues eso es lo que se observa en el registro fósil: las especies duran varios millones de años y están casi todo ese tiempo sin que la selección natural provoque cambios significativos, pero se modifican al principio de su aparición en tiempos del orden de unas decenas de miles de años. Por tanto, el tiempo eficaz a disposición de la selección natural en el que supuestamente ha modificado a una población aislada genéticamente y creado una especie nueva, sería únicamente esos momentos de rápida divergencia observados en el registro fósil. Pero tales momentos suman en total entre 40 y 400 millones de años en lugar de los 3000 millones de años o más que tiene la vida sobre el planeta; y suman sólo unos 600 mil años si contamos desde el Cámbrico hasta la aparición del Homo Sapiens. Gould consideró que hacía falta un mecanismo más rápido que la especiación alopátrica del neodarwinismo para explicar tales saltos y propuso que podía haber “reorganizaciones rápidas del genoma”, pero se le echó encima todo el establishment neodarwinista y se retractó oficialmente (aunque no íntimamente), en parte para que sus disensiones no dieran argumentos a los creacionistas. Para Gould, la clave macroevolutiva es considerar a las especies como unidades de selección de nivel superior, que tienden a amortiguar los cambios graduales de los genomas individuales, salvo cuando hay una reestructuración general de tales genomas, inducida probablemente por grandes cambios ambientales.

teoria-sintetica-vs-eq-puntuado

Fig. La evolución observada de las especies a lo largo del tiempo se parece más al esquema de la derecha que al de la izquierda. Imagen tomada de https://laevolucionsencilla.wordpress.com/2013/02/23/capitulo-1-bis-profundizamos-en-la-evolucion-especiacion-como-resultado-de-la-evolucion/

 

El misterio del origen de los genes Hox

Luego Sampedro analiza los animales precursores de la explosión cámbrica, que se observan en estratos hasta 13 millones antes de la misma, consistentes en surcos de animales que reptaban, y de fósiles de tubos y conos.

Los primeros animales, conocidos como fauna de Ediacara, debieron ser las esponjas, anémonas, hidras y medusas. Y luego aparece en unas pocas decenas de millones de años la simetría bilateral de los gusanos planos, y todas las formas de la explosión cámbrica (artrópodos, cordados, etc).

life-in-the-ediacaran-sea

Fig. Recreación de algunos taxones de la fauna de Ediacara. Hay un par de formas identificadas que podrían haber tenido ya entonces simetría bilateral. La imagen es de  https://geofrik.com/2014/01/23/fauna-de-ediacara/

Luego explica Sampedro el descubrimiento de los genes Hox y sus espectaculares consecuencias, que en sus inicios se produjo en el grupo de García Bellido, del Centro de Investigaciones Biológicas (CSIC) de Madrid.

Parece ser que hay unos 8 a 10 genes Hox que asignan a cada parte del cuerpo, de la boca al ano, una secuencia de desarrollo embrionario, mediante el control de un árbol de genes “ejecutores” que especializan cada segmento. Son comunes a todos los animales, de modo que si una mosca pierde su gen Hox “Deformed”, que especializa una parte de su cabeza, se le puede proporcionar el gen Hox correspondiente humano, y entonces es capaz de generar esa parte de su cabeza (de mosca, no de humano). Los genes Hox trabajan con las máquinas genéticas subordinadas especializadas en formas básicas que tienen a su disposición en el metabolismo, así que cuando están en un metabolismo de mosca, fabrican las partes de una mosca, pero cuando esos mismos genes se meten en un metabolismo de ratón, fabrican un ratón. Tal organización, al ser común a todos los animales, debió de estar en aquel antecesor común de todos los animales de la explosión cámbrica, un ser desconocido al que se ha llamado Urbilateria.

Complejo homeótico de Drosophila melanogaster

Fig. Complejo homeótico de la mosca del vinagre, Drosophila Melanogaster. Tomado de http://ramanujan25449.blogspot.com.es/2013/06/escultores-de-la-forma-corporal.html

 

Los animales somos en gran medida metaméricos: compuestos de metámeros, o estructuras que se repiten a lo largo del cuerpo: vértebras, costillas, músculos, nervios, y tales metámeros son fabricados por unos pocos centenares de genes específicos, con variaciones entre cada especie cuando el metámero es un poco especial (no se construye igual el ojo de un mamífero que el ojo compuesto de un insecto, aunque el comienzo es común, y por tanto hay bastantes genes comunes en ambas construcciones). Los genes Hox actúan sobre tales máquinas genéticas metaméricas.

El plan corporal de los vertebrados

Fig. Morfogénesis de un vertebrado. Imagen tomada de http://ramanujan25449.blogspot.com.es/2013/06/escultores-de-la-forma-corporal.html

Urbilateria también debió inventar las tres capas germinales de todos los embriones actuales (ectodermo, mesodermo, endodermo), la simetría bilateral, un cuerpo dividido al menos en cabeza, tronco y abdomen, una cuerda nerviosa central, un sistema digestivo que atraviesa el cuerpo de boca a ano, y las máquinas genéticas para especificar estructuras como las extremidades, los ojos, y los órganos internos. Debía ser ya pluricelular, evolucionado desde un antiguo diploblasto (con ectodermo y endodermo) los cuales no tenían aún simetría bilateral como Urbilateria, y todo en unos pocos millones de años antes de la explosión cámbrica. El gran salto debió ser entre los animales diploblásticos de simetría radial o sin simetría, y el primer animal bilateral, Urbilateria.

Origen según Simon Conway Morris

Figura tomada de la presentación «Y después de Darwin, ¿qué?», de José Aceituno (2010). https://es.slideshare.net/universidadpopularc3c/evolucion-ygenetica

¿De donde sacó Urbilateria los genes Hox que especializan su cuerpo bilateral por segmentos? De un diplobástico como la Hidra: La hidra tiene tres genes Hox. Uno fue probablemente el antecesor de “labial”, el primero de la fila (que define el segmento donde aparece la boca). Otro puede ser el antecesor de “proboscipedia” (el segundo de la fila) y otro el de “Abdominal-B”, el noveno o penúltimo. ¿Sus funciones? Al cortarle la cabeza a la Hidra, labial se activa muy rápidamente en las células cercanas al corte, luego se activa proboscipedia, y cuando el animal ya tiene cabeza, se activa Abdominal-B. Pero si se le corta el pie al animal, es también labial quien se activa cerca del corte, y los otros dos genes no hacen nada destacable.

Hox de la Hidra

Figura tomada de José Aceituno (2010).

El origen de los Hox se puede imaginar si tenemos en cuenta que son muy parecidos molecularmente unos a otros, hasta el punto de que se puede inferir que hubo un gen Hox original del que derivan Labial y Proboscipedia. Del precursor de labial se bifurcaron después Labial y el precursor de Abdominal-B. De éste, salió Abdominal-B y el precursor de Zen, y así sucesivamente, se puede rastrear por proximidad genética hasta el décimo gen Hox.

En los 600 millones de años posteriores, el Hox-4 del hombre por ejemplo ha acumulado mutaciones, pero sigue haciendo la misma función en cualquier animal, hasta en una mosca, y viceversa, el de una mosca funciona perfectamente en un cuerpo humano, pero un gen Hox-4 no hace lo mismo que el Hox-3.

Los genes realizadores tienen una parte codificadora, que fabrica la proteína o enzima metabólica, y  una parte reguladora, a la que se pegan, por ejemplo, las proteínas que vienen de genes Hox para activarlo o desactivarlo. La evolución pues parece haber respetado, no sólo a los genes Hox en lo esencial, sino también a buena parte de las zonas reguladoras de los cientos de genes realizadores controlados por ellos. Cuando un dinosaurio empezó a transformar sus patas delanteras en alas, debieron de alterarse las zonas codificadoras de los genes realizadores que construyen los apéndices, pero probablemente no se alteraron apenas las zonas reguladoras de esos mismos genes.

Por otra parte, una mutación de un gen hox, como Antennapedia, puede crear una estructura corporal diferente a la habitual en algunos sitios, como la aparición de patas en el lugar habitual de las antenas de una mosca (figura siguiente). Esta mutación parece que permite al gen Antennnapedia expresarse no sólo en el segundo segmento del animal, sino también en el primero, donde va la cabeza.

1280px-Antennapedia2

Figura. Mutación Antennapedia de Drosophila melanogaster

Sobre el origen de los genes Hox en Urbilateria, probablemente tuvieron lugar cuatro o cinco  duplicaciones sucesivas de un gen Hox original de una Hidra primitiva que empezaron a actuar todos ellos sobre los mismos genes realizadores, que empiezan a obedecer, tras cada duplicación, a un nuevo gen Hox controlador además de a los previos. Aún hoy en día, los genes realizadores sobre los que actúan los diez genes Hox en un animal dado son casi los mismos. Es la activación de los realizadores en diferentes grados y en diferentes tiempos lo que genera una estructura u otra a partir de ese mismo conjunto de genes realizadores. Pero, si los diez genes Hox han surgido por copia simple duplicada de uno inicial, ¿por qué el cuerpo no es una ristra de estructuras repetitivas de boca a ano? ¿cómo se generaron los animales tan diversos de la explosión cámbrica? Incluso todavía hoy, los diez genes Hox son muy parecidos unos a otros. Las principales diferencias fucionales que hoy se observan entre los genes Hox es su mayor o menor afinidad por los (mismos) genes realizadores. Eso también se demostró en el laboratorio de Bellido en Madrid. Los genes Hox están alineados en la cinta genética en el mismo orden en que están los segmentos del cuerpo sobre los que actúan. Pues bien, la proteína reguladora producida por el gen Hox más posterior (que especializa al segmento más posterior del cuerpo) tiene siempre mayor afinidad por los genes realizadores que la que tiene el gen Hox inmediatamente anterior, si ambos actuaran al mismo tiempo en la misma zona corporal. O sea que el gen Hox “zen” (posición 3) cuando se bifurcó primitivamente, dio lugar a los genes Hox de las posiciones 4 y 5, que tienen una afinidad creciente, y así sucesivamente, hacia atrás. Una modificación de una sola letra del ADN podría dar lugar a una variación de la afinidad (facilidad del anclaje de la proteína en la parte controladora del gen realizador). El que las mutaciones que aumentaron la afinidad fueran las que han sobrevivido tiene un sabor a “selección de tipo Darwiniano”.

¿Cómo pueden esos genes repetidos, con afinidades crecientes por sus realizadores, generar algo distinto a una aburrida lombriz cilíndrica? No todo lo que vino con la explosión Cámbrica eran aburridas lombrices segmentadas. Es difícil saberlo, pero un mecanismo podría ser el siguiente: supongamos que hubiera una proteína (“BG”) en el metabolismo de las células que compitiera con las proteínas reguladoras de los genes Hox por sus mismos sitios reguladores en todos los cientos de genes realizadores (el razonamiento es análogo si hubiera varias proteínas BG). La proteína BG bloquearía el receptor o parte reguladora del gen, evitando así que las verdaderas proteínas Hox pudieran anclarse, con lo que el gen realizador permanecería inactivo. En esa situación, cuanto más anterior es el gen Hox que está actuando en una zona del cuerpo, más genes realizadores permanecen inactivos, pues están siendo inactivados por la proteína BG. Y una distinta distribución de genes realizadores activos en distintas partes del cuerpo implica la aparición de estructuras diferentes, aunque los genes Hox sean casi los mismos, los genes realizadores sean los mismos y lo único que varíe sea la afinidad de la proteína reguladora producida por cada gen Hox.

Esa proteína competidora de las de los genes Hox se ha observado, en Drosophila se llama “extradenticles”, y se parece mucho a ésta en otros animales. Hay distintas maneras de activar ordenadamente los genes Hox de un animal a lo largo de su cuerpo. Drosophila lo hace creando un gradiente de concentración en una proteína reguladora llamada hunchback.

Luego Sampedro estudia las varias estructuras oculares de los animales como ejemplos de productos de genes realizadores. Al parecer todos los genes realizadores de un ojo en cualquier animal tienen una parte compartida, lo cual podría ser coherente con el modelo que emplean los embriólogos evolutivos para explicar el origen del ojo: se construye inicialmente una capa de células fotosensibles, y se la conecta por detrás con terminaciones nerviosas. Luego esa capa se curva para mejorar la información sobre la dirección de donde vienen las luces intensas y las ausencias de luz, la curvatura crece para aumentar el campo de direcciones, hasta hacerse cóncava; la apertura de la concavidad, protegida por células epiteliales, aumenta de densidad creando rudimento de imágenes por el efecto lente; finalmente, la lente delantera se especializa.

Stages_in_the_evolution_of_the_eye.png

Fases en la evolución del ojo. (a) Sitio pigmentado. (b) Simple cúmulo de pigmentos.
(c) Una cavidad óptica, como la de los haliótidos. (d) Ojo complejo con lente, como en las caracolas y los pulpos. Tomado de https://es.wikipedia.org/wiki/Complejidad_irreducible

 

Pero la evidencia genética es más compleja que eso. De nuevo, no sólo parece haber selección gradual darwiniana como el modelo anterior sugiere: hay un gen (“eyeless”) con una homeobox, como los genes Hox, que controla toda la secuencia de construcción de un ojo completo controlando a centenares de genes realizadores. Cuando se activa en un lugar corporal extraño, genera un ojo parcialmente funcional en ese lugar.  El gen eyeless humano o del ratón es capaz de generar ojos en una mosca (ojos de mosca, no de humano ni de ratón), lo cual sugiere que su función se ha mantenido constante desde tiempos de Urbilateria, al igual que sus redes realizadoras asociadas. Se ha comprobado experimentalmente cómo eyeless comienza activando la conversión de células de piel en células de retina, luego activa al gen hedgehog, cuya proteína sale de la célula y activa a las células vecinas para que se conviertan en neuronas también y que activen nuevos genes hedgehog en ellas. El proceso crece como una onda desde una célula inicial superficial, hacia dentro y hacia los lados, hasta que se ha formado una retina completa conectada con nervios. Y este primer proceso ocurre igual en todos los animales, tanto los que construirán ojos humanos como los que construirán ojos compuestos. Los cristalinos, omatidios y otros dispositivos ya son invenciones evolutivas posteriores que se han desarrollado independientemente pero a partir de una misma estructura inicial, constante durante 600 millones de años. La misma estructura básica genética inicial se observa en la construcción de una pata de insecto y de una pata de un mamífero, basados en “genes de polaridad segmental” y otras estructuras genéticas comunes. Sólo los detalles finales divergen. Pero en esos detalles, por ejemplo, la diferenciación de los dedos de una mano, se usan también estructuras comunes, como los propios genes Hox, pero aplicados al eje transversal de la mano, para diferenciar segmentos en la misma cada uno con un apéndice (dedo). Ese uso (o no) de las mismas estructuras compartidas en diferentes partes del cuerpo, quizás junto con pequeños detalles genéticos añadidos, permiten explicar la mayor parte de la versatilidad que se observa en los animales. Hay otras estructuras genéticas compartidas, como la que establece el eje dorso-ventral (sugiriendo que Urbilateria tenía ya espalda y vientre).

Fila Hox como módulo genético en la evolución

Figura tomada de José Aceituno (2010).

La evolución modular parece pues tan importante como la selección natural. Módulos genéticos previos plenamente funcionales se barajan o se duplican y se reutilizan de otra manera, por azar quizás, y en muchas ocasiones se genera una emergencia que prospera y es seleccionable de forma darwiniana. Además de los módulos comentados hasta ahora, hay otros como el gen que controla la polaridad segmental que controla a otros muchos, y cuyo efecto es definir en una célula o en conjuntos de células ejes direccionales, como “anterior-posterior”.

Como resume muy bien José Aceituno (2010):  «Las principales innovaciones biológicas de la evolución no parecen haber seguido un proceso acumulativo de lentas mejoras por mutaciones de genes aislados. Tienen una naturaleza modular: Han consistido en la reutilización de módulos genéticos completos y previamente funcionales. Cada gen selector y su cadena de genes realizadores es un módulo con el que la evolución puede ensayar. La naturaleza es perezosa. La evolución prefiere plagiar, duplicar, reutilizar y recombinar unidades funcionales mucho más complejas que el solitario gen egoísta de las teorías ortodoxas.»

La evolución humana

Sampedro acaba repasando la evolución humana. Lo que más me ha llamado la atención de su exposición es que los antecesores de Neanderthal se cruzaron fértilmente con los Erectus; y los Homo Sapiens que invadieron Europa en la oleada de hace 50.000 años se cruzaron fértilmente con los Neanderthales, puesto que hay genes de las dos especies en el genoma humano. Por ello, no tiene mucho sentido seguir considerando a Erectus y a Antecessor como especies diferentes a Sapiens. Podrían ser razas humanas, aunque Erectus tenía un cerebro mucho menor, pero podía cruzarse con sapiens, o al menos con los sapiens arcaicos.

Homo-erectusHomo Antecessorhomo-sapiens-arcaico

Homo Erectus, Homo Antecessor y Homo Sapiens.

En los test de proximidad genética humana se detectan tres oleadas procedentes de Africa: una de hace 1,7 a 1,8 millones de años (los Homo Erectus), que se extendió por Eurasia con sus técnicas de tallar piedras; otra entre 700 mil y 800 mil años (Homo Antecessor), propaga un tamaño de cerebro ampliado y una técnica refinada de tallar piedras (Achelense); y la tercera oleada, hace 100 mil años (Homo Sapiens). Las tres habría que entenderlas como variedades sucesivas de Homo Erectus.

Cavalli-Sforza y el grupo de la Universidad de Stanford han reconstruido genéticamente la historia de la tercera oleada. Unos 10 mil hombres, ya con la anatomía actual, salieron de Africa hace 100 mil años, en la tercera oleada, por Egipto, Suez y Oriente Próximo. La mayoría se dirigió hacia el Este, hacia el sur de Asia, alimentándose de frutos silvestres y caza, y viviendo en cuevas y en campamentos. Una parte de ellos se quedó establemente en las praderas de caza que había entonces entre Paquistán e India (el actual desierto del Thar). Cuando empezó a secarse el Thar, en el máximo glaciar, aquel grupo regresó hacia el oeste y llegaron hace 40 mil años a Europa. La mitad de los europeos modernos son descendientes directos de ellos, homogéneamente entre Escandinavia y Andalucía. Los mismos genes pueden encontrarse aún en algunos ciudadanos de Pakistán y Norte de India. En Europa conocieron a esos otros homínidos llamados Neandertales, que les debieron parecer bastante bestiales y rudimentarios, aunque de su propia especie, dado que copularon fructíferamente con ellos o ellas. Las innovaciones culturales, técnicas y artísticas que trajeron los hombres de la tercera oleada se produjeron también en norte de India y los demás sitios por donde pasaron, igual que en Europa, pero este continente está mucho más estudiado arqueológicamente.

La mitad de los europeos que no procede de esa tercera oleada procede de dos más tardías: una de hace 20 mil años, procedente de Oriente Próximo, que trajo las figuras de Venus prehistóricas, el arpón y la aguja de coser (cultura Gravetiense). El 30% de los europeos descienden de ellos.

El 20% restante desciende de la oleada que entró hace 10 mil años desde Oriente Medio, extendiéndose por el Mediterráneo de este a oeste: los pueblos neolíticos que traían la agricultura del trigo, la cebada, el guisante y el lino, y las primeras ciudades. Luego, se extendió hacia el norte hasta Escandinavia. Esta migración hizo que los pueblos actuales del Mediterráneo y de Oriente Próximo sean muy próximos genéticamente. En cambio, los habitantes del norte de Europa tienen relativamente más carga genética de las dos oleadas anteriores.

Aldea Neolítica

Fig. Vida en un poblado neolítico. Imagen tomada de: https://www.slideshare.net/sajomoes/abstraccin-estructura-de-las-aldeas-19326691

Luego Sampedro analiza la consciencia humana y su posible origen. La consciencia, dice, parece estar hecha de escenas o estados de consciencia unitarios. Y expone la teoría de Edelman y Tononi. De acuerdo con ella, la corteza cerebral está dividida en áreas especializadas: visuales, auditivas, olfativas, somatosensoriales, asociativas, implicadas en toma de decisiones, operaciones aritméticas, identificación y extrapolación del movimiento, etc. Parece haber cientos, hasta para procesos muy específicos, como reconocer disonancias tonales. Cada zona de estas genera un aspecto o componente de la consciencia que, si falta por culpa de una enfermedad neuronal, puede hacer que, por ejemplo, el sujeto empiece a ver las cosas en blanco y negro, y que también sus recuerdos se vuelvan de repente todos en blanco y negro. La “rojez” parece ser una de las muchas componentes de la consciencia. Pero cuando somos conscientes de una escena (la vemos, la recordamos o la imaginamos) no somos conscientes de cada uno de sus elementos componentes, sino que se nos aparece integrada como un todo, como un estado indivisible. Edelman y Tononi opinan que el cerebro establece redes de interacciones mutuas y simultáneas entre todas las áreas especializadas de ese tipo que duran unos 150 milisegundos antes de dejar paso a otras configuraciones distintas sucesivas en la red de interacción. De este modo, nuestra vida consciente consiste en una especie de película de unas seis escenas cada segundo. El tiempo de reacción para tomar una decisión, o para retirar un dedo de una llama es mucho más rápido que 150 ms.

Areas funcionales del cerebro

Las conexiones entre los “especialistas” del cortex se refuerzan cuando sus distintos componentes tienden a darse juntos en la experiencia, en el recuerdo o en la imaginación. Meses después, la aparición de uno de los elementos aislados de esa escena (la imagen de un violinista, un olor a madera…) tira de todas las demás asociadas y la red reaparece completa como un concepto. A un concepto se le puede poner nombre (como “nostalgia”, “mañana soleada”, “bosque húmedo”) o no hacerlo, pero la red estable de asociaciones automáticas está activa en el cerebro, etiquetada verbalmente o no. Y la capacidad verbal que evolucionó en el área de Broca parece haber traído una capacidad específica nueva que consiste en rastrear el cerebro buscando asociaciones estables (conceptos brutos activos) y asociarles un nombre.

Los animales de comportamiento rígido, como los reptiles, puede que no tengan consciencia en este sentido de conjuntos estables de asociaciones formadas de la experiencia, o quizás habría que decir mejor que estas asociaciones son muy básicas. Pero la aparición de cierta flexibilidad y variedad en esas asociaciones  tiene un sentido adaptativo claro en medio de un mundo de cazadores, presas y cambios ambientales típico de un animal. El aumento de la complejidad de la consciencia primaria (aumento del número de conexiones neuronales “de reentrada” y número de especialistas del cortex) pudo surgir gradualmente por selección natural, y así lo creen Edelman y Tononi. Los homínidos seguramente evolucionaron hacia ese tipo de consciencia primaria compleja. Y entonces es cuando aparece en Homo Erectus (hoy Sapiens) una especialización neural nueva que consiste en etiquetar con palabras las escenas conscientes primarias. Así lo creen, no sólo estos dos autores, sino también Daniel Dennett.

Según Sampedro, la manera de actuar de ese nuevo especialista del cortex situado en el área de Broca es generando asociaciones entre escenas y palabras, y ordenando las palabras en estructuras sintácticas universales tales como las que Chomsky ha esbozado. Y con este equipaje nacemos, de ahí la facilidad con la que todos los niños aprenden a hablar.

Pero ¿cómo pudo la selección natural darwiniana conducir a una estructura neuronal tan peculiar?

Según Sampedro, que se basa en la teoría del lenguaje como explorador de Dennett, Jackdendorff y otros, los Australopithecus ya disponían de un sistema complejo para formar escenas unitarias conscientes, gracias a la interacción paralela de especialistas del cortex. Los conceptos brutos ya existían pues antes que las palabras (“moverse hacia aquí”, “estar delante”, etc.). Cuando el lenguaje apareció no lo hizo como el sistema formal abstracto actual, sino como un sistema explorador de esos conceptos o escenas conscientes previos, a los que comenzó a poner nombre: mío, tuyo, ir, venir, entrar, tomar, dar,… Estas primeras palabras son las que tienen unas raíces etimológicas más profundas y exhiben unas estructuras más irregulares, reflejo quizás de que se inventaron mucho antes de que el lenguaje fuera un sistema formal, lleno de regularidades. Las primeras palabras se limitaron a etiquetar conceptos anteriores al lenguaje, los más importantes, los que se generan en la consciencia primaria de un mono o de un homínido.

¿Pero cómo pudieron orientarse los genes hasta generar una estructura cerebral generadora de estructuras sintácticas ordenadas como la que produce el lenguaje en un niño actual? El surgimiento del lenguaje moderno parece haber sido muy rápido y el lamarckismo, que es el único mecanismo capaz de provocar evoluciones rápidas, está desacreditado. Sin embargo hay un mecanismo “lamarckiano” dentro del darwinismo más estricto que es el “efecto Baldwin”, que puede ser clave en esta evolución súbita.

El efecto Baldwin se basa en que aprender algo no es más que reforzar ciertas conexiones y debilitar otras. Y un dispositivo innato del cerebro no es más que una serie de conexiones sinápticas reforzadas o debilitadas desde el nacimiento. Si una estructura de conexiones y reforzamientos sinápticos del córtex capacita a un grupo para asociar conceptos con fonemas (gruñidos estables o palabras) esta estructura particular se vuelve objeto de la selección natural, porque el nuevo comportamiento social que posibilita es relevante para la supervivencia del individuo y del grupo. De manera que en cuanto una especialidad neuronal nueva permite un comportamiento diferente, esa estructura neural nueva se vuelve objeto de la selección darwiniana. Esta idea la formuló también Jacob hablando de la rápida evolución de la inteligencia humana, aunque él lo expresaba en términos de aumentos de la presión de selección de estructuras genéticas motivados por el ensayo de comportamientos sociales específicos.  Es la otra manera de describir el efecto Baldwin, y el argumento lo utilicé yo también en un artículo que escribí en colaboración hace años (García-Olivares y Esteban, 1989).

Los primeros gruñidos exploraron los estados de consciencia previos, y la posibilidad de comunicar gruñidos estables permitió sincronizaciones mucho más precisas del comportamiento grupal en relación con las amenazas y posibilidades del medio. Y esa mejora se seleccionó de forma darwiniana. Un estado de consciencia duran 150 ms, pero la palabra nos permite congelarlo, manipularlo, combinarlo con otro, recordar sus efectos, predecir las escenas que se derivarán en situaciones similares. Y permite comunicar a otros esas mismas posibilidades de asociación y deducción.

Según Sampedro, la evolución modular mediante duplicaciones probablemente estuvo detrás del súbito aumento de tamaño del cortex del Australopitecus. Pero lo que hace especial a los sistemas nerviosos es su capacidad de aprendizaje que permite el efecto Baldwin, que permite que lo aprendido se convierta al final en instinto innato. Como dice Sampedro, si hay un dispositivo biológico que huele a adaptación darwiniana por todos los poros, éste es precisamente la mente humana.

Sampedro termina el libro comentando el gran misterio del origen de la primera célula, de la que han derivado todas las células actualmente vivas. Todavía más misterioso que su origen es por qué no hay rastro de ninguna otra forma organizativa diferente a aquella primera célula. ¿Es que es un suceso extremadamente improbable y sólo se produjo una vez? ¿Es que la primera célula acabó con todas las demás formas de autoorganización alternativas a ella misma? Esto último no parece verosímil, ninguna especie ha acabado con todas las demás en la historia de la Vida. La aparición de la primera célula eucariota no hizo desaparecer a las procariotas. La aparición de Urbilateria y sus descendientes no hizo desaparecer a los metazoos de simetría radial.  ¿Y por qué no hay cientos o miles de formas de transición entre la materia inanimada y la vida, aunque sean sepultadas en los sedimentos precámbricos? ¿por qué no hay seres vivos con ADN dextrógiro, o con otras formas de organizar el código genético, o con formas más simples de replicación? Es como si la transición a la vida sólo hubiera ocurrido una vez en este planeta.

Panespermia

Sampedro comenta la teoría de Francis Crick de la panespermia dirigida como una posibilidad. Dos premios Nóbel, Francis Crick y, antes que él, Svante Arrhenius, fueron sus principales defensores. Aunque reconoce que es desplazar el problema a otro lugar y no responde al fondo de la cuestión. Si alguna forma de vida superior (o un proceso natural, como un meteorito procedente de restos de un cometa) trajo la primera célula a la Tierra, ¿cómo evolucionó la vida fuera de la Tierra? La única ventaja que tiene esa teoría es que permite imaginar un planeta o lugar donde las condiciones para el surgimiento de formas vivas diferentes fueran mucho más favorables y la aparición de la vida muy probable. En la Tierra las condiciones no parecen favorables a la aparición de formas vivas, dado que aparentemente sólo ocurrió una vez, mientras que en otros sitios quizás las condiciones hayan podido ser mucho más favorables y entendibles. Este es el razonamiento de Crick.

 

Referencias

Aceituno J. (2010). Evolución: Y después de Darwin, ¿qué? https://es.slideshare.net/universidadpopularc3c/evolucion-ygenetica

García-Olivares A., Esteban J., 1989. Sobre la estabilidad estructural del capitalismo. Revista internacional de sociología, Nº. 2, págs. 27-41. ISSN 0034-9712

Sampedro J. Deconstruyendo a Darwin- Los enigmas de la evolución a la luz de la nueva genética. Editorial Crítica, 2007.

La evolución de la complejidad

Esta publicación de hace algunos años puede ser útil para el lector interesado en los mecanismos que hacen surgir sistemas complejos, en la naturaleza y en los grupos humanos.

Se describe la crisis del paradigma determinista, que tuvo lugar entre mediados y finales del siglo XX debido a las aportaciones de Poincaré,  Von Foerster y otros investigadores en «cibernética», la Mecánica Cuántica, y las aportaciones en termodinámica del no-equilibrio de Ilya Prigogine. Este autor muestra que en sistemas atravesados por un flujo de energía suficientemente intenso, las interacciones entre las fuerzas termodinámicas y las fluctuaciones microscópicas azarosas generan estructuras disipativas que autoorganizan su estado en el espacio y en el tiempo. Herman Haken, y su escuela de la sinergética, sistematizaron las principales ideas de Prigogine. Un proceso de autoorganización exige la presencia de un flujo de energía que atraviesa el sistema y lo aleja del equilibrio termodinámico, muchas partes componentes en interacción, y la aparición de fluctuaciones microscópicas o perturbaciones externas aleatorias. La descripción matemática de estos procesos une los desarrollos de Prigogine en termodinámica lejos del equilibrio con la descripción que hace la matemática de las formas universales que tiene un sistema dinámico de desestabilizarse.

Hay dos formas principales en que un sistema puede desestabilizarse y pasar a un estado de mayor (o de menor) complejidad: (i) por cambio en los parámetros externos que controlan los flujos, fuerzas termodinámicas, o interacciones entre componentes (inestabilidad sinergética), o (ii) por inestabilidad estructural ante la aparición de nuevos componentes y/o intracciones. Esta última puede ser importante, sobre todo, en procesos evolutivos.

En el artículo que se linka se comentan algunas aplicaciones de estos formalismos, que fueron los primeros que se propusieron en la actual teoría de sistemas complejos, en campos como la química, ecología, biología, evolución, y las ciencias sociales.

Evolucion de la Complejidad_Empiria_1