La construcción colectiva del conocimiento científico y su divulgación

A mediados de marzo envié un artículo al blog “Revista 15-15-15” con un texto que continuaba la interesante discusión iniciada por Emilio Santiago Muiño en el mismo foro. Debido a los problemas de salud de uno de los editores, la publicación del artículo empezó a demorarse, por lo que opté por publicarlo en el blog de Autonomía y Bienvivir, donde salió a mediados de abril. Una semana después de la aparición de este artículo apareció en el blog “Revista 15-15-15” una réplica de Pedro Prieto y otra de Carlos de Castro, publicadas una detrás de otra en un mismo post en dicho foro. Me sorprendió la rapidez de la publicación de esta respuesta a mi artículo, en comparación con la lentitud (comprensible) del proceso de publicación de mi artículo original. Entendí algo mejor esta falta de imparcialidad editora al observar que los autores de la réplica son miembros del consejo de redacción de la “revista” y, además, los principales contribuidores a dicha “revista” con 13 y 11 artículos publicados en la misma, respectivamente.

En la mayoría de revistas científicas o profesionales los miembros del consejo de redacción hacen funciones de asesoría editorial, orientación de la línea editorial de la revista, promoción de la misma, revisión de artículos externos, planificación y gestión. Hay algunas que permiten publicar en la revista a los miembros del consejo de redacción, pero suelen exigir en esos casos que se respete un sistema de doble anonimato, para que los otros miembros del consejo de redacción o los revisores puedan evaluar la calidad del artículo sin conocer que el autor es un colega de la misma redacción; y suelen limitar el número de artículos escritos por miembros del consejo de redacción a un porcentaje del orden del 20% del total de artículos de la revista.

Cuando no se respetan esas políticas editoriales de calidad e imparcialidad ante los artículos recibidos, el foro no se suele llamar “revista”; hay otras calificaciones más apropiadas como “blog”, “foro de discusión”, “revista de la asociación X”, “grupo de presión” o “lobby” X, etc. Por eso he empezado denominando “blog” a la llamada “Revista 15-15-15”. No tengo nada contra los blogs, todo lo contrario, pero creo que no hay que confundir a la gente. Un foro digital donde los editores no sólo filtran los contenidos y la rapidez con la que aparecen, sino que ellos mismos publican sus propios artículos cuando quieren no es una revista; es un blog.

Pero volviendo al tema que nos trae, la respuesta de Pedro Prieto me parece mesurada, respetuosa y defendible. Él adopta en algunos casos perspectivas diferentes a las que yo adopto, y ambas posturas pueden ser defendidas y beneficiar al lector; por ello, no voy a añadir nada a sus comentarios. Por el contrario, la respuesta de Carlos de Castro me parece que no tiene prácticamente ninguna relación con lo que yo estoy argumentando o, si la tiene, denota una comprensión nula de cómo se producen los consensos científicos.

Como muchas personas, incluidas algunos científicos, no entienden cómo se generan los consensos colectivos que llamamos “verdades científicas”, creo que puede ser útil resumir aquí el libro Ciencia en acción, del prestigioso sociólogo de la ciencia Bruno Latour. En ese libro, Latour analiza empíricamente cómo se generan tales acuerdos colectivos. El lector interesado puede encontrar también información útil en el resumen de la sociología del conocimiento, y de la sociología del conocimiento científico contemporáneo que publicamos en otro lugar.

La diferencia entre ciencia en construcción versus ciencia establecida

Latour nota que hay en realidad dos ciencias, o fases cualitativamente diferentes del proceso científico, y que se dicen cosas diferentes en cada fase. Las dos fases son: la ciencia ya sistematizada y la ciencia que crea nuevos constructos teóricos. La distinción procede de Reichenbach, quien denominó a las dos fases contexto de justificación y contexto de descubrimiento, respectivamente.

Dos caras de la ciencia

Mientras que la Filosofía clásica de las ciencias se dedicó tradicionalmente a preguntarse qué rasgos de la ciencia, una vez sistematizada, la hacen tan diferente (y poderosa), Latour y otros sociólogos de la ciencia creen que es más fructífero preguntarse cómo construye la ciencia su conocimiento y su poder, y cómo una controversia científica se convierte en una verdad científica.

Para ello, analiza con perspectiva de antropólogo un caso concreto de producción de hechos científicos: la historia de las controversias que condujeron al “descubrimiento” de la hormona estimulante de la hormona del crecimiento.

En los comienzos de una controversia científica, los científicos contendientes describen el comportamiento de los hechos observados por ellos en una forma que sea ensamblable dentro de afirmaciones con una modalidad positiva; y tienden a describir los hechos observados por sus contendientes insertándolas en proposiciones con modalidad negativa.

Modalidades positivas: son enunciados que apartan a una afirmación de sus condiciones de producción, haciéndola suficientemente cerrada para inducir otras afirmaciones seguras. Modalidades negativas: son enunciados que llevan una afirmación en la dirección opuesta, hacia sus condiciones de producción y a explicar en detalle por qué es sólida o débil.

 

En las primeras fases de la controversia, Latour detecta afirmaciones de modalidad positiva procedentes del Dr. Schally y de su grupo, tales como las siguientes:

 

  1. “La estructura primaria de la hormona estimulante de la hormona del crecimiento (GHRH) es Valina-Histidina-Leucina-Serina-Alanina-ÁcidoGlutámico-ÁcidoGlutámico-Lisina-AcidoGlutámico-Alanina”.
  2. “Ahora que el Dr. Schally ha descubierto [la estructura primaria de la GHRH], es posible comenzar los estudios clínicos en hospital, para tratar ciertos casos de enanismo, dado que la GHRH activaría la hormona del crecimiento de la que carecen”.

Pero, tras su publicación en revistas científicas, aparecen afirmaciones de modalidad negativa procedentes de un grupo de trabajo diferente:

“El Dr. Schally ha afirmado durante años, en su laboratorio de Nueva Orleáns, que [la estructura primaria de la GHRH era Val-His-Leu-Ser-Ala-Glu-Glu-Lys-Glu-Ala]. Sin embargo, por alguna extraña coincidencia, esta estructura es la misma que la de la hemoglobina, un componente corriente de la sangre y un contaminante frecuente del extracto purificado de cerebro, si es manipulado por investigadores incompetentes”.

La forma de insertar el hecho en la proposición ya está sugiriendo a otros investigadores cómo deben valorar y utilizar la información del Dr. Schally: como un artefacto derivado de una manipulación incompetente, que debe ser ignorado.

La siguiente generación de artículos se vuelve entonces crítica, pues desequilibrará la controversia hacia un lado u otro, según los distintos autores encuentren que las afirmaciones así construidas por ambos grupos son o no útiles para reforzar las afirmaciones derivadas de su propio trabajo de hacer hablar a los hechos. Así, en un workshop sobre el tema, un tercer grupo de investigadores hace pública la siguiente interpretación:

“Si hay una “extraña coincidencia”, reside en el hecho de que la crítica al descubrimiento de la GHRH por el Dr. Schally ha sido realizada de nuevo por su viejo enemigo, el Dr. Guillemin… Respecto a la homonimia de estructura entre la hemoglobina y la GHRH, es algo factible que nada prueba en contra del descubrimiento”.

Sin embargo, un cuarto grupo responde:

“No es posible que la sangre transporte dos mensajes homónimos sin perturbar (el metabolismo). Se trata de una equivocación evidente de Schally; Guillemin siempre ha sido más fiable que él”.

A medida que la controversia se encarniza, entran en la discusión cuestiones de fisiología, personalidades de los agentes, métodos de trabajo y detalles del procedimiento de laboratorio de ambos. Schally defiende sus afirmaciones con una red de referencias a sus métodos, que a su vez referencian a otros trabajos: 35 artículos y 16 libros entre 1971 y 1978. O aceptas su afirmación, o te lees los artículos y los desmontas uno por uno.

Latour observa que en la producción científica de conocimiento hay una retórica, al igual que en las discusiones comunes, pero lo que hace la discusión científica es hablar en nombre de los procesos reales (construir hechos en forma linguística) y apoyar sus afirmaciones introduciendo muchos más recursos que la retórica común. Por ejemlo, apelaciones al comportamiento habitual de ciertos artefactos de observación y cómo ese comportamiento apoya la interpretación que estoy proponiendo.

En paralelo con la controversia científica, se va generando en los años siguientes una red de apoyos a ambas afirmaciones, por parte de profesionales (y stakeholders: partes interesadas) que están interesados en el posible uso de los nuevos hechos. Así, se produce la siguiente conversación en un hospital:

Médico-1 (como si resumiera un antiguo debate): “Teniendo en cuenta que existe una nueva cura del enanismo, ¿cómo puede usted decir eso?”

– Médico-2: “¿Una nueva cura? ¿Cómo lo sabe? Eso se lo ha inventado usted.”

“Lo he leído en una revista”.

“Habrá sido en un suplemento en color…”

“No, fue en The Times y el que lo escribía no era un periodista sino alguien con un doctorado”.

“¿Y eso qué importa? Probablemente era un físico en paro que no sabe diferenciar el RNA del DNA”.

“Pero referenciaba un artículo publicado en Nature por el premio Nobel Andrew Schally y seis colegas, un estudio financiado por el Nacional Institute of Health y la National Science Foundation, en el que se exponía cual era la secuencia de la hormona que estimula la hormona del crecimiento. ¿Eso no significa nada?”

– “¡Vaya! Debería haber empezado por ahí… Sí, me temo que algo tiene que significar”.

 

La fuerza de la razón o la disputa por encajarse en la red de afirmaciones y objetos científicos

 

Obsérvese que la situación retórica de la conversación anterior se invirtió cuando uno apoyó su afirmación en un Nature, un Nóbel, seis coautores y dos instituciones importantes.

Lo que Latour observa es que, una vez cerrada una controversia, la ciencia se suele desmarcar de la retórica y opone su “razón” a los argumentos de autoridad. Sin embargo, mientras la controversia no está cerrada, los científicos buscan todos los recursos prácticos posibles para construir una retórica suficientemente poderosa, de modo que un grupo de investigación pueda enrolar las prácticas y afirmaciones de otros grupos, y de las autoridades, dentro de sus propias afirmaciones.

Para triunfar, las afirmaciones que son coherentes con las propias prácticas deben ser vistas por los demás investigadores como ensamblables con sus propias afirmaciones. Esto genera una red no-subjetiva de prácticas de conocimiento que Lakoff caracteriza como un sistema de metáforas especialmente coherentes y consistentes entre sí, pero que incluye también afirmaciones sobre el comportamiento de objetos de observación y artefactos técnicos, que supuestamente se comportan como afirma nuestro discurso y no como afirman otros discursos.

La “fuerza de la razón” consiste en la estabilidad de la asociación de esa red de actantes (investigadores, artefactos y agentes interesados).

Si un investigador ve que una afirmación no encaja en la propia red de apoyos y por tanto la amenaza, trata de minar los apoyos de la afirmación. Un modo de hacerlo es relativizando las referencias o reinterpretándolas o cambiando el sentido de sus implicaciones. Ejemplo en una publicación de Guillemin:

“El concepto, hoy bien establecido, de control neurohumoral de las secrecciones adenohipofisiarias, indica la existencia de un factor hipotalámico estimulante de la hormona del crecimiento (GRF) (ref. 1) que tiene como contrapartida inhibitoria a la somatostatina (ref. 2). Hasta ahora el GRF hipotalámico no ha sido caracterizado de forma inequívoca, a pesar de algunas afirmaciones prematuras de lo contrario (ref. a Schally)”

“Se ha propuesto una estructura para el GRF (ref. a Schally); sin embargo, recientemente se ha mostrado (ref. a Veber et al.) que no se trataba de GHRH sino de un contaminante secundario, probablemente un fragmento de hemoglobina.”

Schally, sin embargo, responde en otra publicación suya: “D. F. Veber et al. han señalado la similitud entre la estructura de nuestro decapéptido y el radical amino de la cadena beta de la hemoglobina porcina (ref. 32). Queda aún por establecer en qué medida esta observación es significativa”.

Como puede observarse, la referencia de Veber no decía exactamente ni lo que ahora le hace decir Guillemin ni lo que le hace decir Schally. El propio Veber, al leer ambos artículos, debe de tener dudas sobre cuáles son las implicaciones reales de su observación.

Cuando la controversia es suficientemente aguda, los recursos anteriores pueden no ser suficientes para desanimar al grupo contrincante y casi cada palabra del artículo debe ser defendida mediante recursos externos.

Ejemplo de un artículo en que Guillemin argumenta estar haciéndolo mejor en su laboratorio que Schally:

“En la intervención quirúrgica se encontraron en el páncreas dos tumores separados (ref. 6); los tejidos tumorales fueron troceados e introducidos en nitrógeno líquido a los 2 o 5 minutos de la resección, con la intención de extraer de ellos GRF … El extracto de ambos tumores presentaba actividad estimulante de la hormona del crecimiento, con un volumen de elusión igual al del GRF hipotalámico (Kav = 0.43, donde Kav es la elusión constante) (ref. 8). El volumen de actividad del GRF (ref. 9) era insignificante en uno de los tumores (0.06 unidades de GRF por miligramo (peso neto)), pero extremadamente alto en el otro (1500 unidades de GRF por miligramo (peso neto)), 5000 veces más que en el hipotálamo de las ratas (ref. 8)”.

Aquí cada palabra está tan pensada como en una jugada de ajedrez. El párrafo se entiende mejor como respuesta anticipada a posibles objeciones de competidores escépticos:

¿Cómo podría estar usted haciéndolo mejor que Schally con cantidades tan ínfimas de su sustancia en el hipotálamo?

Encontramos tumores que producían grandes cantidades de la sustancia, lo cual permitía que su aislamiento fuera mucho más fácil de lo que lo era para Schally.

¿Está usted bromeando? Estos son tumores pancreáticos, y usted está buscando una sustancia hipotalámica ¡que se supone proviene del cerebro!

Muchas de las referencias indican que, a menudo, se encuentran sustancias del hipotálamo también en el páncreas, pero de todas maneras tienen el mismo volumen de elusión; esto no es decisivo, pero es una prueba bastante buena, suficiente en cualquier caso, para aceptar el tumor tal cual, con una actividad 5000 veces mayor que la hipotalámica. No se puede negar que es un regalo caído del cielo.

¡Un momento! ¿Cómo puede estar usted seguro de ese 5000?, ¿no puede sencillamente estar inventándose las cifras? ¿Se trata de peso en seco o peso húmedo? ¿De donde proviene el criterio?

Bien. En primer lugar se trata de peso en seco. Segundo, una unidad de GRF es la cantidad de una preparación purificada de GRF proveniente del hipotálamo de las ratas que produce una estimulación medio-máxima de la hormona del crecimiento en el bioensayo de monoestrato de células pituitarias. ¿Está usted satisfecho?

Tal vez, pero ¿cómo podemos estar seguros de que estos tumores no se han deteriorado después de la intervención quirúrgica?

Fueron troceados e introducidos en nitrógeno líquido entre 2 y 5 minutos después. ¿Dónde podría encontrarse mejor protección?

Schally utiliza argumentos igual de detallados en sus artículos, pero usando sólo informaciones que encajen con su red de afirmaciones, y no con la de Guillemin.

El desenlace de la controversia la produjo la siguiente generación de artículos, que mostraron al grupo de Schally, al de Guillemin y al de Veblen de qué forma encajaban sus afirmaciones con las del resto de investigadores y usuarios.

Latour analizó las publicaciones de todos los autores que citaron posteriormente a Veblen, y observó lo siguiente: todos toman el trabajo de Veblen como un hecho bien establecido, dicen que la hemoglobina y la GRHR tienen la misma estructura y usan este hecho para minar la pretensión de Schally de haber descubierto la GHRH, que ahora escriben entre comillas. 

Esto fue catastrófico para las afirmaciones de Schally, que se encontraron sin poder seguir ensamblándose con el resto de la literatura y con las prácticas médicas interesadas en la hormona.

A partir de ese momento, la línea de trabajo de Guillemin quedó libre para desarrollarse sin competidores importantes. Pero ¿Y si esto no es suficiente para creer a Guillemin? La ciencia no es sólo una retórica que busca ensamblarse con muchos apoyos. Tiene una segunda característica: Se incluye en los artículos y documentos al propio referente del que se habla, para no depender sólo de asociaciones humanas. El investigador se convierte en portavoz de la hormona.

Ejemplo en otra publicación de Guillemin: “La purificación final de este material mediante HPLC analítico de fase inversa produjo tres péptidos altamente purificados con actividad GRF (véase fig. 1)”.

Sigue una figura en la que se aprecia una curva con tres grandes picos y un pie de figura con un texto que explica cómo leer la figura:

“Purificación final del GRF mediante el HPLC de fase inversa. La columna (Ultraesfera C18), 25 por 0.4 cm, tamaño de partícula 5-(pu)m, fue eluida con un gradiente de acetonitrilo (—-) en ácido heptafluorobutírico al 0.5% (en volumen) a una velocidad de flujo de 0.6 mL/min. Se recogieron fracciones (2.4 mL) tal como se indica en la abcisa, y se usaron algunas porciones para bioensayos (ref. 7). Las barras verticales representan la cantidad de hormona del crecimiento segregada en el ensayo por cada fracción del efluente, expresada como porcentaje de la cantidad de hormona del crecimiento segregada por las células pituitarias que no recibieron tratamiento. AUFS, escala completa de unidades de absorción.”

La leyenda nos dice que los picos no son una mera retórica visual, sino el producto de un cromatógrafo líquido de alta presión, y se dan los parámetros de su funcionamiento. Estas inscripciones representan al referente objetivo o “parte más objetiva del referente”. Los detalles de funcionamiento y calibración del cromatógrafo son apoyados en referencias técnicas anteriores, que se ramifican hacia el pasado hasta alcanzar la física básica fundacional del campo técnico.

Si el disidente quiere seguir dudando, debe construir un laboratorio competidor o inspeccionar el laboratorio donde se generan tales inscripciones experimentales.

El disidente ve inscripciones sobre un papel o una pantalla, no la hormona misma. Y, superpuesto con estas inscripciones visuales, escucha unos comentarios verbales proferidos por el investigador, que actúa como portavoz o presentador de lo que está escrito en el visor del instrumento.

Para Latour un Portavoz es la persona que habla por otros, personas o cosas, que no hablan. Por ejemplo, un delegado sindical es un portavoz, porque representa a personas que pueden hablar pero que, en la práctica, no pueden hablar al mismo tiempo. El investigador representa a moléculas que no pueden hablar, en principio, pero a las que se les hace expresar su voluntad y hablar gracias a aparatos intermediarios.

Enfrentarse a un portavoz no es enfrentarse a una persona aislada, sino con él mas las muchas cosas o personas en cuyo nombre está hablando. Sin embargo, el crítico siempre puede sospechar que lo que el portavoz está diciendo es sólo su propio deseo y no lo que las cosas (o personas) mismas dirían. ¿Es el cambio de pendiente que observamos realmente la misma que la que provoca la morfina? Podría suceder que todas las sustancias químicas provocaran el mismo cambio de pendiente. O posiblemente, el investigador, que tanto deseaba que dicha sustancia reaccionara igual que la morfina, confundió dos jeringas sin darse cuenta e inyectó dos veces morfina, produciendo formas idénticas.

El éxito o fracaso de la portavocía depende de la solidez de esa asociación
del portavoz con las acciones de las cosas en cuyo nombre habla:

Un escéptico aún podría intentar algo antes de abandonar su escepticismo: modificar algunos de los elementos de los que depende la generación de la inscripción, para observar la robustez del resultado.

Un ejemplo de esto lo proporciona el caso Blondot, un físico de Nantes, que realizó el descubrimiento de unos rayos distintos a los rayos X y, en honor de su ciudad, los denominó “rayos N”. Durante unos pocos años los rayos N tuvieron todo tipo de desarrollos teóricos y muchas aplicaciones prácticas, curando enfermedades y situando a Nantes en el mapa de la ciencia internacional. Un disidente estadounidense, Robert W. Wood, no creyó en los artículos de Blondot, pese a estar publicados en revistas prestigiosas y decidió visitar su laboratorio. Durante un tiempo Wood se enfrentó allí a evidencias incontrovertibles. Blondot se apartó y dejó que los rayos N se inscribieran en una pantalla colocada frente a Wood. Pero el obstinado Wood se quedó en el laboratorio manipulando el detector de rayos N. En determinado momento, quitó subrepticiamente el prisma de aluminio que estaba enfocando los rayos N. Pero Blondot, en el otro lado de la habitación tenuemente iluminada, continuaba obteniendo el mismo resultado sobre la pantalla, incluso en ausencia del supuesto foco. Por lo tanto, la inscripción sobre la pantalla provenía de otra cosa.

El portavoz se transforma de alguien que habla en nombre de otros, en alguien que sólo se representa a sí mismo, a sus deseos y fantasías. En función de sus pruebas de resistencia, los portavoces se convierten en individuos subjetivos o en representantes objetivos.

¿Es legítimo pasar de lo que se ve en tres hámsters a lo que ocurre dentro de los mamíferos en general? ¿De un tumor al GRF? ¿De unos pocos retazos de evidencia a una ley universal? El éxito o fracaso de este mecanismo de la inducción, tan frecuente en la teorización científica, no parece obedecer a ninguna regla lógica. Si hay un número suficiente de investigadores a los cuales esta inducción concreta les sea útil para sus propias afirmaciones e inducciones, la utilizarán como una regla que darán por válida con generalidad, mientras que si no les encaja a un número suficiente de investigadores la generalización no triunfará y será olvidada.

Cuando ocurre lo 1º, la controversia empieza a estar cerrada, y empiezan a aparecer afirmaciones que parecen referirse a “cajas negras” que nadie puede tratar de reabrir, por tratarse de “hechos”. En nuestro caso, esto ocurrió a finales de los sesenta y principios de los setenta. La controversia se dio por cerrada y empezaron a utilizarse afirmaciones del tipo siguiente:

“Existe una sustancia que regula el crecimiento corporal; esta sustancia está regulada por otra, llamada GRF; se compone de una cadena de 44 aminoácidos (los aminoácidos son los bloques con los que están construidas todas las proteínas); dicha cadena ha sido descubierta por el premio Nobel de Fisiología y Medicina de1977, Roger Guillemin.”

Guillemin-Schally-Yalow

Hay que decir, en favor de la Academia Nobel, que ésta reconoció no sólo el éxito final de Roger Guillemin, sino también la importante labor que tuvieron Andrew V. Schally y la física experimental Rosalyn Yalow (inventora del espectrógrafo de fluidos) en el “descubrimiento” (producción colectiva del concepto) de la hormona GRF, y otorgó el Premio Nobel de Fisiología y Medicina a estos tres investigadores conjuntamente.

 

Conclusiones filosóficas

Este análisis de Latour tiene corolarios filosóficos que me parecen importantes, más allá de las controversias de pueblo como las que nos traen a Carlos de Castro y a un servidor.

Primero, la “realidad” como conjunto de “hechos” es un conjunto de constructos retóricos y cajas negras técnicas que han resistido hasta el momento todos los intentos sociales de reconstruirlos o modificarlos.

Cuanto más técnica y especializada es la literatura científico-técnica, más “social” se vuelve, pues aumenta el número de asociaciones necesarias para domesticar a los lectores y forzarlos a aceptar como un hecho una afirmación.

Los “hechos” no están “ahí fuera” sino que se van estabilizando o inestabilizando a medida que el investigador trata de asociar sus afirmaciones con las existentes en su campo. Son construidos colectivamente.

Cosas como el “polonio”, la hormona GRF, o el “potencial eléctrico de las renovables” están constituidas por pruebas superadas o “actuaciones” que las delimitan de otras cosas conocidas. El “algo” de la cosa se va configurando progresivamente. Las competencias principales serán usadas luego para definir la cosa, como se hacía entre los pieles rojas: “anaerobio”: “superviviente en ausencia de aire”.

Esta genealogía es luego borrada como para sacralizar el resultado, el objeto constituido, y usarlo en la lucha modernista contra la superchería y las “afirmaciones de autoridad”.

Alguno dirá: “todo esto está muy bien, pero es irrelevante, puesto que lo que realmente importa para triunfar en una controversia es tener a la Naturaleza de nuestro lado”.

Si tomáramos en serio esto, bastaría con observar cual de las dos partes, Schally o Guillemin, hablan en nombre de la naturaleza, y controversia resuelta. Sería tan sencillo como en las luchas de la Iliada: esperar a que la diosa incline la balanza.

Pues bien, ¿qué dice la naturaleza?: Latour encuentra que tanto los partidarios de Schally como los de Guillemin dicen tener la naturaleza a su lado y lo argumentan con pruebas. La naturaleza no queda fuera del campo de batalla, sino que es un argumento retórico de la discusión. Se recurre a ella como a Dios en guerras no tan antiguas.

Latour imagina otra crítica posible: “Lo que queremos decir es que cuando tiene lugar una controversia, la naturaleza es el aliado final que la clausura, y no las herramientas y estratagemas retóricas ni los recursos del laboratorio”.

Pues bien, los científicos afirman simultáneamente estas dos versiones contradictorias: Por un lado, proclaman a la naturaleza como el último árbitro de las controversias, pero por otro lado, reclutan innumerables aliados mientras esperan que la naturaleza se pronuncie. Esta contradicción no es tal sino una mera dualidad, pues no son defendidas al mismo tiempo. Mientras abundan las controversias, la naturaleza nunca se utiliza como árbitro final ya que nadie sabe completamente lo que es y dice. Pero una vez la controversia se cierra, se sostiene que la naturaleza es el árbitro decisivo. La afirmación “Tiene a la naturaleza de su lado” sería equivalente en esos momentos de institucionalización a aquella otra de “tiene a Dios de su lado” de las cosmovisiones pre-modernas.

Una hipótesis sugerente es que cuando un constructo es muy social (y por tanto frágil) y a la vez es muy importante para la vida social, se le reifica. Se trataría de un proceso análogo al que llevó a la sacralización de las vacas cebús en la India, para evitar que fueran sacrificadas en épocas de grandes sequías, y permitieran el renacimiento de la agricultura (Marvin Harris).

 

La crítica de Carlos de Castro

Carlos DeCastro considera que las distribuciones de valores que da la literatura científica sobre la CSP, la FV y la eólica no son realistas y carecen de validez para cuantificar la incertidumbre, debido a su sesgo tecno-optimista. Y fundamenta esta afirmación en que en un artículo suyo obtiene valores para la TRE “real” de la  solar de concentración (CSP) inferiores a casi todas las estimaciones de la literatura. También cita un artículo suyo en que obtiene valores inferiores al resto de la literatura sobre el potencial eólico, y otro artículo suyo en que obtiene valores para el potencial solar de nuevo inferiores al resto de la literatura.

El razonamiento es: en los tres artículos utilizo hipótesis realistas, mientras que los demás científicos usan hipótesis tecno-optimistas, como he demostrado para el caso de la CSP. Por consiguiente, todos los artículos de la literatura científica que dan valores más optimistas que los míos están equivocados, y los míos no.

La demostración no es lógicamente rigurosa; para que lo fuese debería haber demostrado que las estimaciones de la literatura para el potencial FV y eólico (que son las fuentes principales renovables) son todas tecno-optimistas, y no sólo la CSP. Además, debería demostrar por qué el que la TRE de la CSP sea inferior a la esperada (en la forma en que entra en servicio en la actual gestión de la red eléctrica) la convierte en una fuente inútil para una futura economía 100% renovable. Y por qué el que la CSP tenga una TRE más baja de lo que muchos esperaban, hace imposible una economía 100% renovable. Porque es esto último lo que estamos discutiendo, sobre ello hay una abierta controversia científica, y mi artículo del post defendía la conveniencia de ajustar las afirmaciones activistas a dicho consenso científico, con el fin de no perder legitimidad.

Pero además, la verdad científica es una construcción colectiva. La mayoría de las publicaciones que discuten la transición renovable consideran que el ambiente cálido y seco de los desiertos no supone ningún límite a la utilización de fracciones del orden del 5% de los mismos, pese a la mayor dificultad de mantener infraestructuras allí (basta pensar en los 78 millones de personas que viven en la Península Arábiga, con ciudades e infraestructuras construidas en desiertos o su inmediata cercanía). La mayoría de las publicaciones consideran que el TRE de las principales fuentes renovables (eólica, FV e hidro) son más que suficientes como para suministrar energía muy por encima de lo que demanda su construcción, incluso tomando valores del rango bajo. Yo (junto con Ballabrera, Jordi Solé y Antonio Turiel) defendíamos hace 7 años la posibilidad de un mix 100% renovable basado en materiales no escasos, de ahí que incluíamos una fracción grande de CSP en dicho mix. Con los años, la mayoría de los investigadores en renovables han visto que la FV bajaba de precio a enorme velocidad y que la CSP no podía competir con la posibilidad de usar FV masivamente con el apoyo de sistemas de almacenamiento eléctrico; Breyer ha cuantificado bastante bien esto. Yo mismo he ido explorando otros mix diferentes, con distintas fracciones de eólica y FV, y concluyo que parece haber distintas maneras de construir un mix 100% renovable de unos 12 TWa/a, no una única. Como otros autores apoyan esta conclusión, esa clase de publicaciones se apoyan unas a las otras, y tiene que haber evidencias mucho más relevantes que la baja TRE de la CSP para que la mayoría abandone esa conclusión general de que un mix 100% renovable es factible.

No sé si la TRE que DeCastro estima en su reciente artículo para la CSP será aceptada por la comunidad científica. Para que un artículo publicado aislado demuestre algo habrá que esperar a que sea leído por otros científicos y ver cómo responden estos a las dudas que el artículo suscita. Los autores citados en el artículo, por ejemplo los que dan estimaciones de la TRE de la CSP, tendrán que ser convencidos de que los argumentos de DeCastro y Capellán bastan para que la estimación de Corona de TRE=14-17.5 tenga que bajar a 1.5-3.4; Ehtiwesh y su grupo tendrán que convencerse de que su cálculo de TRE=20.2 estaba mal y debe ser bajado a 7.7; Heath y su grupo, de TRE=30 a un valor de 7; Lechón y su grupo, de TRE=25 a un valor de 1.9; Weissbach y su grupo, tendrán que aceptar de buena gana que su TRE=21 es en realidad TRE=1; y Viebahn aceptar que su TRE=11-68 es en realidad TRE=5. Como las TRE estimadas por deCastro y Capellán son de 3 a 20 veces menores que las que calcularon los autores originales, a muchos de ellos les extrañará que la nueva información justifique unas variaciones tan grandes de sus predicciones, y tendrán que hacer sus propias comprobaciones antes de aceptar el nuevo artículo tal como está planteado. Además, a los ingenieros les llamará la atención el que el factor de capacidad (CF) que el artículo da para algunas CSP con almacenamiento sea igual al que tienen las centrales sin almacenamiento. Entonces, querrán aclarar cómo es eso posible, pues el almacenamiento se construye precisamente para subir el CF. Querrán aclarar si el nulo efecto de la acumulación en Arabia se debe únicamente a las tormentas de arena o hay algo más; si la causa de esa aparente incongruencia es que algunas centrales no están funcionando todo los días del año debido a que el precio de la electricidad está demasiado bajo, o por qué motivo no están funcionando. Luego querrán estimar si esa bajada de la CF se puede evitar en un sistema de gestión eléctrico diferente al actual o es una limitación intrínseca a la tecnología CSP, luego contrastarán con lo que dicen otros autores sobre la evolución reciente de las CSP y estimarán si la supuesta baja TRE inutiliza a este sistema tecnológico en general, no lo hace, o lo hace en unos lugares geográficos y no en otros, porque la TRE varía con la latitud, etc.

Todo ese proceso de aclaraciones va conduciendo a que otros ingenieros y científicos saquen conclusiones sobre la capacidad que tiene la información que leen para modificar y mejorar su propio trabajo profesional, y si tales afirmaciones merecen ser incorporadas a nuevos estudios o merecen ser ignoradas. Vimos en el resumen anterior del libro de Latour que así es como se produce el consenso científico y acaban cerrándose las controversias para convertirse en hechos científicos. El artículo en cuestión me parece interesante, pero debe ser ensamblado en las redes existentes de discusión que buscan soluciones renovables para el futuro, antes de que sus afirmaciones puedan acabar siendo parte de hechos aceptados. Si es así, contribuirá a las líneas de evidencia (discusión) que en los últimos 7 años han ido considerando a la CSP como una tecnología de valor cada vez más discutible dentro de un mix renovable.

Sin embargo, las discusiones de los últimos diez años no han modificado el consenso mayoritario más general: la literatura no considera que haya aparecido ninguna traba seria que hagan inviable un mix 100% renovable, que se ha propuesto con una u otra combinación de fuentes y sistemas de almacenamiento, dependiendo de la región geográfica (pero principalmente basado en eólica, FV, hidro y geotérmica, con fuentes de acumulación variadas). Por el contrario, el IPCC, que recoge el consenso científico sobre cambio climático y las políticas factibles para encararlo, recomienda una transición lo más rápida posible hacia una economía 100% renovable como opción viable y recomendable para evitar un colapso del clima planetario.

DeCastro podrá considerar que todas las publicaciones menos las suyas son tecno-optimistas, pero cuando Raugei, Sgouridis, Fthenakis, Breyer, Hugo Bardi, Carbajales-Dale, Csala y otros obtuvieron una TRE=9-10 para la FV en Suiza (Raugei et al. 2017) no consideraban que sus hipótesis fueran tecno-optimistas, sino que las hipótesis de los artículos que dan TREs bajas no son creíbles. ¿Por qué debemos creer a un autor particular o al otro si la controversia no está cerrada? Para que las afirmaciones de un autor concreto, como DeCastro, se conviertan en “estado del arte” del campo de investigación deben convencer a todos esos colegas de que sus hipótesis son artefactos y las de DeCastro son hechos no discutibles; y ya vimos antes toda la complejidad del proceso colectivo que ello entraña. Mientras todas las controversias que rodean a las renovables no se cierren, lo que guiará a la mayoría de la comunidad, de los políticos y de los movimientos sociales será el estado del arte del conocimiento científico y técnico, en este caso resumido por el IPCC con todas sus incertidumbres asociadas, no lo que diga DeCastro y sus colaboradores.

Este estado del arte incluye amplias bandas de incertidumbre y escenarios plausibles que hay que respetar, sin que ello quite ninguna fuerza al hecho de que debemos actuar en la dirección de evitar las gravísimas consecuencias que se derivarían de que el escenario más pesimista se realizara. Pero esta recomendación, que está de acuerdo con la estrategia de la Ciencia Posnormal de Funtowicz y Ravetz, no lleva a ocultar las incertidumbres (o a engañar a la gente “por su propio bien”), sino todo lo contrario, lleva a ponerlas sobre la mesa para poder discutir públicamente todas las opciones posibles con los grupos sociales que pueden sufrir las consecuencias.

¿Cómo es que el artículo aislado escrito por de DeCastro et al. (2018) “desmonta la mayor parte de lo que ha escrito Antonio García-Olivares”? Si lo desmontara porque cierra las controversias y da un escenario evidente para todo el mundo que pudiéramos tomar como referencia para actuar, pues qué alegría tan grande: por fin podríamos ir acotando las incertidumbres, ir poniéndonos de acuerdo todos los científicos sobre “la verdad” del sistema social que las renovables permiten, y podríamos empezar a discutir con la gente los detalles de la “única manera posible de utilizar las renovable” en una futura sociedad. Pero desgraciadamente las cosas no son tan simples.

Yo ya estoy en el tercio final de mi vida, de modo que mi prioridad es ir preparándome para la muerte. A estas edades no nos tomamos ya unos vulgares artículos científicos que no lee casi nadie, ni las críticas a los mismos, como algo importantísimo; ni como algo a defender como si nos fuera la vida en ello; ni tampoco disfrutamos ya de juegos infantiles como el “yo soy más listo que tú”; y el que alguien esté en desacuerdo o de acuerdo con los propios artículos es algo que vemos más bien con aburrimiento, y como una parte normal del trabajo de cualquier investigador. Sólo trato de ayudar a encontrar si puedo, en los pocos años que me queden, una solución energética colectiva que sea sostenible, viable y que no arrase si es posible con el 80% de la población mundial. Me alegraré mucho (por ti, Carlos) si consigues convencer a la comunidad científica de que las incertidumbres que comento en mi post son inexistentes, dado que te afecta tantísimo el tener o no tener razón en tus predicciones. Ese colapsista insuficientemente radical llamado García-Olivares no está de acuerdo con afirmaciones demasiado tajantes y deterministas, pero no lo hace por joder a nadie, sino porque cree que a un científico le pagan para que sea riguroso, y no un cantamañanas, que de estos ya hay demasiados. Creo que para movilizar a la gente desde una base segura hay que contarles rigurosamente el estado del arte de la discusión científica, sin tratar de manipular ni a la gente ni a la información. Por el momento, no veo que ese artículo que acabáis de publicar refute nada de lo que decía el post de Autonomía y Bienvivir. Veamos las afirmaciones concretas de ese artículo:

-“El que el peak-oil nos pueda llevar o no al colapso dependerá del momento y la velocidad a la que se empiece a sustituir el petróleo por otras fuentes energéticas en los principales sectores económicos, y esto puede ser ampliamente alterado por decisiones políticas gubernamentales.

Dado que el tema tiene bastante incertidumbre, sería más positivo lanzar mensajes del tipo siguiente: “el cénit del petróleo (peak-oil) puede afectar muy negativamente a nuestra economía, dada su fuerte dependencia de este combustible, sobre todo en el transporte; es necesario reducir consumos, y electrificar todo lo posible los procesos económicos que hoy dependen del petróleo, y nada de esto lo está haciendo actualmente el mercado”. El artículo de DeCastro no demuestra nada sobre la certidumbre o grado de incertidumbre del colapso, ni demuestra que la sustitución del petróleo por otras fuentes sea imposible.

-“la afirmación de que el declive de los combustibles fósiles provocará “el fin de la civilización industrial” es algo tan probable como improbable y podría evitarse si se produjera una sustitución relativamente rápida de procesos económicos por otros basados en electricidad, biogás y carbón vegetal renovable (…) Es posible una industria sofisticada no basada en el progreso, el crecimiento y la acumulación de capital (…) Dada la controversia vigente, sería más coherente y positivo limitarse a mensajes de este tipo: “el cénit de los combustibles fósiles no se puede posponer eternamente; es probable que tenga lugar en pocas décadas, y provocará una importante crisis energética si para esa fecha no se han instalado fuentes renovables suficientes para compensar el declive, y no se ha reducido la demanda energética (…) Deberíamos aprovechar el fin de la era fósil para construir una forma de vivir sostenible, ecológica y de calidad, para todos; Las energías renovables y la disminución del consumo de recursos son la única solución a largo plazo al cénit de los combustibles fósiles y a la degradación ecológica; La energía renovable tiene un enorme potencial para democratizar el acceso a la energía y aumentar así la prosperidad y la autonomía de las capas más desfavorecidas; Los gobiernos deben apostar por las renovables,  por el decrecimiento del consumo, y por las cooperativas energéticas renovables; Los grandes sistemas de generación renovables y las redes eléctricas deben ser controladas públicamente y debe ser de propiedad nacional o municipal; El crecimiento debe estar supeditado a la sostenibilidad y al bien vivir.” No veo en qué sitio del artículo de DeCastro se refutan estas afirmaciones.

-“La destrucción que está provocando [el capitalismo] sobre los ecosistemas, la diversidad, los suelos, el clima y las sociedades, [son] problemas globales para los cuales no hay soluciones claras en la literatura científica que parezcan compatibles con la dinámica del crecimiento exponencial. Por ello, creo que el riesgo de colapso por la compulsión a depredar (la biosfera y la sociedad) que tiene el capitalismo es un problema muy superior al que tendrá el reto de la sustitución a renovables. Pero, de nuevo, predecir los tiempos concretos en que la fertilidad de los suelos, el suministro de agua, las abejas, o las cosechas, van a colapsar es muy aventurado; y la posibilidad de que se tomen medidas (o no) para evitar algunas de estas crisis, es algo completamente incierto”. No veo en qué lugar del artículo de DeCastro se refuta esta afirmación y se resuelven estas incertidumbres.

-“   Algunos paneles fotovoltaicos (FV) utilizan metales escasos como el indio, el arsénico, o la plata. Pero el 90% del mercado FV está dominado por paneles de silicio que no usan ningún material escaso salvo en sus metalizaciones, que en algunos casos son de plata, en otros de aluminio, y en otros de cobre y níquel. Dado que la plata no es imprescindible en las metalizaciones, si nos limitamos a usar paneles de ese tipo, no parece que la FV vaya a estar limitada por ningún material escaso.

Algo similar ocurre con la generación eólica. Los molinos que usan imanes permanentes con neodimio son hoy en día el 20% del mercado, con el 80% usando electroimanes en lugar de imanes permanentes. Un molino con electroimanes produce energía igual que uno con imanes de neodimio, sólo que es algo más voluminoso y tiene una caja de engranajes para aumentar la velocidad de rotación que llega al electroimán, eso es todo. Así que cuando el neodimio empiece a encarecerse, la industria tendrá que usar auto-inducción en lugar de imanes, y debería ser obligada a hacerlo por ley antes de que ello ocurra.

El mensaje correcto que en mi opinión habría que propagar es: “las tecnologías renovables más deseables desde el punto de vista de la sostenibilidad son las de baja tecnología, no las de alta tecnología”. DeCastro sólo subraya que las renovables usan, además de los metales comentados, otros metales en menores proporciones, pero no demuestra por qué eso inutiliza a tales tecnologías. A la escala a la que yo he hecho cálculos (unos 12 TWa/a) yo no he encontrado cuellos de botellas en minerales que no sean Li, Ni, Ag, Pt-Pd, y tampoco he encontrado artículos que digan que cualquier economía renovable es imposible debido a las reservas limitadas de metales. Sí que he visto estudios que alertan sobre una serie de metales que podrían encarecerse bastante y llegar a convertirse en cuellos de botella si continuamos con el ritmo de crecimiento exponencial habitual. Pero obviamente, si buscamos una economía renovable diez, veinte o cien veces mayor que la actual entonces chocaremos sin remedio con las reservas de esos y otros metales. Esto creo que pocos autores podrán negarlo con argumentos creíbles.

-Las TREs de las renovables son muy inciertas, y la controversia sobre sus valores más exactos no está cerrada. No veo que el artículo de DeCastro cierre esta discusión.

-Hacer afirmaciones tajantes como que “las renovables nunca proporcionarán ni el 30% de la energía que nos proporcionan los combustibles fósiles” no está de acuerdo con la controversia existente en el mundo científico sobre el potencial tecnológico de las principales fuentes renovables (solar, eólica, hidroeléctrica, geotérmica). No veo en qué modo el artículo de DeCastro es capaz de deshacer esta incertidumbre.

-La afirmación de que una flota de coches eléctricos del tamaño de la actual es imposible “puede ser tan probablemente cierta como falsa y es muy imprudente cargar las tintas sobre ella. Más prudente sería afirmar que: “la necesaria reestructuración del transporte debería apostar por un transporte de calidad, principalmente público, basado en trenes, y complementado en las ciudades por autobuses eléctricos, bicicletas eléctricas, y un número limitado de vehículos eléctricos compartidos”. No veo en qué modo el artículo de DeCastro refuta esta afirmación.

En resumen, que un artículo como el de DeCastro y Capellán-Pérez (2018) es interesante de leer, proporciona información nueva sobre el comportamiento observado en condiciones reales de las centrales CSP, pero es un artículo técnico sobre centrales CSP, no sobre las incertidumbres de la futura economía post-fósil. Un artículo aislado como ese no tiene ni el contenido ni la capacidad de poner punto final a la amplia red de controversias actualmente en curso en torno a un futuro mix 100% renovable, ni de deshacer las incertidumbres asociadas a las estimaciones que surgen de esas controversias. Mientras esas controversias se resuelven, lo mejor que podemos hacer es tener en cuenta por dónde van los consensos mayoritarios (resumidos por ejemplo por el IPCC) y respetar las incertidumbres asociadas a las actuales discusiones.

 

Referencias

-De Castro C., Capellán-Pérez I. (2018). Concentrated Solar Power: Actual Performance and Foreseeable Future in High Penetration Scenarios of Renewable Energies. BioPhysical Economics and Resource Quality 3:14. https://doi.org/10.1007/s41247-018-0043-6

-Raugei Marco, Sgouris Sgouridis, David Murphy, Vasilis Fthenakis, Rolf Frischknechtf, Christian Breyer, Ugo Bardi, Charles Barnhart, Alastair Buckley, Michael Carbajales-Dale, Denes Csala, Mariska de Wild-Scholten, Garvin Heath, Arnulf Jæger-Waldau, Christopher Jones, Arthur Keller, Enrica Leccisi, Pierluigi Mancarella, Nicola Pearsall, Adam Siegel, Wim Sinke, Philippe Stolz (2017). Energy Return on Energy Invested (ERoEI) for photovoltaic solar systems in regions of moderate insolation: A comprehensive response. Energy Policy 102, 377-384.

 

 

La Antropología de la Ciencia de Bruno Latour

En La Sociología del Conocimiento Científico hicimos una introducción a las principales escuelas que estudian la ciencia desde el punto de vista de la Sociología del Conocimiento Científico. En este post resumiremos lo que nos dice el libro Ciencia en Acción, de Latour, sobre las prácticas microsociales mediante las cuales los científicos construyen las verdades científicas.

Latour nota que la ciencia tiene dos caras, que nos dicen cosas diferentes: la ciencia ya sistematizada y la ciencia que crea nuevos constructos teóricos (modelos o teorías).

Contexto de justificaciónContexto de Descubrimiento

Sistematización y difusión                                              Creación

 

La filosofía clásica de las ciencias tiende a estudiar qué rasgos de la ciencia, una vez sistematizada, la hacen tan diferente respecto a otros saberes y tan poderosa técnicamente; mientras que la sociología de la ciencia se centra, sobre todo, en estudiar cómo construye la ciencia su conocimiento y su poder. Para ilustrar antropológicamente esta faceta fundamental de la creación de hechos científicos, Latour analiza en el libro que nos trae la historia de las controversias que tuvieron lugar en la década de 1970 entre varios grupos de investigadores, y que condujeron al «descubrimiento» de la hormona estimulante de la hormona del crecimiento (GHRH).

Historia de las controversias en la hormona estimulante de la hormona del crecimiento

La ciencia en proceso de creación es un campo de controversias entre distintos grupos investigadores que tratan de construir nuevas «cajas negras» o verdades aceptadas, a partir de cajas negras anteriores y de nuevas interpretaciones, documentos y registros de experimentos.

El problema es que la ciencia creadora aún ignora a qué verdad va a ir a parar, y muchas de las cajas negras previas no ensamblan bien con los nuevos registros experimentales y objetivos sociales, por lo que hay que quedarse sólo con algunas cajas negras previas y no con otras.  Latour pone como ejemplo un episodio comentado por James Watson de los años en que trataba de encontrar la estructura melecular del ADN. Tras copiar Watson de varios libros de texto las formas de los pares de bases que componen el ADN, observó que al ensamblar cada una de las cuatro bases con otra igual, se obtenían estructuras que se superponían de forma bastante exacta, aunque deformando un poco el enlace azúcar-fosfato. Watson explica en su despacho el esquema a otros colegas, pero el cristalógrafo Jerry Donohue, un discípulo de Linus Pauling, comenta que la idea no funcionará. «Según Jerry, las formas tautómeras que yo había copiado del libro de Davidson estaban asignadas incorrectamente. Mi réplica inmediata de que muchos otros textos también dibujaban la guanina y la timina en forma de enol no impresionó mucho a Jerry. Alegremente añadió que, durante mucho tiempo, los químicos orgánicos habían favorecido arbitrariamente unas formas tautómeras concretas, en lugar de sus alternativas, pero basándose en fundamentos muy débiles. (…) Aunque mi reacción inmediata fue pensar que lo de Jerry era mera palabrería, no rechacé su crítica. Junto a Linus, Jerry sabía más sobre enlaces de hidrógeno que nadie en el mundo. (…) Durante los seis meses que había ocupado un despacho en nuestra oficina, nunca le había oído pronunciarse precipitadamente sobre temas de los que no supiera nada. (…) Si no hubiera estado con nosotros en Cambridge, quizás yo estaría aún dándole vueltas a una estructura «igual con igual». Maurice [una competidora], en un laboratorio desprovisto de químicos estructurales, no tenía a nadie que le dijera que todos los dibujos de los libros de texto eran incorrectos. Pero para Jerry sólo Pauling podría haber realizado la elección correcta y atenerse a sus consecuencias.»

Watson se pone a jugar entonces con modelos de cartón de los pares de bases, según la forma ceto sugerida por Jerry Donohue. Para su sorpresa, observa que las siluetas obtenidas emparejando la adenina con la timina y la guanina con la citosina se pueden superponer, y dan escalones con la misma forma. Sólo entonces recuerda las «leyes de Chargaff», que habían permanecido olvidadas hasta ese momento: «siempre hay tanta adenina como timina y tanta guanina como citosina, sea cual sea el ADN elegido para el análisis». Esto ensambla el nuevo modelo con un aliado fundamental. Otro aliado del modelo es el mecanismo que sugiere mediante el cual un gen puede dividirse en dos partes y luego cada uno de los ramales crear una copia exacta del gen inicial, lo cual permite la replicación genética. Donohue da el visto bueno al nuevo ensamblaje de las bases, al igual que Crick; Bragg acude al laboratorio y sale también convencido. «Maurice Wilkins [la experta en cristalografía de rayos X] no necesitó más que un minuto para mirar el modelo y encontrarlo de su agrado». Pronto Pauling afirmó su adhesión a la estructura, y el modelo fué publicado en Nature.

DNA

Naturalmente, dice la faceta institucional de la Ciencia: «todos están convencidos porque James y Francis han dado con la estructura correcta; la estructura del ADN por sí misma es suficiente para que todos estén de acuerdo». «No», dice el otro lado: «cada vez que alguien más se convence, la estructura se hace progresivamente más correcta». Años más tarde en India y en Nueva Zelanda otros investigadores trabajaron en un modelo de «cremallera torcida» que hacía lo mismo que la doble hélice y un poco más. Pauling había apoyado una estructura alternativa para luego rechazarla. Rosalind Franklin había estado convencida de que se trataba de una hélice de tres ramales. Wilkins ignoraba las formas ceto reveladas por Jerry Donohue…

Sólo cuando la comunidad investigadora decide cerrar la caja negra, las verdades son dadas por establecidas y es fácil proclamar entonces la norma formalista de la ciencia constituida: «atente a los hechos»; pero cuando la verdad está en construcción, las reglas más útiles parecen ser: «deshazte de los hechos inútiles», «elige a quien creer», «busca puntos débiles en las verdades establecidas» y otras reglas pragmáticas similares.

Pasemos ahora a un caso diferente. El grupo de neuroendocrinología de Andrew V. Schally había aceptado que  «el hipotálamo controla la secreción de las hormonas de crecimiento por parte de la glándula pituitaria anterior». Esto constiuía una caja negra fundamental del paradigma de la neuroendocrinología. Esto es, un conocimiento incuestionable para la disciplina, y que es considerado como cerrado y definitivo. Reabrir esa caja negra, como cualquier otra, requeriría de la reevaluación de otras muchas cajas negras de las que depende, lo cual exigiría una enormidad de pruebas de laboratorio, esfuerzo en investigadores, recursos y reabrir innumerables frentes de controversia. Tal verdad establecida no pareció tener ningún punto débil, y sirvió de partida y guía a la investigación de Schally y de Guillemin durante la década de 1960.

Hipotálamo e hipófisis

Durante esa década, los grupos investigadores de Guillemin y de Schally revolucionaron el campo de investigación estableciendo como objetivo fundamental el obtener, no la descripción de la función fisiológica de la GHRH, sino su estructura molecular detallada, con el fin de resolver todas las ambiguedades que entrañaban las explicaciones fisiológicas vigentes, y aumentar el rigor de lo que se consideraban pruebas de existencia de los factores hormonales. Como describe Latour (1995), este cambio en los procedimientos considerados más rigurosos y adecuados para clarificar el campo, condujo a que muchos grupos de investigación no norteamericanos abandonaran el campo de investigación, pues la obtención de la estructura molecular del GHRH suponía la purificación de cientos de miles de hipotálamos animales para extraer suficiente cantidad de sustancia, y la creación de métodos nuevos de análisis químico y cromatografía. Muchos grupos, simplemente no dispusieron de financiación suficiente como para mantener un programa de investigación tan costoso e incierto.

Tanto el grupo de Guillemin como el de Schally sí que dispusieron de financiación pública suficiente del gobierno norteamericano. Cada uno de los dos grupos produjo afirmaciones publicadas en revistas científicas, en las que  se incluían modalidades positivas para las afirmaciones propias y negativas para las afirmaciones formuladas por grupos competidores. Modalidades positivas son para Latour enunciados que apartan a una afirmación de sus condiciones de producción, haciéndola suficientemente cerrada para inducir otras afirmaciones seguras. Latour pone estos dos ejemplos extraídos de publicaciones del grupo del Dr. Schally:

1.“La estructura primaria de la hormona estimulante de la hormona del crecimiento (GHRH) es Valina-Histidina-Leucina-Serina-Alanina-ÁcidoGlutámico-ÁcGlu-Lisina-AcGlu-Alanina”.

2.“Ahora que el Dr. Schally ha descubierto [la estructura primaria de la GHRH], es posible comenzar los estudios clínicos en hospital, para tratar ciertos casos de enanismo, dado que la GHRH activaría la hormona del crecimiento de la que carecen”.

Sin embargo, pronto se publican afirmaciones del grupo del Dr. Guillemin en las que se introducen modalidades negativas, esto es, enunciados que llevan una afirmación en la dirección opuesta, hacia sus condiciones de producción y a explicar en detalle por qué es débil o no es tan sólida:

3.“El Dr. Schally ha afirmado durante años, en su laboratorio de Nueva Orleáns, que [la estructura primaria de la GHRH era Val-His-Leu-Ser-Ala-Glu-Glu-Lys-Glu-Ala]. Sin embargo, por alguna extraña coincidencia, esta estructura es la misma que la de la hemoglobina, un componente corriente de la sangre y un contaminante frecuente del extracto purificado de cerebro, si es manipulado por investigadores incompetentes”.

El que la afirmación inicial del grupo de Schally se convierta en una caja negra (hecho aceptado) o pase a ser un artefacto (mala interpretación o hipótesis fracasada) depende de que la siguiente generación de artículos considere útiles o no útiles las afirmaciones de Schally y de Guillemin, a la hora de ensamblarla en los discursos que el propio grupo y otros grupos están generando. En esta fase, se pueden escuchar afirmaciones como las siguientes, en las discusiones en workshops y congresos científicos:

“Si hay una “extraña coincidencia”, reside en el hecho de que la crítica al descubrimiento de la GHRH por el Dr. Schally ha sido realizada de nuevo por su viejo enemigo, el Dr. Guillemin… Respecto a la homonimia de estructura entre la hemoglobina y la GHRH, es algo factible que nada prueba en contra del descubrimiento”.

“No es posible que la sangre transporte dos mensajes homónimos sin perturbar [el metabolismo]. Se trata de una equivocación evidente de Schally; Guillemin siempre ha sido más fiable que él”.

A medida que la controversia se encarniza, entran en la discusión cuestiones de fisiología, personalidades de los agentes, métodos de trabajo y detalles del procedimiento de laboratorio. Schally defiende sus afirmaciones con una red de referencias a sus métodos, que a su vez referencian a otros trabajos: 35 artículos y 16 libros entre 1971 y 1948. O aceptas su afirmación, o debes leer críticamente todos esos artículos.

¿Qué hay detrás de las afirmaciones? Textos. ¿Y detrás de los textos? Más textos, cada vez más técnicos que obligan a leer más artículos. ¿Y detrás de los artículos? Gráficos, inscripciones experimentales, mapas, etc. ¿Y detrás de las inscripciones? Instrumentos y presentadores que comentan los gráficos y registros y traducen lo que significan. ¿Y detrás de ellos? Conjuntos de instrumentos. ¿Y detrás de estos? Pruebas de resistencia que acreditan la fortaleza de los vínculos que unen a las inscripciones con su traducción apropiada.

Como dice Latour, en la producción científica de conocimiento hay una retórica, pero en apoyo de sus afirmaciones la ciencia introduce muchos más recursos que la retórica común. El efecto, positivo o negativo, que la nueva afirmación tiene sobre las prácticas profesionales cercanas juega también un papel en fortalecer o debilitar la red de apoyos a la nueva afirmación. Latour pone como ejemplo esta conversación:

Médico-1 (como si resumiera un antiguo debate): “Teniendo en cuenta que existe una nueva cura del enanismo, ¿cómo puede usted decir eso?”

– Médico-2: “¿Una nueva cura? ¿Cómo lo sabe? Eso se lo ha inventado usted.”

– “Lo he leído en una revista”.

– “Habrá sido en un suplemento en color…”

– “No, fue en The Times y el que lo escribía no era un periodista sino alguien con un doctorado”.

– “¿Y eso qué importa? Probablemente era un físico en paro que no sabe diferenciar el RNA del DNA”.

– “Pero referenciaba un artículo publicado en Nature por el premio Nobel Andrew Schally y seis colegas, un estudio financiado por el Nacional Institute of Health y la National Science Foundation, en el que se exponía cual era la secuencia de la hormona que estimula la hormona del crecimiento. ¿Eso no significa nada?”

– “¡Vaya! Debería haber empezado por ahí… Sí, supongo que algo tiene que significar”.

La situación retórica se ha invertido cuando uno de los médicos ha apoyado su afirmación en un Nature, un Nóbel, seis coautores y dos instituciones importantes.

Una vez cerrada una controversia, la ciencia suele desmarcar sus métodos de los de la retórica y opone la “razón” que supuestamente la guía a los argumentos de autoridad. Sin embargo, se observa que mientras la controversia no está cerrada, la ciencia busca recursos para convertirse en una retórica lo suficientemente poderosa como para permitir que un hombre convenza a cien autoridades.

Para triunfar, las afirmaciones que son coherentes con las propias prácticas deben ser vistas por los demás investigadores como ensamblables con sus propias afirmaciones. Esto va generando una red inter-subjetiva que se automantiene mediante rederencias cruzadas más o menos coherentes y consistentes entre sí.

La llamada “fuerza de la razón” parece consistir en la práctica en la estabilidad de la asociación de esos actantes (actores humanos o no humanos) en una red. Lo que afirma la ciencia una vez constituida es muy diferente de lo que busca en su fase de constitución:

CARA DE LA CIENCIA CONSTITUIDA: “La ciencia no se doblega ante la multitud de opiniones”.

CARA DE LA CIENCIA EN CONSTITUCIÓN: “¿Cómo ser más fuerte que la multitud de opiniones?”

Durante la fase de creación o constitución, hay una lucha por encajar las propias afirmaciones en la red preexistente de afirmaciones y objetos científicos.

Si un investigador ve que una afirmación no encaja y, por tanto, amenaza las propias, trata de minar los apoyos de la misma. Un modo de hacerlo  es relativizando las referencias, o reinterpretándolas, o cambiando el sentido de sus implicaciones. Un ejemplo tomado de una publicación de Guillemin (que llama GRF a la GHRH):

“El concepto, hoy bien establecido, de control neurohumoral de las secrecciones adenohipofisiarias, indica la existencia de un factor hipotalámico estimulante de la hormona del crecimiento (GRF) (ref. 1) que tiene como contrapartida inhibitoria a la somatostatina (ref. 2). Hasta ahora el GRF hipotalámico no ha sido caracterizado de forma inequívoca, a pesar de algunas afirmaciones prematuras de lo contrario (ref. a Schally)”

“Se ha propuesto una estructura para el GRF (ref. a Schally); sin embargo, recientemente se ha mostrado (ref. a Veber et al.) que no se trataba de GHRH sino de un contaminante secundario, probablemente un fragmento de hemoglobina.”

Mientras que una publicación de Schally trata de relativizar las críticas a su propia propuesta, del modo siguiente: “D. F. Veber et al. han señalado la similitud entre la estructura de nuestro decapéptido y el radical amino de la cadena beta de la hemoglobina porcina (ref. 32). Queda aún por establecer en qué medida esta observación es significativa”.

La referencia de Veber, sin embargo, no dice exactamente ninguna de las cosas que le hacen decir las dos afirmaciones anteriores.

Cuando la controversia es suficientemente aguda, los recursos anteriores pueden no ser suficientes para desanimar al contrincante y casi cada palabra del artículo debe ser defendida mediante recursos externos. Este es un ejemplo tomado de un artículo en que Guillemin argumenta estar haciéndolo mejor en su laboratorio que Schally:

“En la intervención quirúrgica se encontraron en el páncreas dos tumores separados (ref. 6); los tejidos tumorales fueron troceados e introducidos en nitrógeno líquido a los 2 o 5 minutos de la resección, con la intención de extraer de ellos GRF … El extracto de ambos tumores presentaba actividad estimulante de la hormona del crecimiento, con un volumen de elusión igual al del GRF hipotalámico (Kav = 0.43, donde Kav es la elusión constante) (ref. 8). El volumen de actividad del GRF (ref. 9) era insignificante en uno de los tumores (0.06 unidades de GRF por miligramo (peso neto)), pero extremadamente alto en el otro (1500 unidades de GRF por miligramo (peso neto)), 5000 veces más que en el hipotálamo de las ratas (ref. 8)”.

Aquí cada palabra es una jugada de ajedrez. El párrafo se entiende mejor como respuesta anticipada a posibles objecciones de competidores escépticos:

-¿Cómo podría estar usted haciéndolo mejor que Schally con cantidades tan ínfimas de su sustancia en el hipotálamo?

– Encontramos tumores que producían grandes cantidades de la sustancia, lo cual permitía que su aislamiento fuera mucho más fácil de lo que lo era para Schally.

– ¿Está usted bromeando? Estos son tumores pancreáticos, y usted está buscando una sustancia hipotalámica ¡que se supone proviene del cerebro!

– Muchas de las referencias indican que, a menudo, se encuentran sustancias del hipotálamo también en el páncreas, pero de todas maneras tienen el mismo volumen de elusión; esto no es decisivo, pero es una prueba bastante buena, suficiente en cualquier caso, para aceptar el tumor tal cual, con una actividad 5000 veces mayor que la hipotalámica. No se puede negar que es un regalo caído del cielo.

– ¡Un momento! ¿Cómo puede estar usted seguro de ese 5000?, ¿no puede sencillamente estar inventándose las cifras? ¿Se trata de peso en seco o peso húmedo? ¿De donde proviene el criterio?

– Bien. En primer lugar se trata de peso en seco. Segundo, una unidad de GRF es la cantidad de una preparación purificada de GRF proveniente del hipotálamo de las ratas que produce una estimulación medio-máxima de la hormona del crecimiento en el bioensayo de monoestrato de células pituitarias. ¿Está usted satisfecho?

– Tal vez, pero ¿cómo podemos estar seguros de que estos tumores no se han deteriorado después de la intervención quirúrgica?

-Fueron troceados e introducidos en nitrógeno líquido entre 2 y 5 minutos después. ¿Dónde podría encontrarse mejor protección?

Schally utiliza argumentos igual de detallados. ¿Encajarán las afirmaciones de Schally, la de Guillemin y la de Veblen con las del resto de investigadores? Para ello, hay que rastrear en la siguiente generación de artículos.

Latour investigó en los Science Citation Reports a todos los autores que citaron posteriormente a Veblen, y observó que tomaron el trabajo de Veblen como un hecho bien establecido, afirmaron que la hemoglobina y la GRHR tienen la misma estructura y usaron este hecho para minar la pretensión de Schally de haber descubierto la GHRH, que ahora escriben entre comillas.

Esto fue catastrófico para las afirmaciones de Schally, que se encontraron sin poder seguir ensamblándose con el resto de la literatura. La línea de trabajo de Guillemin, sin embargo, quedó libre para desarrollarse sin competidores importantes. En general, dice Latour, cuanto más técnica es la literatura que soporta una afirmación de objetividad, más social se vuelve esa afirmación de objetividad, porque aumenta el número de asociaciones necesarias para expulsar a los escépticos y forzarlos a aceptar como un hecho, la afirmación.

¿Y si esto no es suficiente para que todos crean a Guillemin? Entonces hay que llevar al escéptico al lugar donde se generan las inscripciones y trazas experimentales, los laboratorios.

La ciencia no es sólo una retórica que busca ensamblarse con muchos apoyos. Una segunda característica suya es que incluye en los artículos y documentos al propio referente del que habla, para no depender sólo de asociaciones humanas. En el caso de la GRF el investigador se convierte en portavoz del factor hormonal.

Por ejemplo: “La purificación final de este material mediante HPLC analítico de fase inversa produjo tres péptidos altamente purificados con actividad GRF (véase fig. 1)”. Sigue una figura en la que se aprecia una curva con tres grandes picos y un pie de figura con un texto que explica cómo leer la figura:

Science-grafico

Purificación final del GRF mediante el HPLC de fase inversa. La columna (Ultraesfera C18), 25 por 0.4 cm, tamaño de partícula 5-(pu)m, fue eluida con un gradiente de acetonitrilo (—-) en ácido heptafluorobutírico al 0.5% (en volumen) a una velocidad de flujo de 0.6 mL/min. Se recogieron fracciones (2.4 mL) tal como se indica en la abcisa, y se usaron algunas porciones para bioensayos (ref. 7). Las barras verticales representan la cantidad de hormona del crecimiento segregada en el ensayo por cada fracción del efluente, expresada como porcentaje de la cantidad de hormona del crecimiento segregada por las células pituitarias que no recibieron tratamiento. AUFS, escala completa de unidades de absorción.

La leyenda nos dice que los picos no son una mera retórica visual, sino el producto de un cromatógrafo líquido de alta presión, y se dan los parámetros de su funcionamiento. Estas inscripciones representan al referente objetivo o “parte más objetiva del referente”. Los detalles de funcionamiento y calibración del cromatógrafo son apoyados en referencias técnicas anteriores, que se ramifican hacia el pasado hasta alcanzar la física básica fundacional del campo técnico.

Llegado aquí, si el disidente quiere seguir dudando, debe construir un laboratorio competidor o inspeccionar el laboratorio donde se generan las inscripciones.

El disidente ve inscripciones sobre un papel o una pantalla, no la hormona misma. Y, superpuesto con estas inscripciones visuales, escucha unos comentarios verbales proferidos por el investigador, que actúa como portavoz o presentador de lo que está escrito en el visor del instrumento.

Un portavoz es para Latour la persona que habla por otros, personas o cosas, que no hablan. Por ejemplo:

–Un delegado sindical es un portavoz, porque representa a personas que pueden hablar pero que, en la práctica, no pueden hablar al mismo tiempo.

–El investigador representa a moléculas que no pueden hablar, en principio, pero a las que se les hace expresar su voluntad (o la de «las leyes naturales») y hablar gracias a aparatos intermediarios.

Enfrentarse a un portavoz no es enfrentarse a una persona aislada, sino con él mas las muchas cosas o personas en cuyo nombre está hablando. Sin embargo, el crítico siempre puede sospechar que lo que el portavoz está diciendo es sólo su propio deseo y no lo que las cosas (o personas) mismas dirían. ¿Es el cambio de pendiente que observamos en la gráfica la misma que la que provoca la morfina? Podría suceder que otras sustancias químicas provocaran el mismo cambio de pendiente. O posiblemente, el investigador, que tanto deseaba que dicha sustancia reaccionara igual que la morfina, confundió dos jeringas sin darse cuenta e inyectó dos veces morfina, produciendo formas idénticas.

El éxito o fracaso de la portavocía depende de la solidez de esa asociación
del portavoz con las acciones de las cosas en cuyo nombre habla. La solidez crece con el número de pruebas de resistencia superadas. Una prueba de resistencia es un proceso en el cual alguien que cuestiona los hechos científicos (disidente) se enfrenta con los portavoces y lo que dicen las cosas que ellos representan. Un escéptico podría intentar una última cosa antes de abandonar su escepticismo: modificar algunos de los elementos de los que depende la generación de la inscripción, para observar la robustez del resultado.

Un ejemplo de esto lo proporciona el caso Blondlot, un físico de Nantes, que realizó el descubrimiento de unos rayos distintos a los rayos X y, en honor de su ciudad, los denominó “rayos N”. Durante unos pocos años los rayos N produjeron publicaciones científicas, todo tipo de desarrollos teóricos y muchas aplicaciones prácticas, curando enfermedades y situando a Nantes en el mapa de la ciencia internacional. Un disidente estadounidense, Robert W. Wood, no creyó en los artículos de Blondlot, pese a estar publicados en revistas prestigiosas y decidió visitar su laboratorio. Durante un tiempo Wood se enfrentó allí a evidencias incontrovertibles. Blondlot se apartó y dejó que los rayos N se inscribieran en una pantalla colocada frente a Wood. Pero el obstinado Wood se quedó en el laboratorio manipulando el detector de rayos N. En determinado momento, quitó subrepticiamente el prisma de aluminio que estaba enfocando los rayos N. Pero Blondlot, en el otro lado de la habitación tenuemente iluminada, continuaba obteniendo el mismo resultado sobre la pantalla, incluso en ausencia del supuesto foco. Por lo tanto, la inscripción sobre la pantalla provenía de otra cosa.

rayos N

detecting-n-rays

El dispositivo de Blandlot y un esquema de sus partes

 

En casos como este, el portavoz se transforma de alguien que habla en nombre de otros, en alguien que sólo se representa a sí mismo, a sus deseos y fantasías. En función del resultado de sus pruebas de resistencia, los portavoces se convierten en individuos subjetivos o en representantes objetivos.

El precio de disentir es, la mayoría de las veces, tener que levantar otro laboratorio mejor, que por estar en contradicción con el origen de los hechos científicos que cuestiona, Latour lo denomina contralaboratorio. Este se construye a través de cuatro procesos:

– Adoptar cajas negras diferentes o en mayor número, y situarlas antes en el experimento (hace que la discusión se relegue).

– Lograr que los actores traicionen a sus representantes.

– Configurar nuevos aliados: “los científicos y los ingenieros hablan en nombre de nuevos aliados que han reclutado y moldeado; son, entonces, representantes de otros representantes que añaden recursos inesperados para inclinar a su favor el equilibrio de fuerzas”.

– Obtener registros en nuestro laboratorio que contradigan las obtenidas en los laboratorios contrarios.

¿Es legítimo pasar de lo que produce un tumor al GRF que segrega el hipotálamo? ¿de lo que se ve en tres hámsters a lo que ocurre dentro de los mamíferos en general? ¿De unos pocos retazos de evidencia a una ley universal? El éxito o fracaso de este mecanismo de la inducción, tan frecuente en la teorización científica, no parece obedecer a ninguna regla lógico-formal. Si hay un número suficiente de investigadores a los cuales esta inducción concreta les sea útil para sus propias afirmaciones e inducciones, la utilizarán como una regla que darán por válida con generalidad, mientras que si no les encaja a un número suficiente de investigadores la generalización no triunfará y será olvidada.

Cuando ocurre lo primero, la controversia empieza a estar cerrada, y empiezan a aparecer afirmaciones que parecen referirse a “cajas negras” que nadie puede tratar de reabrir, por tratarse de “hechos”. Por ejemplo: “Existe una sustancia que regula el crecimiento corporal; esta sustancia está regulada por otra, llamada GRF; se compone de una cadena de 44 aminoácidos (los aminoácidos son los bloques con los que están construidas todas las proteínas); dicha cadena ha sido descubierta por el premio Nobel de Fisiología y Medicina de1977, Roger Guillemin, y tiene la estructura siguiente: H Tyr Ala Asp Ala Ile Phe Thr Asn Ser Tyr Arg Lys Val Leu Gly Gln Leu Ser Ala Arg Lys Leu Leu Gln Asp Ile Met Ser Arg Gln Gln Gly Gly Ser Asn Gln Glu Arg Gly Ala Arg Ala Arg Leu NH2«.

El comité sueco del Nobel valoró las aportaciones de los principales grupos involucrados en la controversia, y otorgó el Premio Nobel de Fisiología y Medicina de 1977 a Roger Guillemin, Andrew V. Schally y Rosalyn Yalow. Esta última fue la físico que, junto con su maestro recien fallecido Salomon Berson, desarrolló las técnicas radiométricas para medir cantidades traza de hormonas en sangre.

Roger_Guillemin

Roger Guillemin

Schally_portrait

Andrew V. Schally

rosalyn_yalow_1

Rosalyn Yalow. En su estudio tenía un cartel que decía: «Lo que sea que haga una mujer debe hacerlo el doble de bien que un hombre para ser considerada la mitad de buena.»

 

Conclusiones

  • La “realidad” es un conjunto de “hechos”, esto es, un conjunto de constructos retóricos y cajas negras técnicas que han resistido hasta el momento todos los intentos sociales de reconstruirlos o modificarlos.
  • Cuanto más técnica y especializada es la literatura, más “social” se vuelve, pues aumenta el número de asociaciones necesarias para domesticar a los lectores y forzarlos a aceptar como un hecho una afirmación.
  • Los “hechos” no están “ahí fuera” sino que se van estabilizando o inestabilizando a medida que el investigador trata de asociar sus afirmaciones con las existentes en su campo. Son construidos colectivamente.
  • Cosas como el “polonio” están constituidas por pruebas superadas o “actuaciones” que las delimitan de otras cosas conocidas. El “algo” de la cosa se va configurando progresivamente. Las competencias principales serán usadas luego para definir la cosa, como en el lenguaje atribuido a los pieles rojas: “anaerobio”: “superviviente en ausencia de aire”.
  • Esta genealogía es luego borrada como para sacralizar el resultado, el objeto constituido, y usarlo en la lucha modernista contra las supercherías y las “afirmaciones de autoridad”.
  • Un hechos es considerado exitoso si es considerado indispensable: esto contempla dos tipos de dinámicas: (i) la interna: lo que se construye en el interior del laboratorio, y (ii) la externa: el posicionamiento político adecuado para que el nuevo hecho se ensamble bien con los hechos de la realidad macrosocial (economía, política, cosmovisión dominante).
  • Sobre esta clase de análisis sociológicos la ciencia constituida suele afirmar: “Todo esto está muy bien, pero es irrelevante, puesto que lo que realmente importa para triunfar en una controversia es tener a la Naturaleza de nuestro lado”.
  • Si tomáramos en serio esta afirmación, bastaría con observar cual de las dos partes, Schally o Guillemin, hablan en nombre de la naturaleza, y la controversia estaría resuelta. Sería tan sencillo como en las luchas de la Iliada: esperar a que los dioses inclinen la balanza.
  • Pues bien, ¿qué dice la naturaleza?: Latour encuentra que tanto los partidarios de Schally como los de Guillemin dicen tener la naturaleza a su lado y lo argumentan con pruebas. La naturaleza no queda fuera del campo de batalla, sino que es un argumento retórico de la discusión. Se recurre a ella como a Dios en guerras no tan antiguas.
  • La Ciencia institucionalizada responde: “Lo que queremos decir es que cuando tiene lugar una controversia, la naturaleza es el aliado final que la clausura, y no las herramientas y estratagemas retóricas ni los recursos del laboratorio”.
  • Los científicos afirman simultáneamente estas dos versiones contradictorias: Por un lado, proclaman a la naturaleza como el último árbitro de las controversias, pero por otro lado, reclutan innumerables aliados mientras esperan que la naturaleza se pronuncie.
  • Esta contradicción no es tal sino una mera dualidad, pues no son defendidas al mismo tiempo. Mientras abundan las controversias, la naturaleza nunca se utiliza como árbitro final ya que nadie sabe completamente lo que es y dice. Pero una vez la controversia se cierra, se sostiene que la naturaleza fue y es el árbitro decisivo.
  • Latour sugiere la hipótesis de que cuando un constructo es muy social (y por tanto, tan frágil como cualquier sistema que debe ser producido de forma permanente para que se sostenga) y muy importante para lo social, se le reifica (como se hacía con las vacas sagradas en la India clásica). Cuando se afirma que una verdad científica aceptada “tiene a la naturaleza de su lado” ello es equivalente a las pretensiones de la antiguedad clásica o la edad media de que un dogma, o un monarca, “tiene a Dios de su lado”.
  • La acusación de irracionalidad siempre la esgrime alguien que está elaborando una red, contra otro que se interpone en un camino; no existe, pues, ninguna gran línea
    divisoria entre las mentes, sino únicamente redes más o menos extensas, y con más o menos apoyos.
  • Si el conocimiento es almacenable, combinable y adaptable (transportable de
    un lugar a otro) pueden llegar a formar parte, junto con sus estándares, convenciones y laboratorios normalizados, de una red de alcance global. “La historia de la teconciencia es, en gran medida, la historia de los recursos dispersos por las redes para acelerar la movilidad, la fiabilidad, la combinación y la cohesión de los indicios que hacen posible la acción a distancia”.
  • “Antes de atribuir una característica especial a la mente o al método de las personas [que hacen ciencia], examinemos primero las muchas formas en que las inscripciones se reúnen, combinan, entrelazan y se envían de vuelta. Sólo si, después de haber analizado las redes, queda algo por explicar, hablaremos de factores cognitivos”.

Referencias

Latour B. La vida en el laboratorio – La construcción de los hechos científicos. Alianza Editorial, Madrid, 1995.

Latour, B. Ciencia en acción, Labor, Barcelona, 1992.

La Sociología del Conocimiento Científico

El término Sociología del Conocimiento empezó a generalizarse en la década de 1920, cuando varios sociólogos de lengua alemana escribieron sobre la influencia mutua entre la sociedad y el pensamiento. Entre ellos destacan Karl Mannheim, con su obra Ideología y utopía, y Max Scheler. Sin embargo, el campo tiene precursores como Marx, y Weber, con sus enfoques sobre la influencia mutua entre las condiciones materiales y las ideologías y cosmovisiones. El nuevo enfoque fué aplicado a los estudios sobre la vida diaria en la década de los sesenta, en especial por Peter L. Berger y Thomas Luckmann en La construcción social de la realidad (1966), y recibió aportaciones de investigadores como Foucault, que observó que los procesos sociológicos tenían un papel fundamental en la definición de la «locura» como «enfermedad» y en la prescripción de «curas» para la misma. La sociología del conocimiento ha sido aplicada también a la discusión y análisis de la propia naturaleza de la ciencia, sobre todo tras  la obra de Thomas Kuhn, sobre La estructura de las revoluciones científicas. Es la llamada Sociología del Conocimiento Científico (SCC).

La síntesis filosófica de Kant (La síntesis Kantiana entre racionalismo y empirismo) había dejado bien fundamentada la división conceptual entre un sujeto portador de los a-priori necesarios para la percepción y el conocimiento, y un objeto portador de las cualidades materiales que daban contenido a las percepciones y permitían la experimentación y el análisis. En ciencias sociales algunos investigadores utilizaron este marco kantiano, pues es más fructífero para entender qué ocurre cuando un sujeto individual o colectivo produce un sistema conceptual. Sin embargo entre los investigadores de las ciencias de la naturaleza («ciencias duras») se siguió utilizando con frecuencia una filosofía objetivista y materialista pre-kantiana, que olvida el papel del sujeto en laconstrucción del objeto (mediante los a-priori de la sensibilidad y del entendimiento, y mediante procesos colectivos más complejos) para subrayar la diferencia entre sujeto y objeto.

En segundo lugar, la tarea de una filosofía crítica es para Kant la de ser un vigilante que mantiene separados saberes no fundamentados tales como las «ilusiones metafísicas», los saberes meramente prácticos, las supersticiones, o las pseudociencias, por un lado, y el conocimiento científico, éste sí universal, bien fundamentado y necesario, por el otro.

Contexto de justificaciónContexto de Descubrimiento

Contexto de justificación versus Contexto de Descubrimiento

En tercer lugar, Reichenbach formuló en 1938 un criterio de demarcación que   distinguía  entre un «contexto de descubrimiento» y un «contexto de justificación».
El primero incluiría la actividad humana de descubrir, conjeturar, crear nuevas metáforas, etc., y en él se manifiestaría la componente irracional del conocimiento; el segundo correspondería a la justificación racional de lo descubierto irracionalmente, es decir, la verificación según Lakatos o falsación según Popper, de las hipótesis y modelos, la construcción de conceptos no contradictorios, y teorías, actividades que serían puramente racionales. Esta «dualización» a la hora de afrontar el estudio de la ciencia (factores internos o racionales versus externos no racionales) fue la posición de la filosofía neopositivista que aplicaron los primeros sociólogos y filósofos de la ciencia, tales como Merton o Lakatos. Esta postura, que ha sido llamada «internalista» supone que los procesos de producción y validación del conocimiento científico están libres de influencias externas, y su estudio compete exclusivamente a la historia de las ideas y a la filosofía de la ciencia. Esta separación internalista de la ciencia con respecto a la sociedad, la funda según Latour, Shapin y Schaffer, el físico y filósofo Robert Boyle (1627-1691) con su creación de la comunidad experimental (Latour, 1993).

Como afirma Emmanuel Lizcano, esa triple dicotomía se institucionalizó durante el siglo XX en una división del trabajo académico sobre a la ciencia:  «Cuanto cae del lado del sujeto (concreto o trascendente, individual o colectivo), de los saberes no estrictamente
científicos o de la componente irracional de los descubrimientos será el objeto de
estudio propio de las ciencias humanas: historia, psicología, sociología… Pero a éstas
nada les cabe decir sobre el núcleo duro de la razón científica: la construcción de
conceptos y teorías y la metodología de investigación; éste es un ámbito reservado a
filósofos de la ciencia, metodólogos, lógicos y epistemólogos.» Para esta tradición, sólo puede existir una «sociología del error», pero no una sociología del conocimiento. Mannheim cayó también en este error cuando eximió del análisis sociológico a las matemáticas y a las ciencias naturales.

Así, para Robert K. Merton (1910-2003), la racionalidad específica de la ciencia viene garantizada por el ethos de los científicos que la hacen, que son cuatro imperativos que se han institucionalizado: (i) frente a los localismos, el imperativo de la universalidad; (ii) frente al excesivo individualismo, el «comunismo» (comunalismo) de la comunidad de científicos; (iii) frente a los intereses particulares, el desinterés; y (iv) frente al dogmatismo, el escepticismo organizado. Tales actitudes, empleadas correctamente, serían las fuentes de la racionalidad y la universalidad, a la vez que convertirían al sujeto del conocimiento científico, que era individual en Kant, en un sujeto colectivo.

Robert K Merton

Robert K. Merton

Sin embargo, a partir de las años sesenta del siglo XX, aparecen aportaciones que rompen la rigidez de esa dicotomía. La Escuela de Frankfurt (Horkheimer, Adorno, Marcuse, Fromm, etc.) desarrolla las críticas de Marx y Bakunin a la relación entre ciencia institucionalizada e intereses de clase en las sociedades tecnocráticas y burocráticas modernas. El emergente movimiento ecologista subrayan la dinámica de dominación y destrucción de la naturaleza que generan el binomio ciencia-capitalismo. Lakatos estudia la resistencia de las teorías científicas a la hora de dejarse refutar por los hechos; Feyerabend pone en duda el monopolio científico de la verdad y la existencia real del «método científico»; Kuhn critica la visión de la ciencia como un saber progresivo acumulativo y subraya aspectos de luchas por el poder en el establecimiento de nuevos paradigmas científicos.

Como resume Lizcano, todas esas aportaciones  se institucionalizarán en el llamado programa fuerte de la sociología del conocimiento científico, enunciado por David Bloor en 1976, en su obra Knowledge and Social Imagery.

La SCC tuvo un desarrollo importante en las últimas décadas del siglo XX. Algunos de sus análisis más provocadores han recibido grandes críticas por parte de científicos procedentes de la “ciencia dura” por su mezcla de relativismo extremo, o por filósofos de la ciencia, como Bunge o Lawrence Stone. Este último, afirma por ejemplo: «Hoy día, necesitamos resistir hombro con hombro al creciente ejército de enemigos de la racionalidad. Con esto me refiero a los seguidores del culto al relativismo absoluto que está de moda y que surge de la filosofía, de la linguística, de la semiótica y del deconstructivismo. Estos… tienden a rechazar la posibilidad de una comunicación exacta mediante el uso del lenguaje, la fuerza de la deducción lógica y la misma existencia de la verdad y la falsedad.“

Otros han asociadado la SCC con la falta de rigor y la actitud relativista tipo tipo new age. En un experimento de desmitificación de esa actitud supuestamente poco rigurosa, Alan D. Sokal, envió en 1996 un artículo lleno de disparates, que fué publicado sin grandes críticas con el título de: “Transgressing the boundaries: Toward a Transformative Hermeneutics of Quantum Gravity”, Social Text, 46/47, p. 217-252. Duke Univ. Press. Esto pareció confirmar la falta de rigor del campo de investigación y edición relacionado con la SCC. Sin embargo, podríamos decir en descargo de la citada revista y sus revisores que cuando el discurso de alguien nos suena conforme a nuestro paradigma preferido, solemos bajar el rigor de su contrastación con los datos; y ello pasa en SCC como en las «ciencias duras», donde se han publicado también artículos que han resultado ser fraudulentos, basados en observaciones inventadas, o construidos a base de unir textos de procedencia heterogénea sin pasar por el laboratorio.

Muchos sociólogos de la ciencia han acusado por su parte a éstos críticos de rigidez mental y de no entender sus perspectivas más que superficialmente. En mi opinión: (i) ambos bandos tienen una parte de razón; (ii) hay una división de fondo entre las dos culturas científicas; (iii) hay perspectivas que tratan de superar esa división, como la de Latour y su escuela del actor-red (Latour, Callon, Law).

La escisión entre las dos culturas científicas la ponía de manifiesto la filósofa argentina Nair Teresa Guiber cuando, en algunos seminarios suyos hacía la siguiente pregunta a la audiencia: “Antes de que existiera el homo sapiens, ¿el agua de nuestro planeta hervía, a la presión de una atmósfera, a 100 grados centígrados?”. Según ella, los científicos positivos contestaban invariablemente: “Evidentemente, sí”; mientras que los epistemólogos, psicoanalistas, linguistas, etc., contestaban en línea con: “No; la pregunta no tiene sentido”.

Podríamos caracterizar estas dos culturas científicas como la de los científicos “duros” versus los científicos «blandos». La primera de estas culturas se caracterizaría por:

–Ontología materialista, realismo y positivismo.

– Pretende un acceso privilegiado a la verdad gracias a un «método científico» que le permitió destronar las “afirmaciones de autoridad” de la teología medieval, las supersticiones neoplatónicas renacentistas y otros pseudo-saberes pasados.

– Ligada al programa del progreso. Institucionalizada e investida de autoridad por las élites del poder político y el desarrollo económico.

–Su eficacia técnica ha confirmado su naturaleza especial.

Mientras que los científicos “blandos” se caracterizarían por:

–Epistemologías herederas de Kant.

–Intento de síntesis humanista de todo el conocimiento, no sólo el ligado al poder y a la técnica.

–Sensibilidad al problema del consenso social (política) y de la pluralidad de perspectivas.

–La complejidad de su objeto (lo social) ha imposibilitado tanto un paradigma único como un conocimiento capaz de controlar a su objeto.

En “Ciencias duras”, son influyentes las filosofías pre-kantianas quizás debido a la sacralización ilustrada de la ciencia natural, que fue usada como ariete político contra las sacralizaciones del Antiguo Régimen. Esa ciencia natural, ligada sobre todo a lo militar, a la manipulación pragmática de objetos inanimados y al control técnico del mundo, tiene un objeto relativamente simple, cuya descripción pragmática y científica parece compatible tanto con filosofías objetivistas relativamente simples como con otras más complejas, válidas también para seres biológicos y sociedades. Lakoff dio una posible explicación de esta suficiencia del objetivismo en los contextos pragmáticos cotidianos, que está relacionada con las estructuras sensorio-motoras que el sujeto humano usa como base para la construcción metafórica de conceptos (véase Las metáforas y la construcción imaginaria de la realidad).

Sin embargo, el objetivismo fracasa ante objetos más complejos, como la descripción de los sujetos con capacidad cognitiva, y hay que aceptar filosofías y ciencias post-kantianas.

Un científico objetivista se resistiría a tal negación de su filosofía acostumbrada con argumentos de este tipo: “¿Pero acaso la sociedad (o la naturaleza) no es algo que está ahí, con independencia de nuestra voluntad? ¿No se trata de una realidad con características propias, que nuestros deseos apenas pueden modificar? ¿No presuponemos esa realidad, tanto nosotros como los demás, en nuestra interacción? ¿Y no son precisamente ésos los rasgos de aquellas realidades que llamamos “objetivas”?

A ello Pablo Navarro responde: Sí, evidentemente. Pero obsérvese que todas esas características que atribuimos a las realidades “objetivas” las tienen también nuestros perceptos. Y nadie defenderá hoy en día la tesis de que esos perceptos son realidades genuinamente “objetivas” (que cuando vemos por ejemplo un objeto verde –y lo vemos de ese color independientemente de nuestra voluntad, de nuestros deseos, en aparente coincidencia a como lo ven otros sujetos – hay realmente un objeto verde ahí fuera).

Una cosa es la conciencia de objetividad, y otra muy distinta la real existencia objetiva de ese algo. Esto es, su existencia independiente de la subjetividad de la que esa conciencia forma parte.

Veremos en un post posterior sobre Latour que algo se vuelve conscientemente objetivo cuando adquiere cierta clase de estabilidad dentro del proceso de construcción humana del conocimiento que hace que, cuanto más socialmente construido sea un constructo más objetivo se vuelve.

Consistentes con los métodos de la antropología social, muchos sociólogos de la SCC utilizan el término «afirmación de conocimiento» en vez de «conocimiento» incluso para proposiciones matemáticas como «2 + 2 = 4». El objetivo es profundizar bajo los lugares comunes de las filosofías que pretenden que el conocimiento se sostiene por sí mismo, que algo externo o superior sostiene su «autoridad» o su «verdad» una vez «descubierto» donde estaba oculto, «puesto a la luz» y «limpiado» de prejuicios.

La SCC tiene una influencia pragmatista que se opone al realismo dominante en los filósofos de la ciencia tradicionales. Para esta aproximación, (i) lo que llamamos “verdad”, “objetividad” y “error” son construcciones sociales; (ii) “cómo conocemos, es lo que existe (y lo inexistente)”; (iii) el universo conocido es el universo conocido por la forma humana (social) de conocer; (iv) El universo con todos sus planetas, estrellas y formas geológicas, es un producto social que consideramos útil creer que antecedió a su conocimiento, para ordenar en el tiempo y evolutivamente los entes que supuestamente originaron a los seres humanos. Pero incluso tal existencia ha sido generada por los científicos modernistas, luego no es una existencia independiente y absolutamente objetiva.

Para la SCC la relación entre representación y referente no es ajena a lo social, y esto lo ilustró muy bien Garfinkel, en sus Estudios en Etnometodología, donde enunció los siguientes «desastres metodológicos» que se suelen producir cuando un grupo social trata de conocer un objeto:

1.Indexabilidad: Siempre es posible asociar más de una realidad subyacente (y por tanto, más de un significado) a cualquier representación.

2.Interminabilidad: La voluntad de definir una sola realidad subyacente conduce a que el proceso de clarificación se vuelva interminable.

El proceso de definir exhaustiva y precisamente el significado de cualquier representación implica el uso de nuevas representaciones, que se suele interrumpir en significados no explicados. Parece haber acuerdos implícitos culturales y grupales, por ejemplo: que cuando todas las nuevas aclaraciones que surgen pertenecen a cierta clase (por ejemplo, dudas filosóficas o dudas de detalle o dudas técnicas, según el contexto de la discusión) todo el mundo «se de por enterado» de lo que se quiere decir.

3.Reflexividad: Las explicaciones (o representaciones) de los seres cognitivos y definidores, forman parte de las situaciones (y realidades) que ellos/as hacen observables (Garfinkel coincide aquí con investigadores como Von Foerster y Bateson).

achilles

Aquiles y la tortuga, según Lewis Carroll

El desastre de la interminabilidad es ilustrado de forma cómica por Lewis Carrol (What the Tortoise Said to Achilles, Mind, No. 4, 1895, pp. 278-280) en forma de un diálogo sobre lógica entre Aquiles y la tortuga. Ambos discuten sobre tres proposiciones (A,B y Z) relacionadas entre sí de forma tal que, según Aquiles, Z «se sigue lógicamente» de A y B. La tortuga se muestra de acuerdo en aceptar A y B como verdaderas, pero desea saber qué podría inducirle a aceptar Z, pues no acepta la proposición hipotética C que reza: «Si A y B son verdaderas, Z debe ser verdad».

Aquiles comienza entonces por pedirle a la tortuga que acepte C, lo que ésta hace. Entonces le dice: «Si aceptas A, B y C debes aceptar Z». Cuando la tortuga le pregunta por qué debe hacerlo, Aquiles le dice: «Porque se sigue lógicamente de ellas. Si A, B y C son verdaderas, Z debe ser verdad. Supongo que no me discutirás esto, ¿verdad?». La tortuga decide aceptar esta última proposición y llamarla D.

– Ahora que aceptas A, B, C y D aceptarás, por supuesto, Z.

– ¿Ah sí? -le dijo inocentemente la tortuga-. Aclaremos esto. Yo acepto A, B, C y D. Supongamos que aún me resisto a aceptar Z.

– Entonces la lógica echará mano a tu garganta y te obligará a hacerlo -contestó Aquiles triunfalmente-. La lógica te diría: «No tienes nada que hacer. Una vez has aceptado A, B, C y D, debes aceptar Z». Ya ves, no tienes más remedio que hacerlo.

– Merece la pena anotar todo lo que la lógica pueda decirme -dijo la tortuga-. Así pues, anótalo en tu libro. Lo llamaremos E (Si A, B, C y D son verdaderos, Z debe serlo). Evidentemente, hasta que no haya aceptado eso no podré aceptar Z. Por lo tanto, es un paso bastante necesario, ¿no te parece?

– Sí -dijo Aquiles-; y había un toque de tristeza en su voz.

Consistente con estos antecedentes, Bloor propuso en 1976 el Programa fuerte de la sociología del conocimiento, consistente en estos cuatro objetivos metodológicos:

1.Causalidad: El fin de la sociología del conocimiento científico es discernir qué condiciones (sociales, psicológicas, económicas, políticas o históricas) producen las creencias o estados de conocimiento.

2.Imparcialidad: La «verdad», la «falsedad», etc., son el resultado de procesos sociales, todos ellos interesantes.

3.Simetría: Debe haber simetría a la hora de explicar «errores» y «verdades». No se debería apelar a causas psico-sociológicas (despistes, prejuicios), para explicar creencias «falsas» y causas lógico-racionalistas, para explicar creencias «verdaderas».

4.Reflexividad: Las pautas explicativas usadas por la SC deben ser, en principio, aplicables a la misma sociología.

david-bloor3

David Bloor

Tal como lo resume Lizcano: «Bloor rompe así drásticamente con la tradición mertoniana en sociología de la ciencia, pero lo hace precisamente en nombre de la fidelidad a los planteamientos clásicos en sociología del conocimiento (Durkheim, Mannheim, Znaniecki) e incorporando eclécticamente una amplia gama de aportaciones (Spengler, Wittgenstein, Mill, Kuhn, M. Douglas…). Las características más destacadas de las investigaciones emprendidas a partir del programa fuerte son: a) Relativismo: no hay criterios absolutos de verdad o de racionalidad, sino que tales criterios dependen tanto de las interacciones y negociaciones en el interior de la comunidad científica como de grupos humanos más amplios, de épocas históricas y de contextos de significado concretos. b) Naturalismo: todo conocimiento, incluido el matemático y el lógico, corresponde en última instancia a una experiencia, si bien de esa experiencia se selecciona una de las varias interpretaciones posibles, la cual se racionaliza a posteriori como la `explicación lógica’ y se legitima por la autoridad como `conocimiento verdadero’: «lo que hemos hecho no es sino desarrollar la teoría [empirista] de Mill sobre un plano sociológico». c) Constructivismo: esa capacidad social de seleccionar y legitimar ciertos modelos como `verdaderos’ es, por tanto, capacidad de construir la realidad, al menos dentro de ciertos límites físicos. d) Holismo: el conocimiento científico no puede entenderse fuera del contexto concreto (práctico, lingüístico, cultural…) en el que se produce y justifica, no cabiendo por tanto distinguir entre contextos de descubrimiento (sociales e irracionales: externos) y de justificación (lógicos y empíricos: internos). e) Cientifismo: los cuatro principios en que se funda el programa fuerte «reposan sobre los mismos valores que los tenidos por adquiridos por otras disciplinas científicas» y el sociólogo de la ciencia no hace sino «lo que cualquier otro científico».»

Otra consecuencia de la aplicación de este programa fue la revalorización de la retórica como actor importante dentro del conocimiento. La ciencia teórica «acabada», las teorías científicas dominantes empiezan a ser concebidas como una clase de retórica optimizada colectivamente. Como lo expresa McCloskey, la ciencia es «la buena retórica», esto es, la conversación más convincente dentro de toda la actividad técnica, instrumental, política y comunicativa que acompañan a la sociedad industrial.

Latour añadirá a lo anterior: Una retórica que es convincente porque está muy fundamentada en grupos de sujetos y cuasi-objetos unidos en red que usan útilmente sus planteamientos (su verdad tiene un fundamento pragmático). Para este investigador, los constructos teóricos son resúmenes nemotécnicos de esas asociaciones exteriores de discursos con actores humanos y no-humanos.

Derrida, actualizando a Nietsche, dirá además: esos resúmenes son sistemas de metáforas. Y Lakoff puntualizará: sistemas de metáforas que son especialmente coherentes y consistentes entre sí (véase Las metáforas y la construcción imaginaria de la realidad).

La SCC considera a la ciencia como un producto cultural, de ahí la relevancia de métodos de análisis tomados de la antropología social. Para entender una descripción científica hay que tener una cultura científica, más o menos compartida por los que han sido escolarizados en Occidente, que fue la cuna de dicha cultura.

Es esta cultura de grupo (y la existencia de laboratorios y procedimientos estandarizados) la que permite a un científico ruso o chino explicar a su colega de EEUU la «misma» experiencia. Sin esa cultura científica, la ciencia no puede existir. Tratemos de leer una obra «científica» del siglo XVI: Resultará ininteligible para cualquier científico actual. Para entenderla mínimamente habría que empaparse antes de los conceptos fundamentales del neo-platonismo renacentista, del aristotelismo y de las controversias del escolasticismo medieval.

BESTIARIO_ABERDEEN3

Bestiario de Aberdeem, escrito en Inglaterra en el siglo XII

Las perspectivas de la SCC chocan obviamente con la pretensión clásica de que hay verdades absolutas. La entrada de la sociología en la investigación del fenómeno religioso encontró una oposición similar a la que hoy suscita la SCC en sus análisis de las verdades científicas. Como dice Fourez (1994), «algunos científicos como algunos creyentes parecen temer no sólo el relativismo, sino también lo relativo«.

Como afirma Woolgar (1991), la necesidad de pasar del objetivismo a la sociología en la fundamentación del «método científico» y la ciencia real está esbozada ya en Wittgenstein cuando se da cuenta de que las acciones y comportamientos sociales no surgen de reglas, sino que es justo a la inversa.

Woolgar ofrece un esquema general de cómo se suele producir lo que la filosofía objetivista llama un descubrimiento científico. Un descubrimiento es en general un proceso con cinco etapas:

  1. En la primera etapa, los científicos tienen documentos (trazos) que pueden incluir tablas obtenidas a partir de registros de telescopio, artículos publicados, resultados previos, aparatos tales como telescopios, espectrómetros, cámaras, opiniones de científicos previos, etc.
  2. Los participantes emplean algunos de estos documentos para proyectar la existencia de un determinado objeto (interferencias, una posible explosión de gas intergaláctica, etc.)
  3. Aunque el supuesto objeto se ha constituido en virtud de los documentos existentes y del entramado social del que forman parte, ahora se propone percibirlo como una entidad separada, con vida propia.
  4. Se empieza a hablar del objeto como si siempre hubiera estado allí y hubiera dado lugar a los documentos, cuando fué a la inversa. Los documentos empiezan a ser llamados representaciones o trazos (de un objeto preexistente).
  5. Con el fin de mantener la relación entre objeto y representación invertida de forma estable, se minimiza toda información que pueda llamar la atención o recordar las fases 1, 2 y 3. La historia de la construcción colectiva del objeto es reescrita ocultando o negando las partes del proceso histórico que lo constituyó. Los libros de texto, por ejemplo, que explican a los alumnos un objeto científico o una teoría científica, sólo muestran la estructura final de dicho objeto o de dicha teoría, no la historia de controversias, de intentos fallidos, de apoyos institucionales y de hipótesis, metáforas y modelos añadidos intermedios.

Lizcano resume (basándose en González de la Fe y Sánchez Navarro 1988) los cinco programas de investigación que han aplicado y desarrollado (criticándolo en parte) las implicaciones del programa fuerte de Bloor:

1) Los análisis del discurso científico (Mulkay, Gilbert), a diferencia de los estudios etnográficos de laboratorio, no toman el discurso como síntoma de la actividad científica real sino como objeto propiamente social, en el que se manifiestan las contradicciones y solapamientos entre los diferentes registros del lenguaje que usan los científicos para
describir, interpretar y racionalizar sus comportamientos; con frecuencia esta orientación se torna reflexiva al incluir también como objetos pertinentes de análisis tanto el discurso del propio analista como el de la sociología que éste pone en juego.

2) Este carácter reflexivo también lo asumen los estudios etnometodológicos de la actividad científica (Lynch, Garfinkel), si bien éstos incluyen entre las prácticas observables tanto las conversaciones o materiales escritos como otros materiales manipulados en los laboratorios; la actitud etnometodológica de considerar sólo lo observable les lleva a «no usar más metalenguaje que el lenguaje de las mismas ciencias».

3) Interpretaciones moderadas del programa fuerte (Barnes, Shapin, MacKenzie) que debilitan la noción de causalidad y renuncian a construir teorías generales en favor del estudio empírico de casos.

4) El programa relativista (Collins, Pinch, Pickering, Harvey) de la escuela de Bath deja de lado principios que, como el de causalidad o el de reflexividad, habría que considerar en cada situación concreta; enfatizando los aspectos relativistas y un cierto constructivismo, se centra preferentemente en el estudio de los métodos de experimentación y en la construcción de sus resultados en investigaciones o controversias aún en curso, y en las `ciencias marginales’.

5) El programa constructivista (Latour, Woolgar, Knorr-Cetina), que parte inicialmente de la llamada antropología de los laboratorios. Analiza esa multitud de prácticas profesionales tenidas por in-significantes que serían precisamente las que construirían el significado de los enunciados y prácticas científicas: en el laboratorio, el científico no observa la realidad  sino una multitud de informaciones fragmentarias y desordenadas, de registros y aparatos que, convenientemente seleccionados y tratados, construyen hechos de apariencia ordenada con vistas a conseguir credibilidad; la negociación, los modos de argumentación y el uso retórico del lenguaje merecen especial atención para entender lo que «realmente hacen los científicos»: la controversia entre científicos transforma algunos enunciados en «artefactos» y «quimeras» y otros en «hechos de la naturaleza» (Latour y Woolgar, 1995).
En un próximo post resumiremos el brillante análisis que hace Latour (1992) del «descubrimiento» de la hormona estimulante de la hormona del crecimiento; se trata de un ejemplo que ilustra muy bien cómo funciona por dentro la ciencia en construcción, y cómo consigue institucionalizar verdades sistematizadas.

En Latour (1993), describe cómo Boyle implantó un método de argumentación internalista para la ciencia, en abierta oposición con Hobbes, con quien sin embargo compartía la búsqueda de la paz social, el materialismo, el deísmo y la confianza en la ciencia. Boyle instaura un nuevo mecanismo para ganarse el apoyo de los colegas científicos y de los interesados en la ciencia. En lugar de apelar a la lógica, las matemáticas o la retórica, se apoya en una metáfora jurídica: testigos fiables, de buena posición, convocados en el lugar controlado y cerrado de un laboratorio, y reunidos en torno a la escena del experimento con que se quiere hacer hablar a la naturaleza, pueden atestiguar la presencia de un hecho, incluso sin conocer su verdadera naturaleza.

An_Experiment_on_a_Bird_in_an_Air_Pump_by_Joseph_Wright_of_Derby,_1768

An Experiment on a Bird in an Air Pump by Joseph Wright of Derby, 1768

Hobbes ve esta innovación, que funda la Royal Society, como peligrosa. Tras todo su esfuerzo por fundamentar la unidad del cuerpo político bajo la autoridad de un único príncipe, he aquí que aparece la Royal Society para dividirlo todo de nuevo: ciertos caballeros proclaman el derecho a tener una opinión independiente en un espacio cerrado, el laboratorio, sobre el que el Estado no ejerce ningún control. Y cuando estos provocadores llegan a un acuerdo no es porque una demostración matemática les fuerce a aceptar a todos una conclusión, sino porque sus engañadores sentidos han observado unos experimentos que son inexplicables y poco concluyentes. Lo que es peor, esa camarilla se ha reunido alrededor de una bomba de aire que pretende haber producido, otra vez, cuerpos inmateriales como el vacío. Esto socava según Hobbes la autoridad estatal que impide la vuelta de las guerras civiles, como las que provocaron los Levellers y los Diggers, con su interpretación personal de Dios y del comunismo milenarista. Hobbes advierte al rey que si permite a los experimentadores producir sus propios matters of fact, y que el vacío se infiltre en la filosofía en nombre de una supuesta naturaleza, pronto su autoridad resultará fragmentada y las rebeliones serán estimuladas.

Sin embargo, Boyle ataca la pretensión de Hobbes de que el vacío no existe y de que en lo menos denso debe permanecer un viento de éter, mediante experimentos aún más sofisticados de una pluma de pollo introducida dentro de una cámara en la que se extrae el aire para producir el vacío. la pluma no se mueve, y Boyle concluye que el viento de éter no existe. Hobbes se niega a admitir que un experimento hecho en la mansión de Boyle pueda arrojar conclusiones extrapolables a la filosofía política de la República en su conjunto. Pero Boyle insiste en que está haciendo responder a la naturaleza ante un tribunal de testigos, eligiendo las preguntas apropiadas, y que las cosas inanimadas son incapaces de prejuicios.

¿Cómo pueden esas conclusiones extraidas dentro del espacio cerrado de un laboratorio convertirse en «leyes universales» como la de Boyle o las leyes de Newton? La respuesta de Shapin, Schaffer y Latour es que la ciencia nunca se transforma en un universal a la manera de la filosofía; simplemente, construye redes de prácticas estandarizadas que se estabilizan. La interpretación del vacío y de la compresibilidad del aire que da Boyle se propaga a la misma velocidad a la que se extiende la comunidad de experimentadores y sus equipamientos estándares. El peso y la densidad del aire son universales, pero son universales dentro de una red y dependientes de ella. Si esta red consigue extenderse a escala global, las competencias y el equipamiento pueden llegar a ser suficientemente rutinarios como para que tales conceptos se conviertan en hechos universalmente aceptados.

Para Latour, el fallo de Hobbes es el mismo que el de muchos sociólogos modernos (incluidos algunos de la SCC): no haber entendido que conceptos como el de «poder», «interés», «autoridad» o «política» son tan problemáticos y construidos como el concepto de «ley universal» que construyen Boyle y Newton. Para Latour, Boyle y Hobbes son los padres fundadores de la dicotomía moderna en la que a la ciencia pertenece la representación de lo no-humano, pero tiene prohibida toda apelación a la política; y a la política pertenece la representación de los ciudadanos pero le está prohibido cualquier relación con los no-humanos producidos y movilizados por la ciencia.

Según Latour, el programa fuerte de Bloor trata de explicar lo verdadero y lo falso mediante las mismas categorías, pero estas categorías son las ofrecidas por los científicos sociales. Como él, muchos investigadores de la SCC son constructivistas en lo que se refiere a la naturaleza, pero realistas respecto a la sociedad. Latour propone generalizar ese principio de simetría y tratar de explicar tanto la naturaleza como la sociedad partiendo de las mismas categorías, que en su caso serán los cuasi-objetos cuasi-sujetos, también llamados actantes.

Según Latour, todas las naturalezas-culturas se parecen en que construyen a la vez seres humanos, divinidades y no-humanos. «Ninguna vive en un mundo de signos sociales impuestos arbitrariamente a una naturaleza exterior conocida sólo por nosotros los occidentales. Ninguna, y tampoco la occidental, vive en un mundo de cosas. Todas distribuyen qué llevará signos y qué no. Para construir sus comunidades, algunos movilizan los ancestros, los leones, las estrellas fijas y la sangre coagulada de los sacrificios; al construir las nuestras, movilizamos la genética, la zoología, la cosmología y la hematología (…) La presencia de las ciencias no es suficiente para romper la simetría; éste es el descubrimiento de la antropología comparada» (Latour, 1993).

Los saberes y los poderes modernos no serían diferentes por haberse escapado de la tiranía de lo social y sus preconcepciones, sino porque añaden muchos más híbridos (bombas de aire, estándares de calibración, máquinas, electricidad, hechos, microbios, átomos, estrellas, ecuaciones, autómatas, el inconsciente, los neurotransmisores…) para así recomponer el vínculo social. A cada oleada de incorporaciones de estos cuasi-objetos se redefine el cuerpo social, tanto de los sujetos como de los objetos.

Un ejemplo de los efectos que tiene la incorporación de nuevos cuasi-objetos lo proporciona la incorporación de la mecánica de las palancas, y de la técnica en general, dentro de la política de toma de decisiones centralizada, gracias al encuentro de Arquímedes y sus intereses con su pariente, el rey Hierón. La articulación de las poleas, espejos y catapultas de Arquímedes con la estructura política que encabezaba Hierón, inició una nueva manera de interaccionar militarmente con otras ciudades-estado, de asegurar la estabilidad del cuerpo político, y de expandirlo a la fuerza como modelo universal.

ANT

Lo que caracteriza a los modernos es que, simplemente, han logrado construir redes más largas, que alcanzan a influir geográficamente a una escala global. Pero pese a su globalidad, entre las líneas de estas redes no existe nada, ni tren, ni teléfono, ni tuberías, ni televisión; son líneas conectadas, no superficies. Universalizan de una manera relativa, dependiente del mantenimiento de sus eslabones y componentes. Latour afirma, con Shapin y Schaffer, que la naturaleza de los saberes, de las ideas y de los hechos se habrían entendido mejor si las hubiéramos tratado como a las redes tecnológicas. «Los hechos científicos se pueden comparar con los pescados congelados: la cadena de frío que los mantiene frescos no debe ser interrumpida ni siquiera un solo instante» para que puedan alcanzar los lugares más distantes. Lo universal en las redes produce los mismos efectos que lo universal absoluto de la teología, pero ya no tiene las mismas causas fantásticas. «El teorema de Pitágoras o la constante de Planck penetran en las escuelas y en los cohetes, en las máquinas y en los instrumentos, pero no salen de sus mundos de la misma forma que los achuar tampoco salen de sus poblados (…) Ciertamente, el occidental puede creer que la ley de la gravedad es universal incluso con independencia de todo instrumento, de todo cálculo, de toda decodificación y de todo laboratorio, de la misma forma que los bimin-kuskumin de Nueva Guinea pueden creer que ellos son la humanidad entera, pero éstas son creencias respetables que la antropología comparada ya no está obligada a compartir» (Latour 1993).

 

Referencias

Fourez G. La construcción del conocimiento científico. Narcea, Madrid, 1994.

Gonzalez de la Fe, T. y J. Sanchez Navarro. Las sociologías del conocimiento
científico. Reis, 43 (1988), p. 75-124.

Iranzo, J.M. et al. (ed.): Sociología de la ciencia y la tecnología, Madrid, CSIC, 1995.

Latour, B. Ciencia en acción, Labor, Barcelona, 1992.

Latour B. Nunca hemos sido modernos. Debate, Madrid, 1993.

Latour B. y S. Woolgar, La vida en el laboratorio, Alianza, Madrid, 1995.

Lizcano E. Imaginario colectivo y creación matemática. Gedisa, Barcelona 1993.

Medina, E.: Conocimiento y sociología de la ciencia, Madrid, CSIC y Siglo XXI, 1989.

Torres Albero, C.: Sociología política de la ciencia, Madrid, CSIC/Siglo XXI, 1994.

Woolgar S. Ciencia: Abriendo la Caja Negra. Anthropos, Barcelona 1991.