Ciencia cognitiva, Ciencia y sociedad, Divulgación Científica, Tercera Cultura
1 comentario

La ciencia percibida como «inmoral» también es percibida como menos creíble y rigurosa

Algunos epistemólogos –la gente que se dedica a estudiar la naturaleza del conocimiento humano– distinguen entre “racionalidad instrumental”, que persigue simplemente la victoria de nuestros valores predilectos, y “racionalidad epistémica”, que persigue una mayor correspondencia entre nuestro mapa y el territorio: lo que Aristóteles y los escolásticos llamaban “adecuación”, o simplemente “verdad”. No es lo mismo razonar para ganar que para averigüar lo que es cierto.

Se supone que la ciencia por excelencia se fundamenta en la racionalidad epistémica. Según esta posición común, resumida por Matteo Colombo, de la universidad holandesa de Tilburg, el modo cómo evaluamos la calidad de las pruebas y los argumentos en favor de las hipótesis verdaderamente científicas “sólo debe ser afectado por valores epistémicos, dirigidos a la verdad, tales como confirmación, adecuación empírica y poder explicativo y predictivo”.

Aunque no cabe duda que los valores “no epistémicos” (ideas morales, ideológicas, económicas, etc) forman parte de la actividad científica, influyendo en el modo cómo los políticos deciden emplear ciertas conclusiones de la ciencia, o en los procesos de financiación, existe también la creencia optimista de que no determinan los resultados finales ni privan en el largo plazo a la ciencia de rigor y objetividad.

Hasta aquí el ideal. Lo que resta por averiguar, sin embargo, es si la psicología del razonamiento científico permite realmente lograr una ciencia libre de valores e “ídolos”, en el sentido advertido por Francis Bacon, el influyente autor del Novum organum (1620).

Se conocen ya distintos factores motivacionales que afectan a la ciencia. Lo cierto es que la “racionalidad” se subordina corrientemente a la búsqueda de objetivos considerados “adecuados” de antemano, y también existen objetivos “direccionales” que motivan a los investigadores para alcanzar sus conclusiones favoritas, con independencia de que sean o no “adecuadas”. Y no se trata de meras sospechas o especulaciones teóricas. Estos sesgos de confirmación y “atención asimétrica”, y en general las llamadas “prácticas de investigación cuestionable”, están llamando más la atención de las revistas científicas y los evaluadores recientemente. Según los datos de una encuesta con psicólogos, explicada por Judith Rich Harris, un porcentaje no despreciable de investigadores dejan de recabar datos cuando ya han alcanzado los resultados buscados, o bien excluyen los datos que no encajan con las expectativas.

Estas trampas cognitivas afectan también a la psicología normal de la gente. Un estudio famoso (Lord et al. 1979) mostró, por ejemplo, que la presentación de evidencias no afectaba significativamente a las convicciones de los sujetos en temas moralmente relevantes, como la pena de muerte: “tanto los defensores como los detractores de la pena capital calificaron la información que estaba de acuerdo con sus convicciones previas como más convincente, y estuvieron más dispuestos a encontrar errores en la información que contradecía sus convicciones”. Sorprendentemente, la presentación de evidencias aumenta, no disminuye, la discrepancia entre dos posiciones polarizadas de antemano.

Según esta forma motivada de razonar e investigar, la ciencia que satisface nuestras convicciones morales no sólo se percibe como más cierta, sino también metodológicamente superior, más rigurosa, a la ciencia que no los satisface. Un hallazgo moderno que parece recordar la sabiduría del sabio oriental: “Las palabras verdaderas no son agradables. Las palabras agradables no son verdaderas”.

¿Es posible una ciencia libre de valores?

Colombo y sus compañeros (2015) han diseñado experimentos para poner a prueba estas ideas y los resultados se han publicado en una revista de filosofía y psicología experimental.

Lo que han hecho es comparar la evaluación moral que los sujetos concedían a una hipótesis científica (la muestra está compuesta por estudiantes de universidades holandeses) con la evaluación de su rigor y plausibilidad. En uno de los estudios se trató de averigüar si las hipótesis científicas percibidas como más “ofensivas” predecían diferencias en el modo en que eran juzgadas, controlando la credibilidad anterior de dichas hipótesis. ¿Valoramos del mismo modo una hipótesis del tipo «Comer pizza regularmente incrementa la inmunidad contra la gripe» o del tipo «Los niños nacidos por padres del mismo género padecen más problemas relacionados con su desarrollo»?

Las conclusiones confirmaron que la evaluación de la calidad y distintas dimensiones de las hipótesis si era sensible a la evaluación moral: “Los estudios moralmente ofensivos comparados con los estudios neutrales fueron calificados como significativamente menos plausibles, menos convincentes, menos merecedores de ser financiados, peor dirigidos y significativamente menos apoyados por evidencias”.

Aunque el efecto hallado por el estudio es estadísticamente pequeño, afectan a todas las “dimensiones” estudiadas (La información es plausible/La investigación es convincente/El estudio debe ser financiado/El estudio está bien hecho/El estudio proporciona evidencias de sus conclusiones), por lo que los autores estiman que la influencia de las percepciones morales es potencialmente significativa.

Es decir, que los valores “no epistémicos” afectaron directamente en el experimento a la evaluación científica («epistémica») de las hipótesis. Esto hace que Colombo llegue a una conclusión bastante escéptica: “como cuestión de hecho psicológico, el ideal de una ciencia libre de valores no es conseguible”. No es sólo que la gente tiende a rechazar ideas científicas debido a que no encajan con sus concepciones previas, porque cree en conspiraciones, o porque entran en conflicto con su sentido común. Los valores también influyen: lo percibido como más «inmoral» también es percibido, más o menos automáticamente, como menos creíble.

Valores “no epistémicos” y diversidad ideológica

Ya que una ciencia totalmente “libre de valores” es inasequible, según esto, ¿pudiera mejorarse la confianza y la calidad de la ciencia a la larga –en especial de la ciencia social– aumentando la diversidad moral e ideológica? Hemos preguntado a Colombo por esta propuesta de Jonathan Haidt y un grupo de investigadores (Duarte, J.L. et al., 2014), que pretende abrir las puertas de una «universidad heterodoxa«.

Para Colombo la diversidad ideológica en la ciencia no destruirá la influencia de los valores “no epistémicos”. Antes al contrario “más diversidad podría facilitar una mayor influencia de una amplia gama de valores epistémicos en (i) el tipo de cuestiones planteadas por los científicos, y (ii) el tipo de instituciones y la estructura de los incentivos (prácticas de revisión por pares, acceso a datos compartidos, diseminación de información científica o reconocimiento público)”.

Sin embargo, Colombo no cree que estos cambios empeoren la calidad de la ciencia, ya que la diversidad (ideológica) en ciencia ayudaría a combatir el “conservadurismo teórico” de disciplinas científicas afectadas en particular, como la psicología social: “El conservadurismo presenta un obstáculo para las teorías científicas revolucionarias, transformadoras y poco ortodoxas, al no ser capaz ni tan siquiera de concebir distintas alternativa a las teorías existentes, pero que pueden ser tanto serias científicamente como bien confirmadas por las evidencias disponibles”.

1 Comentario

  1. Pingback: Libertarismo cultural – Lo que no se dice

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *