Navegar a...

Artículos recientes

Greenpeace y la mentira como estrategia de marketing (I)

Publicado por el 25 abr, 2012 en Tercera Cultura | 0 comentarios

Fuente:  http://www.losproductosnaturales.com

En 1999 Greenpeace lanzó la guerra contra los transgénicos en Europa con el manifiesto “The end of the World as we know it”, con claras reminiscencias a un disco de REM. El ideólogo de esta campaña fue Bendikt Härlin, activista político proveniente de la extrema izquierda y con nula formación científica. Si la campaña triunfó no fue un mérito exclusivo de Greenpeace, sino más bien de una conjunción de diversos factores. Para este éxito fue determinante que los políticos y las grandes empresas europeas vieran con buenos ojos un rechazo a una tecnología estadounidense contra la que no estaban preparados para competir. ¿Y qué hemos ganado a cambio? Básicamente nada. Importar lo que podríamos producir y aumentar la dependencia tecnólogica de Estados Unidos. 13 años después el rechazo a los transgénicos está ocasionando una brutal pérdida de potencial económico y científico, así como una pérdida de soberanía alimentaria en Europa que está lastrando nuestro presente y cada vez más nuestro futuro en términos de pérdida de puestos de trabajo, de desarrollo científico, de independencia económica y soberanía alimentaria.

Greenepeace, fomentando el odio visceral a la ciencia

Actualmente la política antitransgénicos de Greenpeace en Europa es más de imagen que activa. Viene a ser como cuando el Carrefour pone la garrafa de aceite a 9 euros. Es un precio gancho para que la gente venga y aprovechar para venderle más cosas a precio similar o superior que en otros supermercados. De la misma manera Greenpeace utiliza esta campaña para captar más socios que paguen la cuota. Greenpeace España se suma a manifestaciones o comunicados, hace presión política y cuelga pancartas, pero poco más. Solo hay que ver los números del informe de auditoría. El gordo va a sueldos y el canon a Greenpeace internacional, la campaña antitransgénicos se lleva un mísero 1,7% del presupuesto anual de 7 millones de euros. De hecho el trabajo sucio de destrozar campos experimentales de transgénicos se lo dejan a los grupos minoritarios e integristas como ecologistas en acción o a pequeños grupos incontrolados (igual que los ultras en la transición). Diferente es el caso de Australia donde sí que han pasado a la acción directa y violenta. El caso opuesto es el de Estados Unidos, donde la campaña antitransgénicos es mínima. Ante esta disparidad de criterios no es de extrañar que en cable de Wikileaks ID #207708 se preguntaran si la disparidad de objetivos de Greenpeace de un país a otro no sería debida acuerdos con gobiernos o grandes empresas.

¡¡¡¡Greenpeace pidiendo que cerremos todas las farmacias!!!!

Pero vayamos al meollo. ¿Qué argumentos ha utilizado Greenpeace para justificar su campaña antitransgénicos? ¿Son ciertos? ¿Están justificados científicamente? Pues podemos decir sin riesgo a equivocarnos que ante la falta de argumentos que justificaran su campaña, se los han inventado. Y no estamos hablando de errores puntuales, sino de una estrategia global, premeditada y sostenida durante años. Por ejemplo, en otoño del año 2000 en las estaciones de tren de Holanda apareció un anuncio en el que al lado de una apetitosa hoja de lechuga había una leyenda que decía “está lechuga se mantiene más tiempo porque incorpora genes de rata, buen provecho” y atribuía el invento al centro de investigación de la Universidad ATM de Texas. Huelga decir que no hay lechugas transgénicas en el mercado ni tiene ningún interés que incorporen genes de rata. En Australia, para justificar daños por más de 300.000 euros en invernaderos donde se trataban de desarrollar variedades de trigo transgénicas, hicieron una campaña de presión para que el mayor fabricante de productos de panadería declarara públicamente que no utilizaba transgénicos, obviando el hecho que no hay ninguna variedad de trigo transgénica comercializada, así que aunque hubiera querido no hubiera podido.

Campaña de Greenpeace Holanda en el año 2000.

¿Qué pasa en España? En España Greenpeace edita la guía roja y verde de los transgénicos, que no es que sea un manifiesto político como parecen indicar los colores sino el resultado de una política de demonizar arbitrariamente a quien no haga lo que yo quiero. Ellos solicitan a las empresas las pruebas de que no utilizan transgénicos, si las pruebas les satisfacen van a la lista verde. Si no las aportan o no les satisfacen van a la lista roja. De la misma manera que si yo publico una lista de pederastas y meto a todo quien me apetece y si me trae las pruebas de que no lo es, lo quito. En algunos casos realizan ellos mismos lo análisis, obviando mencionar que utilizan enzimas transgénicos para estos análisis. La decoración de esta lista se hace a base de imágenes trucadas con el Photoshop, en plan dar mucho miedo. Mi favorita es la del tomate con un embrión humano, más que nada porque me recuerda a las campañas contra el aborto de los grupos ultraconservadores (de quien parecen haber copiado parte de la estrategia y con los que coinciden en la campaña en contra de las células madre).

¿Hazte oír? ¿Opus Dei? no, Guia Roja y Verde de Greenpeace

El director histórico de la campaña de Greenpeace en contra de los transgénicos era Juan Felipe Carrasco. Ingeniero agrónomo que empezó trabajando en Sesostris, multinacional del grupo Louis Dreyfuss dedicada a la importación de cereales y semillas. Empresa que también importaba transgénicos en la época en la que Juan Felipe trabajaba allí, así que podemos decir que primero vivió de importar transgénicos y luego de criticarlos, solo se cambió de multinacional. Ente sus logros, al margen de disfrazarse de árbol y salir de la tierra (ver imagen), un patético manifiesto titulado “quitad las manos de nuestro arroz” en abril del 2009, que en medio de la tecnofobia y tontería que destilaba se podía leer “muchos países han prohibido la investigación con arroz”. En su momento escribí a Greenpeace pidiendo la lista de países que han prohibido la experimentación, esta es la hora que contesten. El manifiesto ha desaparecido de la web de Greenpeace (¿por vergüenza?) pero se puede encontrar las numerosas webs que lo rebotaron. En el 2010 en el congreso interuniversitario de estudiantes de biotecnología celebrado en Tarragona tuvo la osadía de decir que los transgénicos estaban provocando el declive de la mariposa monarca, leyenda urbana asociada al maíz Bt, refutada desde hace más de 10 años. Se ve que se pensaba que estaba ante un público entregado y no ante uno con una formación digna, por lo que hizo un ridículo espantoso. Curiosamente a pesar de que España es el principal productor europeo de maíz Bt se acaban de detectar colonias de mariposa monarca procedentes de Estados Unidos, así que el maíz Bt más que matarla parece que las atrae. Esta mariposa es la única cosa que le va bien a la monarquía, a pesar de que lo mejor para los intereses de Greenpeace sería que desapareciera y así justificaría su política y sus denuncias falsas.

Juan Felipe Carrasco saliendo de la tierra.

Seguiremos en breve hablando del actual encargado de la campaña antitransgénicos de Greenpeace españa Luis Ferreirim, ya os adelanto que hasta donde he podido investigar no le han plantado y todavía no le riegan.

Materializables

Publicado por el 23 abr, 2012 en Tercera Cultura | 4 comentarios

Autor: Félix Ares

Objetos físicos que se materializan a partir de software trasmitido por internet.
El sitio de internet «The Pirate Bay» acaba de introducir una nueva categoría en sus archivos: «physibles». La terminación ble/bles en inglés la mayor parte de las veces tiene el mismo significado que en castellano, por ejemplo, computable significa que se puede computar, objetable que se puede objetar. Physi es el principio de la palabra physical que significa físico, material. Así que la traducción de physible podría ser la de materializable.

 

La nueva categoría tiene archivos de software que cuando se ejecutan en una impresora 3-D se crean los objetos físicos.

Las impresoras 3-D son impresoras similares a las de chorro de tinta que a base de múltiples pasadas son capaces de crear una escultura tridimensional, bien en ceras blandas, en nailon relativamente duro, o en metales duros si después de depositar los polvos metálicos se endurecen con un láser.

Hace años estas impresoras eran muy caras pero hoy en día están al alcance de cualquier aficionado. Las más baratas cuestan unos mil euros.

Hasta ahora fabricar una pieza un poco complicada era muy costoso y no merecía la pena, pero ahora se abre todo un abanico de posibilidades. Alguien hace la pieza compleja y quien la necesite se la descarga de internet y la materializa en su impresora.

Pocas dudas hay de que las posibilidades que da para los negocios legales son inmensas. Por poner solo un ejemplo, para los aficionados al aeromodelismo, se descargan el modelo de avión y se lo imprimen todo menos el motor y la electrónica. Los vendedores de motores y de radiocontroles pueden dar como valor añadido un montón de archivos para que el cliente imprima el avión que más le guste o para que estudie distintos tipos de alas o de alerones, o una geometría distinta del morro, o…

Claro que automáticamente surgen los problemas de derechos de autor. ¿Qué ocurre si alguien con un escáner de tres dimensiones obtiene el archivo que permite materializar una pieza patentada? ¿Qué hay que hacer si alguien escanea una escultura famosa y permite hacer copias?

Hay casos en los que la respuesta es bastante obvia. A mí me gustan algunos «moais» de la Isla de Pascua. Me encantaría tener copias. No hay problema pues no hay derechos de autor. Pero, ¿qué ocurre si lo que quiero es una copia de «la persistencia de la memoria» de Dalí?

Linux es un sistema operativo abierto, que todo el mundo puede usar y modificar. Espero que haya «materializables» abiertos que todos puedan usar y modificar libremente.

Daniel Everett: El lenguaje es una herramienta, no un instinto

Publicado por el 20 abr, 2012 en Divulgación Científica, General, Libros / Reseñas, Tercera Cultura | 7 comentarios

Foto: "Dan Everett Books"

Daniel Everett es un lingüista conocido en particular por sus estudios con tribus amazónicas, a las que llegó como misionero evangélico y de las que salió convertido en ateo en los años ochenta del siglo pasado. Su ateísmo le salió caro: un divorcio y la pérdida de contacto con su familia, que sólo recientemente parece haber aceptado “su punto de vista sobre el teísmo”.

Las posiciones teóricas de Everett también son molestas para la parte dominante de la lingüistica contemporánea, deudora de los trabajos de Noam Chomsky. Su trabajo sobre las “limitaciones culturales de la gramática y la cognición de los Pirahâ” ha causado tanta controversia y malestar como para que el mismo Chomsky le calificase como un “charlatán”. Juan Uriagereka también se ha mostrado crítico con su trabajo en las páginas de este mismo digital: “Everett es un genio de las relaciones públicas”.

Probablemente Everett sabe cómo vender libros, pero sus ideas no carecen totalmente de respaldo. En EDGE ha publicado un ensayo sobre la recursión en los Pirahâ y Patricia S. Churchland ha calificado su último libro como “algo más que una obra maestra”. La posición que defiende, en síntesis “el lenguaje como instrumento”, es una tendencia viva. En Philosophical transactions de la Royal Society le dedican últimamente todo un número a este asunto.

Everett es ante todo un escéptico con la idea del lenguaje como “instinto” y con algunas de las conclusiones más audaces de la llamada “biolinguïstica”. Según él, no debemos entender el lenguaje como un instinto, sino como un artefacto cultural, una herramienta similar al arco y las flechas que encontramos en los más dispares enclaves culturales.

No existe un “gen del lenguaje”

Un gen del lenguaje es tan improbable como un gen para construir arcos y flechas, o para creer en Dios, o para practicar brujería. De hecho, los seres humanos son célebres por el numero relativamente pequeño de genes (tenemos menos que el maíz): “No es la posesión de genes altamente específicos lo que nos hace más inteligentes que una mazorca. Más bien, es la sinfonía de estos genes trabajando juntos lo que hace que los bebes humanos sean más brillantes que una bonita mazorca en la cosecha de la mañana”.

Todo lo más, alguno de nuestros genes (el caso más conocido es el FOXP2) resulta estar particularmente implicado en el lenguaje. El gen FOXP2 parece ser muy importante para que el lenguaje funcione correctamente, pero no es un gen “del lenguaje”. Del mismo modo, tampoco podemos considerar que las áreas de Brocca o de Wernicke, que tradicionalmente se ha pensado que desempeñan funciones relacionadas con el lenguaje, sean específicas suyas.

El lenguaje es en definitivas cuentas un comportamiento complejo (como la religión, o la política), y no hay evidencias que enlacen genes individuales, ni áreas concretas del cerebro, con comportamientos tan complejos de la naturaleza humana. De hecho, sabemos también que la selección cultural ha desempeñado un papel fundamental en nuestra especie: la cultura también “selecciona” genes.

El lenguaje como artefacto

Pero si no hay unos principios universales e innatos ¿Por qué entonces los niños adquieren tan rápidamente un lenguaje? ¿Por qué parece que es más difícil aprender un lenguaje después de la pubertad? ¿Y por qué hay similitudes tan sorprendentes entre los distintos lenguajes? Aparentemente todas estas preguntas invitan a proporcionar una respuesta nativista, a acariciar el “logos” de Platón y quizás a proponer una “lengua de la humanidad” bajo los dispares parámetros culturales. Y sin embargo existen alternativas.

Uno de los problemas con las hipótesis nativistas del lenguaje es que no tienen en cuenta que el “significado” precede al lenguaje, tal como han defendido James R. Hurford o Susan Carey. Es decir, el pensamiento es anterior al lenguaje (Paul Churchland hace una defensa muy elocuente de este punto en su último libro). Todos los componentes que participan en el lenguaje sirven de hecho a otras funciones no lingüisticas: la boca sirve para morder o comer además de para hablar, la lengua sirve para lamer, y las áreas del cerebro relacionadas con el lenguaje, por ejemplo, con la sintaxis, también participan en otras actividades motoras o cognitivas.

Según Everett, la clave podriá radicar en una tendencia natural previa, una especie de “instinto de interactuar” anterior al uso del lenguaje y que empezaría por el útero materno y la relación entre madres e hijos. Este “instinto” social aparece también en los demás primates que poseen formas de comunicación social, pero ninguna de las habilidades del lenguaje humano más complejas. Ninguna otra especie de primates siente la intensa necesidad de comunicarse característica del homo sapiens.

Si leísteis hace años, como yo, El instinto del lenguaje de Steven Pinker, este nuevo libro de Everett, Language. The cultural tool (que yo sepa aún no traducido al español), probablemente servirá para tener una visión más equilibrada del debate. Especialmente habida cuenta de que las aproximaciones nativistas se han extendido mucho últimamente en la cultura científica: el “instinto moral” de Marc Hauser o el “instinto de la fe” de Nicholas Wade son dos ejemplos significativos.

Según Everett los instintos no funcionan como creen Pinker y cia. Los instintos poseen una curva cero de aprendizaje, y no difieren en los individuos sanos. En contraste, cosas como el arte, la religión o el lenguaje, todos los comportamientos complejos de la naturaleza humana, poseen claramente curvas de aprendizaje y diferentes niveles de pericia. Nunca dejamos de aprender un lenguaje, un arte, una religión o una filosofía. Los lenguajes podrían ser artefactos culturales, no instintos.

Foto: Dan Everett Books

Determinismo, libre albedrío y responsabilidad

Publicado por el 18 abr, 2012 en Tercera Cultura | 7 comentarios

autor: Miquel, en http://memoriasdesoledad.blogspot.com.es

  • “Dios no juega a los dados con el Universo”
    A. Einstein
  • “Las decisiones de la mente no son nada salvo deseos, que varían según varias disposiciones puntuales”.
  • “No hay en la mente un absoluto libre albedrío, pero la mente es determinada por el desear esto o aquello, por una causa determinada a su vez por otra causa, y ésta a su vez por otra causa, y así hasta el infinito.”
  • “Los Hombres se creen libres porque ellos son conscientes de sus voluntades y deseos, pero son ignorantes de las causas por las cuales ellos son llevados al deseo y a la esperanza
    Spinoza

A. EinsteinLos seres humanos tenemos una sensación clara del “yo” que nos distingue del resto de seres que nos rodean. Esta  experiencia se acompaña de la sensación de agencia, esto es, nos hacer sentir causantes de gran parte de los  movimientos de nuestros músculos esqueléticos. Por esta razón, los libros de texto presentan con el nombre de sistema nervioso voluntario a los nervios relacionados con estos músculos.

Junto a esta experiencia del “yo” el ser humano ha desarrollado lo que los científicos llaman Teoria de la Mente, que consiste en que somos capaces de atribuir las mismas sensaciones  que nosotros experimentamos a  nuestros semejantes. Estas experiencias, relacionadas con las “neuronas espejo”, hacen comprensibles los sentimientos de empatía que tenemos con nuestros congéneres. Nuestro cerebro desarrolló a lo largo de la evolución la vivencia de que existen fenómenos naturales que ocurren en nuestro alrededor y procesos mentales que ocurren en nuestro interior , es decir, procesos físicos y procesos psíquicos  o dicho de otra forma, mundo y mente . Resulta muy complicado la admisión por parte de los humanos de que la mente es el resultado de procesos cerebrales que están formados por materia similar a la del resto del Universo. De ahí que se pueda considerar al ser humano dualista por naturaleza, y por esto el dualismo mente-cuerpo que popularizó Descartes hace unos cuantos siglos continúa instalado en la actualidad en la mayoría de los humanos.

Por tanto, nuestro cerebro experimenta de manera muy clara la vivencia subjetiva de un “yo” que habita en nuestro cuerpo y que elige la conducta que ha de ejecutar en cada momento. Percibimos que cada una de estas decisiones del “yo” no está causada por ningún acontecimiento físico previo, es decir, carece de causa alguna. De esta manera, queda intacta la idea de que el ser humano posee un alma libre y responsable que puede construir su futuro. Esta idea constituye la base más sólida sobre la que se construyen las más diversas ideologías o religiones , y que por tanto,  es muy difícil de erosionar.  Pero el intento de entender la naturaleza humana por parte de las neurociencias cuestiona muchas de nuestras creencias, por mas contrarias que nos parezcan a nuestras intuiciones más básicas.

La comprensión de la naturaleza humana en términos biológicos siempre ha provocado fuertes rechazos porque puede eliminar el concepto de responsabilidad personal en que se basa nuestro sistema judicial. Parece como si atribuir las causas de nuestras conductas  al cerebro, los genes, o  nuestro pasado evolutivo, aparte de  ofrecer una visión monstruosa de nuestra condición deja al individuo sin responsabilidad en sus acciones. ¿Cómo podemos culpar a alguien si esta obedeciendo ciegamente a un gen determinado o a una amígdala reducida?. ¿Cómo castigar a alguien cuya conducta está dirigida por la actividad de sus lóbulos frontales, los cuales tienen una pequeña deficiencia que le impiden actuar de otra forma? Incluso la tradición psiquiátrica tiende a distinguir entre enfermedades neurológicas o del cerebro, consideradas como trágicas patologías que corroen la responsabilidad de sus portadores, y enfermedades psicológicas, o mentales, donde las alteraciones emocionales o mentales son errores de los individuos y  culpables de una supuesta falta de fuerza de voluntad. El caso más famoso en este sentido es el de Phineas Gage, pero también están bien documentadas conductas muy violentas relacionadas con pequeños tumores en determinados lugares del cerebro (Antonio Damasio o Eagleman ilustran este y otros casos de manera muy detallada).

Hay que hacer notar que, si estas conductas muy lejanas de la normalidad están determinadas por nuestra química cerebral, no hay razón para suponer que las conductas consideradas más comunes no estén asimismo causadas por nuestro cerebro.

Este determinismo biológico tiene su contrapartida en el determinismo medioambiental. También podemos encontrar un amplio abanico de causas  que pueden llevar a disminuir  la responsabilidad de nuestras conductas.  Si la causa recae en los medios de comunicación, los malos tratos en la infancia, la educación por parte de los padres parece que se exculpe al individuo de sus actos.  Siempre puede uno excusarse en las sustancias que tomó la madre durante el embarazo, las malas compañías, los malos vicios, o en general a la sociedad como máximo responsable de nuestro comportamiento . La lista de atenuantes que los abogados defensores intentan buscar  puede llevar a situaciones graciosas como la que apareció en una viñeta en el New Yorker hace unos años refiriéndose a las declaraciones de una mujer defendiéndose  ante un tribunal : “Es verdad, mi marido me pegaba por la infancia que tuvo; pero yo le maté por la que tuve yo”.

En realidad, podemos decir que nuestros actos tienen una causa, mal si no la tuvieran, que a su vez depende de una gran complejidad de factores biológicos o ambientales en compleja interacción. Lo que no podemos aceptar es que nuestra conducta no tiene ninguna causa, o que la causa es un extraño ente inmaterial que influye sobre los procesos cerebrales y que ningún neurocientífico ha encontrado la mas mínima señal.

En mi opinión, esta contraposición entre determinismos, encuadrada en el  anticuado debate entre naturaleza y educación, o entre biología y cultura quedaría anulado por una postura determinista cosmológica. Es decir, la conducta de los animales es el resultado de una programa genético que se construye a sí mismo en continua interacción con su entorno, y de acuerdo con las mismas leyes que rigen la materia. Las causas de nuestros actos dependen de un programa genético que contenían el ovulo y el espermatozoide en el momento de la fecundación. Este programa genético puede modificarse a lo largo de la trayectoria vital del organismo por los estímulos procedentes del entorno. De acuerdo con la psicología evolucionista, la conducta humana es el resultado del complejo engranaje molecular de nuestro cerebro, diseñado por la evolución para solucionar los problemas de nuestros ancestros. Para los humanos tener un cerebro muy grande que le permita una flexibilidad y una gran variabilidad en sus respuestas supone una buena ventaja a la hora de aprovecharse de una desigual distribución de los recursos.

Pero la diferencia respecto de un gusano o una rana es de grado, no de sustancia, y por esto, actuamos movidos por deseos que regulan nuestro cuerpo y que están sometidos a las mismas leyes deterministas que gobiernan el cosmos.

Por tanto el concepto de libre albedrío es una pura ficción cerebral. Tenemos grados de libertad para hacer lo que queramos (más que una ameba, un ratón o un gorila), pero ninguna libertad para querer lo que queramos. Esto no es contradictorio con que nuestra experiencia de decidir es un proceso real con la función de seleccionar diferentes opciones de acuerdo con las previsibles consecuencias que tienen para el organismo; y por tanto nos debemos comportar “como si” tuviéramos libre albedrio, aunque éste sea una ilusión del cerebro. Nos sentimos agentes de la conducta aunque tan solo se trata de conocimiento o conciencia de haber realizado dicha conducta. Es decir, el cerebro actúa y luego cree que ha sido su voluntad la impulsora de dicha acción, o lo que es lo mismo, actúa y luego cree que hubiera podido elegir otra opción;  aunque ya no es posible retroceder.  Los defensores de una supuesta libertad humana incondicional rechazan el hecho de que nuestras acciones estén causadas  pero no se me ocurre como puede mejorar la cosa si la causa es el puro azar o no existe ninguna causa.

Esta visión acarrea para algunos el problema de la negación de la responsabilidad personal, pero en mi opinión no quedará reducida sino definitivamente clarificada. La explicación de una conducta no significa la exculpación de la misma.  En la actualidad se intenta evitar la responsabilidad de las conductas muy desviadas bajo una gran diversidad de explicaciones  biológicas o ambientalistas que inundan de confusión el debate.

La responsabilidad moral se convertiría así en una convención, es decir, en una serie de normas que garanticen y optimicen el bien común. El castigo cumple la función de apartar a los transgresores del resto de la sociedad y de servir de ejemplo para disuadir de conductas similares al resto de ciudadanos. Las conductas que se consideren merecedoras de un castigo, por desviarse de las normas establecidas por la sociedad para mejorar la convivencia,  responsabilizaran, por definición,  a los individuos que realicen dichas conductas.

Así pues, el determinismo cosmológico y la inexistencia del libre albedrío no están reñidos con el concepto de responsabilidad, y el concepto de defensa social es el punto central de esa moralidad basada en convenciones. Es la única salida que se me ocurre a la famosa guillotina de Hume:  “ o bien nuestros actos están determinados, en cuyo caso no somos responsables de ellos, o bien, son el resultado de sucesos aleatorios, en cuyo caso no somos responsables de ellos”.

Stradivarius y doble ciego

Publicado por el 15 abr, 2012 en Tercera Cultura | 2 comentarios

Autor: Félix Ares

En una prueba doble ciego los violines Stradivarius suenan peor que los modernos

Stradivarius y doble ciegoEs un hecho constatado multitud de veces que nuestras perspectivas influyen en el modo en el que percibimos el mundo exterior. Por ejemplo, si creemos firmemente que una medicina nos va a curar, muchas veces sentiremos mejora aunque esta no haga nada. Para evitar esos sesgos el método científico desarrolló lo que se llama método del doble ciego. En el caso de nuevas medicinas, el doble ciego consiste en hacer dos grupos de personas, a uno se le da la nueva medicina, a otro algo inocuo y se analiza la evolución de los dos grupos. Ni los médicos ni los enfermos saben a qué grupo están estudiando. De ahí lo de doble.

Todos sabemos que los violines Stradivarius y los Guarneri suenan mejor que un violín de alta calidad moderno. Al menos eso creíamos los legos en música y los propios violinistas. Pero nunca se había hecho una prueba doblemente ciego para verificarlo. Esto ha cambiado, en un artículo publicado en la revista «PNAS» el 3 de enero de 2012, un equipo de investigadores liderado por Claudia Fritz, ha hecho un experimento doblemente ciego con veintiún violinistas con experiencia, que hacían de interpretes y de jueces. Los violines se asignaban al azar. La madera vieja huele distinta de la nueva, para evitar que  su detección por la nariz a todos se les roció con un perfume, la prueba se hizo en penumbra y los músicos tenían gafas oscuras. Ni los violinistas ni los jueces sabían qué violín tocaba qué persona. Y empezó la prueba. Los resultados fueron: 1) los violines que más gustaban eran los nuevos, 2) los considerados peores fueron los Stradivarius, 3) la calidad percibida no correspondía a su precio y 4) la mayoría de los expertos no fueron capaces de decir si el instrumento era nuevo o viejo.

Así que estamos ante un ejemplo de que saber que el violín es un Stradivarius hace que nos suene mucho mejor.

Alguna vez he escrito que los Stradivarius sonaban mejor porque estaban construidos con madera de una época muy fría, la llamada «pequeña edad de hielo», y que eso hizo que los anillos de los árboles fueran más pequeños pues al hacer frío cada año crecían poco. Anillos pequeños implican madera más dura y eso pudo cambiar el sonido y hacer que los Stradivarius fueran extraordinarios.

Me equivocaba. No cabe duda que tanto los Stradivarius, hechos por la familia Stradivari, como los fabricados por la familia Guarneri, son extraordinarios; muy buenos; pero nada que no puedan reproducir los actuales fabricantes de violines de calidad.

El placer de explicar. Por qué las explicaciones tienen valor en sí mismas

Publicado por el 13 abr, 2012 en Divulgación Científica, Tercera Cultura | 3 comentarios

Todos buscamos explicaciones. Desde los niños a los científicos, todas las personas sienten la necesidad de dar sentido a lo que sucede, y habitualmente les gusta entender lo que pasa. La explicación ha sido un tema central de la psicología social y de la filosofía de la ciencia, y últimamente también lo es de la psicología cognitiva.

Tania Lombrozo es una psicóloga cognitiva de la universidad de California, en Berkeley, cuyo trabajo se centra en el estudio de la explicación, la causación, la representación conceptual y el razonamiento moral. Sus trabajos intentan “naturalizar” una teoría de la explicación, poniendo en continuidad las ideas filosóficas con los hallazgos empíricos, y tendiendo puentes entre las explicaciones corrientes y las cientificas.

Tradicionalmente, los filósofos han distinguido entre el valor intrínseco de las explicaciones, quizás arraigado en la “insaciable curiosidad intelectual del hombre”, para decirlo con Hempel, o en el sentido de admiración descubierto ya por Aristóteles, y su valor instrumental, orientado a hacer buenas predicciones y producir beneficios ”prácticos y tangibles” en el mundo. Entender el valor instrumental de explicar, sin embargo, parece más sencillo que entender por qué explicar tendría que tener un valor intrínseco.

Los científicos son como niños

Las teorías científicas y las explicaciones comunes de la vida diaria son corrientes paralelas, según una aproximación reciente al tema conocida como “de personas a científicos”. Entre la cognición corriente y las más sofisticadas teorías científicas existiría una continuidad, dado que “los niños y los adultos, como los científicos, construyen cuerpos de conocimiento más o menos coherentes con respecto a ciertos fenómenos, donde estos cuerpos de creencias son sensibles a las evidencias empíricas y sirven a la función crítica de proporcionar predicciones, explicaciones y control”.

Existe, de hecho, una íntima relación entre la explicación y el aprendizaje. Explicar favorece el aprendizaje, al ayudar a destacar unos rasgos del mundo con preferencia a otros y permitir establecer categorías con más precisión. Incluso explicarse algo a uno mismo, el llamado “efecto de auto-explicación” favorece el entendimiento de los niños y adultos, tal y como han documentado estudios en laboratorio y en el ámbito de la propia escuela.

“Orgasmos” cognitivos

Para entender el valor intrínseco de explicar, la “satisfacción fenomenológica que acompaña a la explicación”, Alison Gopnik ha llegado a sugerir que la explicación es como un orgasmo: “tal como un orgasmo proporciona un incentivo para tomar parte en una actividad con un claro valor (evolucionista) instrumental para el individuo (esto es, la reproducción), del mismo modo la satisfacción de la explicación proporciona un incentivo para tomar parte en el tipo de formación teórica que permite a los individuos orientarse en un mundo causalmente complejo”.

Una explicación alternativa, o quizás complementaria, es que las personas quizás poseemos una especial aversión a la incertidumbre y en definitivas cuentas a dejar las cosas sin explicar.  El valor de la coherencia es un fenómeno constatado desde el nivel del mismo lenguaje, tal como defiende Daniel Everett en su último libro sobre el lenguaje. Las explicaciones, no importa si son infantiles o científicas, deben responder al requisito de la coherencia: “Los humanos necesitan coherencia. No hablo meramente de encontrar un sentido a nuestras vidas, asegurándonos de que nuestro pasado, presente y futuro son coherentes. Sino también en las historias que contamos.” No importa lo falsos que sean los mitos, historias o teorías, lo más importante para nuestras expectativas cognitivas naturales es que sean coherentes. Dar un momentáneo esquinazo al caos es algo que probablemente nos satisface, y ayuda a entender la recurrencia de mitos, religiones, teorías conspirativas, suposiciones científicas erróneas…

El lado oscuro de las explicaciones

La contrapartida de explicar, como ha mostrado elocuentemente Daniel Kahneman, es que ni la coherencia de las historias que contamos ni la satisfacción subjetiva que proporcionan, por “orgiástica” que sea, garantiza que sean válidas. Dado que explicar se asienta siempre en un sistema de creencias previas (o incluso de leyes previas, en el caso de teorías científicas), la necesidad de explicar puede llevar a conclusiones apresuradas, excesivamente conservadoras o drásticamente erróneas. Cualquier explicación favorece unas causas a expensas de otras.

Por otra parte, un campo creciente de estudios muestra que los individuos tienen una “meta-cognicion” muy pobre sobre sus propias explicaciones. Las personas corrientes, habitualmente, no somos conscientes de las limitaciones inherentes a nuestras propias explicaciones. Y ser un especialista , o un técnico, no siempre es una garantía de éxito. Rozenblit y Keil (2002) [PDF] hablan incluso de una “ilusión de profundidad explicativa”: las personas sobreestimamos sistemáticamente lo profundas que son nuestras explicaciones. Y, lo que es peor, el sentimiento de entendimiento que se sigue de una explicación tampoco parece ser una guía fiable de estar en lo cierto (Trout, 2008) [PDF].


Referencias: Lombrozo, T. (2011) The Instrumental Value of Explanations. Philosophy Compass, 34(3), 2906-551. DOI: 10.1111/j.1747-9991.2011.00413.x

Lombrozo, T. (2006) The structure and function of explanations. Trends in Cognitive Sciences, 99(10), 73-470. DOI: 10.1016/j.tics.2006.08.004

El contador de cuerpos

Publicado por el 10 abr, 2012 en Tercera Cultura | 5 comentarios

Traducción de Iñigo Valverde – Original: http://www.foreignpolicy.com/articles/2012/02/27/the_body_counter?page=full

Les presentamos a Patrick Ball, un estadístico que se ha pasado la vida disipando las nieblas de la guerra.

Patrick BallLa coreografía de una típica investigación sobre cuestiones de los derechos humanos es la siguiente: los investigadores entrevistan a las víctimas y a los testigos y redactan su informe. Los medios de comunicación locales lo cubren – si pueden. A continuación, los acusados lo refutan; no quedan más que unos relatos, es la palabra de unos contra la de otros, las fuentes son parciales, las pruebas manipuladas. Y se estanca la cuestión.

El 13 de marzo de 2002, en un tribunal de La Haya, ocurrió algo diferente. En el juicio de Slobodan Milosevic, Patrick Ball, un estadístico americano, presentó unos números para apoyar la alegación de que Milosevic había seguido una política deliberada de limpieza étnica. «Hemos encontrado pruebas coherentes con la hipótesis de que las fuerzas yugoslavas obligaron a la gente a abandonar sus casas, expulsaron por la fuerza a los albano-kosovares de sus hogares, y causaron muertes de personas «, dijo Ball.

Ball hizo esta declaración en el interrogatorio al que lo sometió el abogado de Milosevic, que era, de hecho, el propio Milosevic. Durante dos días, el ex presidente de Yugoslavia utilizó su tiempo atacando a Ball con que las pruebas habían sido manipuladas. Las organizaciones que habían recopilado los datos eran anti-serbias y trataban de «galvanizar la opinión pública y amplificar la hostilidad contra los serbios y el deseo de castigarlos», insistió Milosevic. La guerra es el caos, dijo – ¿cómo se puede ser tan simplista como para pensar que los resultados tienen una sola causa? ¿Por qué no analiza usted los flujos de refugiados serbios? ¿Cómo puede usted, alguien que se describe a sí mismo como partidario del Derecho internacional, considerarse objetivo?

Estos eran los argumentos habituales. Rara vez convencen, pero su mera existencia establece un contrapeso a las acusaciones formuladas por grupos de derechos humanos: una persona que se plantea argumentar que es su palabra contra la nuestra tiene ahí algo a lo que agarrarse. Pero Ball ofreció unas pruebas mucho más consistentes que las entrevistas con los albaneses que habían huido de sus aldeas. Había obtenido los registros de las fronteras de Kosovo donde se reseñaban las personas que se habían ido y cuándo lo habían hecho. Tenía datos de las exhumaciones y una gran cantidad de información acerca de los desplazados. En dos palabras, tenía números.

Tradicionalmente, el trabajo en relación con los derechos humanos venía siendo más parecido al periodismo de investigación, pero Ball es el más influyente de un pequeño grupo de personas a escala global que ven el mundo no en términos de palabras, sino de cifras. Su especialidad es la aplicación de un análisis cuantitativo a montañas de anécdotas, la búsqueda de correlaciones que organicen un relato de forma que no pueda refutarse fácilmente.

¿Podrían haberse efectuado los movimientos de refugiados al azar? No, dijo Ball. Había analizado también las muertes de los kosovares y encontró que ambos fenómenos se habían producido en los mismos momentos y en los mismos lugares – desplazamientos y muertes, mano a mano. «Recuerdo muy bien el momento de asombro que sentí cuando vi el gráfico de muertes por primera vez», dijo Ball a Milosevic. «Yo mismo pensé que había cometido algún error, al ver que la correlación era tan estrecha».

Algo había provocado los dos fenómenos, y Ball examinó tres posibilidades. En primer lugar, las oleadas de muertes y desplazamientos no ocurrieron durante o poco después de los bombardeos de la OTAN. Tampoco eran coherentes con las pautas de ataque de los grupos guerrilleros albaneses. Eran coherentes, sin embargo, con la tercera hipótesis: que las fuerzas serbias llevaban a cabo una campaña sistemática de asesinatos y expulsiones.

En su testimonio, Ball estaba haciendo algo con lo que otros trabajadores de derechos humanos sólo pueden fantasear: se enfrentó al acusado, lo puso frente a la evidencia, y lo vio rendir cuentas. A aquellas alturas, Milosevic, en sus cuatro guerras, había matado a unas 125.000 personas, más que nadie en Europa desde Stalin. Pero ahora el carnicero de los Balcanes se sentaba en una sala que parecía más bien un aula de un instituto de segunda enseñanza, con dos agentes de policía holandeses detrás de él y su celda esperándole al final de la sesión de cada día, con bravatas retóricas como única arma disponible contra los testimonios de Ball.

Milosevic murió antes de que finalizara el juicio. Ball volvió a Washington y luego pasó a Lima para trabajar para la Comisión de la Verdad y la Reconciliación del Perú – una de las docenas de comisiones de la verdad, tribunales y organismos de investigación donde sus métodos han cambiado nuestra comprensión de la guerra.

BALL tiene 46 años, corpulento, no muy alto y con barba, con gafas y el pelo de color castaño rojizo, que solía recogerse en una cola de caballo. Su actitud es más bien la de un friki entrañable. Pero es también un apóstol, un verdadero creyente en la necesidad de tener una visión real de la historia, de decir la verdad sobre el sufrimiento y la muerte. Como todos los apóstoles, puede impacientarse con las personas que no comparten sus prioridades; su dificultad para aguantar a los tontos (un grupo extenso, al parecer) no siempre es una ayuda para su causa.

Ball no tenía intención de convertirse en un estadístico de los derechos humanos. En la década de los 80, antes de hacer el doctorado en la Universidad de Michigan, se involucró en las protestas contra la intervención de la administración Reagan en América Central. Hizo algo más que protestar – se dirigió a Matagalpa, Nicaragua, a la cosecha de café, en la época sandinista. Odiaba el trabajo y en su lugar construyó una base de datos en la cooperativa cafetera para llevar el control del inventario.

En 1991 aplicó por primera vez las estadísticas a los derechos humanos en El Salvador. La Comisión de la Verdad de Naciones Unidas para El Salvador se creó en un momento favorable – la nueva práctica de recopilar información exhaustiva sobre los abusos contra los derechos humanos coincidió con ciertos avances en materia de computación que permitieron a personas que disponían de ordenadores personales corrientes organizar y utilizar los datos. Los estadísticos habían hecho ya mucho trabajo sobre los derechos humanos – personas como William Seltzer, ex jefe de estadística de las Naciones Unidas, y Herb Spirer, profesor y mentor de casi todo el mundo en ese campo hoy en día, había ayudado a las organizaciones elegir el método de análisis correcto, había desarrollado maneras de clasificar a los países en varios índices, y había descubierto la manera de medir el cumplimiento de los tratados internacionales. Pero el problema de contar y clasificar testimonios masivos era algo nuevo.

Mientras trabajaba para un grupo salvadoreño de derechos humanos, Ball empezó a presentar resúmenes estadísticos de los datos que el grupo había recogido. La Comisión de la Verdad se dio cuenta y acabó utilizando el modelo de Ball. Uno de sus análisis presentaba las muertes por períodos y por unidades militares. Las muertes podrían ser comparadas con una lista de oficiales, por lo que es posible identificar a los militares responsables de la mayor parte de las brutalidades.

«El Salvador significó un salto cualitativo de los casos particulares, aun cuando sean muy numerosos, a las pruebas masivas», dice Ball. «La comisión salvadoreña fue la primera que entendió que un gran número de voces podían hablar en el mismo sentido. Después de eso, cada comisión tendría que hacer algo en esa misma línea».

Desde la publicación en 1984 de “Nunca Más”, el informe de la Comisión Nacional Argentina sobre la Desaparición de Personas – la primera comisión de la verdad moderna – se ha ido recolectando información sobre el número de víctimas de la represión política y de la guerra de forma habitual y a una escala masiva. Las comisiones de la verdad desde Chile a Timor Oriental han reunido los testimonios de decenas de miles de personas, un proceso diseñado para devolver la dignidad a las víctimas, identificar los delitos que exigen justicia o restitución y escribir la historia de lo ocurrido – para tratar, en la medida de lo posible, de clausurar el pasado. Hoy en día, la tecnología se ha acelerado y ha ampliado el proceso de información: las herramientas de correlación en colaboración abierta (crowdsourced) recolectan y analizan miles de mensajes de texto de personas que han presenciado actos de violencia. Con los teléfonos móviles, la gente corriente toma fotos y videos de las atrocidades, que se suben a la Red y se descargan y exhiben por todo el mundo.

Sin embargo, poseer un océano de testimonios no es lo mismo que saber la verdad. Por numerosos que sean los casos de los que nos enteramos, podrían no ser representativos del conjunto. Una comisión de la verdad puede inspirar desconfianza a un determinado grupo lingüístico o étnico, lo que significa que los miembros de éste no se presenten a testificar ante ella. Menos información en los medios sobre muertes en realidad podría significar un menor número de muertes – o también que hubiera habido intimidación a los periodistas para que se callaran. Los grupos de derechos humanos podrían registrar una disminución de la violencia debido a que los recortes presupuestarios les obligaran a despedir a la mitad de su equipo de recogida de datos. Puede haber violaciones que nunca salgan a la luz. Los videos grabados por los teléfonos móviles nos cuentan sólo lo que presenciaron personas con teléfonos móviles.

«Me inquietan igual que a todo el mundo los vídeos que veo tomados con teléfonos móviles de la primavera árabe», me dijo hace poco Ball. «Pero no olvidemos que la mayoría las violaciones de los derechos humanos se cometen en secreto – lejos de los móviles. Es fácil pensar que el mundo ha cambiado por completo porque ahora tenemos teléfonos móviles. Ha cambiado nuestra comprensión de la violencia pública – pero la mayor parte de la violencia no es pública».

Para Ball, fueron estas incógnitas las que le llevaron a su más importante descubrimiento: «Puedes hacer estadísticas precisas sobre lo que tienes en tu base de datos», dice, «y al mismo tiempo puedes estar completamente equivocado respecto al mundo».

Pero necesitamos entender el mundo. Esas bases de datos gigantescas y esas tecnologías avanzadas nos incitan ahora a esperar respuestas, y respuestas lo más precisas posibles. Periodistas, políticos, activistas y ciudadanos, todos piden números y etiquetas. ¿Cuántos muertos ha habido en Darfur o en Libia? ¿Cuántas violaciones en el Congo? ¿Quién fue más letal en Perú, el ejército o la guerrilla? ¿Hubo depuración étnica en Kosovo? ¿Y genocidio en Guatemala? Las respuestas pueden inclinar la balanza entre la intervención y no intervención, entre la justicia y el olvido. Configuran la forma en que los supervivientes de catástrofes designan nuevos gobiernos. Afirman o desmienten las historias que cada cultura cuenta de sí misma.

Hay dos maneras de conseguir esas respuestas. Muy a menudo hay que conjeturar. Pero esas conjeturas se basan en datos que nos pueden inducir a graves errores. La gente aún se toma en serio las respuestas, dice Ball, «a pesar de que los fundamentos científicos puede no ser mejores que en los años 60 y 70, cuando estábamos empezando. No sólo es fácil malinterpretar estas cifras; es mucho más fácil malinterpretarlos que interpretarlos correctamente. Miras el gráfico y dices: “Ahora sé lo que ocurrió en Liberia”. No, usted sabe lo que les pasó a las personas que hablaron con la Comisión de la Verdad en Liberia. Puede decir que hubo al menos 100 personas muertas. Pero no puede decir que hubo cinco en el norte y cinco en el sur y empezar a perfilar pautas con eso».

Lo que Ball ha conseguido ha sido proporcionar una alternativa a las conjeturas: con métodos estadísticos y el tipo correcto de datos, puede hacer que lo que sabemos nos descubra lo que no sabemos. Ha enseñado a los grupos de derechos humanos, comisiones de la verdad y tribunales internacionales cómo tomar una colección de miles de testimonios y extraer de ellos la magnitud y las pautas de violencia – para disipar las nieblas de la guerra.

A finales de 1990, Ball hacía el trayecto entre Ciudad del Cabo y Ciudad de Guatemala, trabajando para las comisiones de la verdad de Sudáfrica y de Guatemala, inmerso en las distintas atrocidades de apartheid y de genocidio cometidas por dos regímenes muy diferentes. Luego, en junio de 1998, cuando el personal de la Comisión de la Verdad y Reconciliación de Sudáfrica estaba redactando su informe, la comisionada Mary Burton le planteó lo que debería haber sido una simple pregunta: ¿Cuántos asesinatos había habido en la Sudáfrica del apartheid?

«Según los testimonios, 20.000», dijo Ball.

«No», dijo Burton. «¿Cuántos eran en total?»

Oh–oh, pensó Ball. «No tengo una respuesta», le dijo a Burton.

La Comisión se había visto obstaculizada por un boicot del Partido de la Libertad Inkatha, el segundo mayor grupo político negro, que había impedido a sus miembros testificar debido a que sus líderes pensaron que la Comisión se inclinaba a favor del Congreso Nacional Africano, con el que había combatido en una larga guerra a fuego lento. Pero justo antes de la fecha límite para la caducidad de los testimonios, Inkatha levantó la prohibición y sus miembros se dieron a conocer. Esos testimonios reescribieron por completo las conclusiones de la Comisión, ya que prestaron testimonio unos 8.000 miembros de Inkatha – alrededor de un tercio del total que había obtenido la Comisión. ¿Que habría pasado, preguntó Ball, si Inkatha no se hubiera decidido a participar? «¿Se presenta la gente realmente en proporción a lo que han sufrido?», se preguntaba.

Mientras hablaba con Burton, se dio cuenta: no sabemos lo que no sabemos. «No era suficiente tener mucho cuidado con las pruebas que teníamos», dice. «Teníamos que trascender de lo que la gente estaba dispuesta a decirnos. Piensas: ¿qué puedo corregir de los datos que llegan? Pero el gran problema es: ¿qué es lo que hay de cierto en el mundo?»

En la Universidad de Michigan, donde Ball estudió sociología en un intenso programa que daba mucha importancia a la estadística, la solución a estos problemas parecía clara: salir a tomar muestras aleatorias. Eliges hogares al azar y los estudias en relación con lo que pasó. Puesto que la muestra es representativa de la totalidad, puedes extrapolar fácilmente los resultados a un universo más amplio. Pero esto no era algo que los grupos de derechos humanos supieran hacer, y habría tenido un precio prohibitivo. No era la respuesta.

Trabajando con los datos de Guatemala, Ball encontró la respuesta. Llamó a Fritz Scheuren, un estadístico con una larga historia de participación en proyectos de derechos humanos. Scheuren recordó Ball que en el siglo XIX se había inventado una solución a este mismo problema para contabilizar la vida silvestre. «Si quieres saber cuántos peces hay en un estanque, puedes vaciar el estanque y contarlos», explicó Scheuren, «pero entonces todos estarán muertos. Pero también puedes pescarlos, etiquetar los peces capturados, y devolverlos al agua. Después vas otro día y pescas de nuevo. Cuentas la cantidad de peces que capturaste el primer día, y los del segundo día, y el número de coincidencias».

El número de coincidencias es clave. Te dice cuál es la representatividad de una muestra. A partir de las coincidencias, se puede calcular cuántos peces hay en todo el estanque. (La fórmula concreta es la siguiente: multiplicar el número de peces capturados el primer día por el número de peces capturados el segundo día. Dividir el total por la coincidencia. El resultado es aproximadamente la cantidad de peces que hay realmente en el estanque). Se hace con más precisión si se pesca no sólo dos veces, sino muchas más – entonces se pueden medir las coincidencias entre cada par de días.

En Guatemala hubo tres colecciones diferentes de testimonios de derechos humanos acerca de lo que había sucedido en el país durante la larga y sangrienta guerra civil: de la Comisión de la Verdad de las Naciones Unidas, de la Comisión de la Verdad de la Iglesia Católica, y del Centro Internacional de Investigación sobre Derechos Humanos, una organización que trabaja con los grupos de derechos humanos de Guatemala. Cuando trabajaba para la Comisión de la Verdad oficial, Ball utilizaba el mismo método que el de conteo de peces, llamado estimación de sistemas múltiples (ESM), para comparar las tres bases de datos. Constató que durante el tiempo cubierto por el mandato de la Comisión, de 1978 a 1996, hubo 132.000 homicidios (sin contar los desaparecidos), y que las fuerzas gubernamentales cometieron el 95,4 por ciento de ellos. También fue capaz de desglosar los homicidios en función de la etnia de las víctimas. Entre 1981 y 1983, el 8 por ciento de la población no indígena de la región ixil fue asesinada; en la región de Rabinal, la cifra fue de alrededor del 2 por ciento. En ambas regiones, sin embargo, los asesinados de la población maya superaban el 40 por ciento.

Era la primera vez que se aplicaba la ESM a las labores de derechos humanos. «Presentó números que proporcionaban una base sólida y nítida para elaborar las conclusiones de la Comisión sobre la violencia, de una manera que no es posible obtener de los testimonios», dice Kate Doyle, analista del National Security Archive de la George Washington University, quien ha trabajado extensivamente con archivos en Guatemala.

Los números de las ESM no eran la única prueba de genocidio, ni siquiera la más importante. El genocidio está determinado por la intención. La Comisión encontró que el ejército guatemalteco y las patrullas civiles que éste apoyaba llevaron a cabo un plan coordinado de masacres contra la población maya para «matar el mayor número posible de miembros del grupo», pretextando que los mayas eran aliados naturales de la guerrilla. Los datos de Ball reforzaban poderosamente esa conclusión. El 26 de febrero de 1999, los comisionados presentaron su informe, «Memoria del Silencio», que llegó a la conclusión de que el Estado había cometido «actos de genocidio» contra la población indígena del país.

Lo que aprendió Ball en Sudáfrica y Guatemala – la desconexión entre lo que sucede en una base de datos y lo que sucede en el mundo, y cómo conseguir vincularlos – ha sido la base de su trabajo desde entonces. Dos semanas después de salir de Guatemala, viajó a Kosovo, por cuenta de la American Association for the Advancement of Science (asociación americana para el progreso de la ciencia – AAAS), en colaboración con Human Rights Watch y otros grupos para cuantificar la destrucción de la cuarta guerra de Milosevic.

Ahí tuvo lugar una de las aventuras más disparatadas de Ball. Él y su intérprete, Ilir Gocaj, habían ido a salvar datos – los registros que mantenían los guardias fronterizos de las familias albano-kosovares que cruzaron a Albania. Los registros, listas manuscritas del número de personas de cada grupo que sale, lugar de residencia, y nombre del cabeza de familia – eran pruebas de cuándo había huido la gente de determinados pueblos. Era la clave para averiguar por qué habían huido.

El problema era que el puesto fronterizo se había trasladado. Un ataque serbio había empujado a los guardias albaneses a unos 500 metros al interior de Albania. Los registros, sin embargo, estaban todavía en el antiguo puesto fronterizo abandonado. Los guardias albaneses dijeron a Ball y Gocaj que la caminata de 500 metros era muy peligrosa: Unos disparos habían herido gravemente a un periodista unos días antes, y el área todavía estaba bajo fuego de francotiradores.

Pero Ball necesitaba esos registros. Él y Gocaj organizaron un rescate, a pie – muy lentamente – hasta el viejo puesto fronterizo, una casita blanca. Los registros estaban esparcidos por el suelo, mezclados con trozos de madera y vidrios rotos. Ball y Gocaj recogieron los papeles y se replegaron lentamente. Cuando regresaron, se encontraron con las risas de los guardias. Resultaba que los guardias de fronteras de Albania se habían convertido en la única fuente de cigarrillos para los serbios del lado kosovar de la frontera. Un ataque de los serbios era impensable, porque podría cortar el suministro de nicotina. Ball y Gocaj habían sido objeto de una broma.

Más tarde, cuando Ball dio una conferencia en La Haya sobre sus hallazgos, alguien de la oficina del fiscal se lo llevó aparte. «¿Quiere usted testificar?» –le preguntó. Sólo si se le permitía reforzar su investigación, dijo Ball, que necesitaba más datos. La fiscalía le dio información sobre las actividades de la guerrilla albanesa, informes de exhumaciones y relaciones de desplazados. Con una ESM de cuatro vías – de hecho “contando los peces” en cuatro días diferentes – Ball encontró que las migraciones y los asesinatos de albaneses de Kosovo coincidían exactamente, lo que sugería que los dos fenómenos tenían la misma causa. Esa causa no procedía de los bombardeos de la OTAN o de la actividad de la guerrilla albanesa, que no coincidían ni en la fecha ni en el lugar. Sólo quedaban los ataques de las fuerzas serbias.

Había otra prueba devastadora. Milosevic había ordenado un cese de la actividad militar de los serbios en la noche del 6 de abril de 1999, para celebrar la Pascua ortodoxa. Al instante, el número de asesinatos y de personas que huían se redujo casi a cero. Sin embargo, la OTAN y la guerrilla albanesa no habían interrumpido las hostilidades. Dos días después, cuando las fuerzas serbias volvieron a la tarea, también se reanudaron los asesinatos y las huidas de albano-kosovares. «La evidencia estadística es coherente con la hipótesis de que las fuerzas yugoslavas llevaron a cabo una campaña sistemática de asesinatos y expulsiones», concluyó Ball.

«Ball refutó directamente la afirmación de Milosevic de que las personas huían de las bombas de [la OTAN]», recuerda Fred Abrahams, investigador de Human Rights Watch que trabajaba con Ball. «Desmanteló directamente uno de los principales argumentos de la defensa de Milosevic».

EN LA AAAS, Ball había estado trabajando como solista. Pero en 2002, con una beca de la Fundación MacArthur, empezó a levantar el Human Rights Data Analysis Group (grupo de análisis de datos de derechos humanos – HRDAG), y en 2003 trasladó el grupo, cruzando todo el país, a Benetech, una organización de tecnología sin fines de lucro y de interés público con sede en Palo Alto, California. Algunos años antes, Ball había trabajado con Benetech para crear Martus, un software de cifrado de datos diseñado para proteger los datos sobre derechos humanos y evitar que sean robados y utilizados para volver a perseguir a las víctimas y testigos. Ball es ahora vicepresidente y director científico del HRDAG, que cuenta con un equipo de 14 activos empleados y asesores. Han diseñado bases de datos y realizado análisis estadísticos para docenas de comisiones de la verdad, misiones de Naciones Unidas, tribunales internacionales y grupos de derechos humanos. El propio Ball ha trabajado en Chad, Colombia, República Democrática del Congo, Timor Oriental, Etiopía, Perú, Sierra Leona y Sri Lanka, entre otros países.

Desde que Ball reunió aquella primera base de datos, se ha vuelto obligatorio hacer análisis estadísticos elaborados; una comisión de la verdad no podría prescindir de ese análisis desde el momento mismo de registrar los datos con lápiz y papel. Pero, tal como lo ve Ball, los números correctos se ven amenazados por todas partes – por parte de los oficiales del ejército descontentos con lo que revelan, de los grupos de derechos humanos que hacen afirmaciones irresponsables, e incluso de los defensores de esas mismas tecnologías que están revolucionando el campo de los derechos humanos. A menudo son los defensores de los recortes presupuestarios que tratan de escatimar en la recopilación de datos, los que representan el mayor obstáculo para hacer las cosas bien. Los recursos son limitados, y a pesar de los ataques a veces furibundos de Ball a los miembros de la Comisión de la Verdad que están en desacuerdo con él, la recogida de datos es sólo una de las cosas que tienen que hacer las comisiones de la verdad.

En algunos lugares, el desafío viene de los grupos políticos que tratan de desacreditar las conclusiones de las comisiones de la verdad. En Perú, por ejemplo, el trabajo de Ball trastocó completamente lo que los peruanos creían saber acerca de la guerra de su país contra las guerrillas de Sendero Luminoso. Ball se unió a la Comisión de la Verdad y la Reconciliación de ese país un poco tarde. «Nuestra idea inicial era hacer un simple recuento», recuerda Daniel Manrique, que estaba a cargo de la base de datos de la Comisión. «Pero leímos el análisis de Patrick en Guatemala y sabíamos lo que estaba haciendo en Kosovo, y nos dijimos que eso era lo que necesitábamos». Ball combinó seis colecciones de datos, llegando a conclusiones que fueron muy controvertidas. Un hallazgo sorprendente fue que la guerrilla de Sendero Luminoso había cometido no aproximadamente un 3 por ciento de las atrocidades, como se había pensado, sino alrededor del 50 por ciento. Además, el informe situó el número de asesinatos en 69.000 – casi el triple de las estimaciones anteriores. La enorme brecha era una prueba de la desconexión entre el Perú blanco y la sierra indígena – el 75 por ciento de las víctimas no hablaban español como primera lengua. ¿Cómo podían haber asesinado a tantos indígenas peruanos sin que la élite del Perú se hubiera enterado? El racismo implícito hizo que muchos de ellos se sintieran incómodos.

Aunque la proporción de muertes causadas por el Estado era menor de lo que se pensaba, el número absoluto resultó ser más alto. Las fuerzas del Estado y de la derecha acusaron a la Comisión de inventar cifras para desacreditar a los militares peruanos, crítica que tuvo un eco interminable en los ámbitos universitarios y en los medios de comunicación,  y de manera muy elocuente tras las armas que empuñaban. Aún hoy, hay miembros de la comisión que siguen recibiendo amenazas de muerte.

Las comisiones de la verdad son las organizaciones que se toman los datos más en serio, pero distan de ser los únicos grupos que cuantifican las cuestiones de derechos humanos. Y fuera de las comisiones de la verdad, todo vale.

El International Rescue Committee (comité internacional de rescate – IRC), por ejemplo, ha estudiado periódicamente el número de muertes en el conflicto del Congo; su último estudio, en enero de 2008, dio la cifra de 5,4 millones de muertes entre 1998 y 2007. Ahí ha quedado fijado el número para el Congo – se puede ver en todas partes. El IRC las encontró estimando cuántas muertes se habrían producido normalmente, y luego contando las muertes reales y calculando el exceso. Ball piensa que la estimación básica de referencia que hacía el grupo de un número «normal» de muertes era demasiado baja. – si se corrige la estimación, dice, se obtiene una cifra de exceso de mortalidad que representa sólo un tercio o un cuarto del total. «Pero no vamos a seguir haciendo eternamente estimaciones sobre el Congo», asegura. Otros grupos, como Human Rights Watch, han adoptado unas cifras más moderadas, piensa Ball; el grupo, dado tradicionalmente al estilo de investigación «¿A quién han torturado aquí que hable inglés?» como me dijo el director del programa, Iain Levine, ha utilizado métodos cuantitativos siempre que ha sido posible, desde los resultados de Ball en Kosovo. Y Ball elogia esa actitud. «Cuando no saben los números, lo dicen», dice.

Es fácil entender números “a bulto”. Casi todos los reportajes periodísticos, discursos políticos o comunicados de prensa de una campaña sobre una guerra exigen la cláusula obligatoria «un conflicto que se ha cobrado  ______  vidas hasta ahora». Los grupos de apoyo son propensos a llenar el espacio en blanco con el mayor número que puedan citar como verosímil. Los periodistas largan a veces cantidades grandes para inflar la importancia de la historia. Muy a menudo, sueltan cualquier número que haya utilizado alguien vagamente autorizado.

Las dos revoluciones más violentas de la primavera árabe – en Libia y Siria – son ejemplos muy claros. En Libia, dice Ball, hay medios para obtener una estimación rigurosa, pero «no me tomaría muy en serio» las cifras que se están difundiendo hoy en día. En un momento dado, el embajador de EE.UU. en Libia daba una cantidad de 30.000 muertos, triplicando lo que afirmaban los líderes rebeldes libios. «¿Hemos visto más de 1.000 cadáveres?» pregunta Ball. «Cuando veo cifras como 10.000 a 30.000, sin ninguna prueba, lo que me imagino es que en general sólo quieren decir «muchos»«. La oposición victoriosa al final dijo que había habido unos 50.000 muertos en los combates.

En Siria, las cifras parecen ser mucho más precisas. La Comisión General de la Revolución Siria , que afirma hablar en nombre de la oposición, dice que entre marzo de 2011 y enero de 2012, han muerto 6.275 personas. Pero ¿es exacto ese número? «En este momento, me dijo Ball, esa cifra es probablemente demasiado alta – existe una duplicación inadvertida. Y demasiado baja, porque hay un montón de gente que se queda fuera de ella». Hay una tendencia a contar las muertes producidas durante las manifestaciones, mientras que las que ocurren fuera de ellas no suelen contarse. «Las fuerzas de seguridad pueden cazar gente por la noche, y esas víctimas pueden no quedar documentadas», señala. «La violencia a posteriori puede terminar matando a más gente que la violencia en las manifestaciones».

En 2007, la Coalición Save Darfur, una organización de defensa de los derechos humanos, recibió un aviso de urgencia del Consejo de Asuntos Públicos europeo-sudanés, con sede en Londres, un grupo alineado con el gobierno de Sudán. Save Darfur había estado poniendo anuncios a toda página en los que publicaba que han sido asesinadas 400.000 personas en Darfur. El Consejo presentó una denuncia a la Advertising Standards Authority (autoridad británica de estándares de publicidad) alegando que la cifra era falsa. Los reguladores resolvieron que Save Darfur debía haber presentado esa cantidad no como un hecho, sino como una opinión.

Fue muy incómodo para Save Darfur. Censurada por un tribunal a instancias del gobierno de Sudán – «¿Cuánto peor puede ser aún?» , dice Ball (piensa que 100.000 muertes sea probablemente más verosímil). «Un grupo de derechos humanos nunca debe perder un desafío factual. Nuestra legitimidad moral depende de que siempre le digamos la verdad al poder. La gente que quiere deshacerse de nosotros dice que lo único que hacemos es dar la brasa…. Si llegan a tener razón cuando dicen eso, vamos a tener problemas».

En los últimos años, el acontecimiento más importante en la información sobre derechos humanos – y el último campo de batalla de Ball – por encima de lo que los datos nos puedan decir – ha sido el aumento del autoservicio. El 3 de enero de 2008, Ory Okolloh, una abogada keniata, contó en su blog un angustioso viaje a través de la violencia post-electoral de Nairobi, atravesando batallas entre policías y civiles. «¿No hay ningún tecnómano por ahí que se atreva a hacer una mashup (aplicación híbrida para combinar fuentes de datos) que muestre donde se está produciendo la violencia y la destrucción con Google Maps?» –preguntaba.

Así comenzó Ushahidi, que en swahili significa «testimonio», una plataforma para la recogida y análisis de textos, tweets y correos electrónicos enviados por las masas. Ushahidi es ahora omnipresente. Se utiliza en todo el mundo para investigar no sólo violaciones de los derechos humanos, sino también daños por terremotos, árboles derribados por tormentas de nieve, violencia electoral, escaseces de medicamentos o incluso las mejores hamburguesas de Estados Unidos. En todos los medios de comunicación hay las mismas historias agitadas al respecto. La Atlantic Review la designó una de las mejores ideas del año en 2010, calificándola de «Zelig de los desastres de 2010».

Ushahidi es, obviamente, de enorme utilidad para los primeros respondedores. Sin embargo, sus defensores piensan que puede dar más juego: algo mucho más cercano a una base de datos en tiempo real de la catástrofe en acción. Christina Corbane del Centro Común de Investigación de la Comisión Europea analizó informes Ushahidi cruzándolos con mapas de satélite de los daños en edificios tras el terremoto de Haití de 2010 y llegó a la conclusión de que los datos obtenidos en abierto estaban en perfecta correlación con el daño. Ushahidi los analizó: Patrick Meier, director de correlación de crisis de Ushahidi, argumentó que, aunque la información sobre la crisis enviada por las masas no es representativa y ha sido considerada irrelevante para un análisis estadístico serio, el trabajo de Corbane demuestra lo contrario. Estos datos compartidos pueden servir para predecir la distribución espacial de los daños estructurales en Port–au–Prince», escribió en su blog  iRevolution.

Para Ball, es el ejemplo perfecto de por qué tener sólo algunos datos es peor que nada. Cuando analizó las cifras de Haití, se encontró con que los mensajes de texto y los daños de los edificios estaban relacionados con otra cosa – la ubicación de los mismos edificios. Un mapa de los edificios habría sido una guía más fiel de los daños que un mapa que integrase los datos de Ushahidi, dice Ball. Ushahidi no es el equivalente de una muestra aleatoria, argumenta. «Confunde la imagen». En una mordaz entrada de blog, Meier respondió que Benetech debía atenerse a los derechos humanos. Defendió sus números, pero al final, se conformó con un conjunto más restringido de reclamaciones.

La plataforma SwiftRiver de Ushahidi, ahora en fase beta, permite la validación en convocatoria abierta de datos obtenidos también en convocatoria abierta, la forma en que las búsquedas de Google validan la información en Internet. Ball, sin embargo, advierte que Ushahidi está cometiendo el mismo error en que él había caído: preocuparse por si los datos son ciertos, pero no por si reflejan con exactitud los acontecimientos. Ushahidi es aún menos representativo en la correlación de la violencia, dice; al menos, en los terremotos no hay mala gente que intenta impedir que la gente comunique información. Con las violaciones de los derechos humanos, es perfectamente plausible que lo único que vayas a oír de las peores zonas sea el silencio. «Muéstrame un vídeo de alguien en una cámara de tortura», dice. «Aparte de Abu Ghraib, no hay muchos».

La tecnología nos tienta con promesas de rendición de cuentas inmediata y de conocimiento omnisciente. Aunque los conflictos anteriores eran opacos, sin duda ahora la tecnología nos ha dado las herramientas necesarias para saber. Pero hay que fijarse en lo que «sabemos» del violento derrocamiento de Muammar Al–Gaddafi en Libia o de la hirviente guerra de clanes en Siria. No es muy diferente de lo que sabíamos de Argentina o de Sudáfrica.

Las medidas cuentan. La información sobre el número y las pautas de las atrocidades influyen en las decisiones acerca de dónde poner dinero, prestar apoyo político, enviar tropas. Afecta a los juicios acerca de quién es culpable, a quién ayudar, cómo reconstruir. «En el pasado, bastaba con llamar a un gran grupo de personas», dice Ball. «Interrogábamos a los expertos: Estás en el terreno – ¿mejora o empeora? Iba simplemente de lo que decían ‘observadores bien informados’, pero nadie se lo tomaba en serio. Ahora la gente sí que se lo toma en serio, y eso es un problema. La gente pide cifras, muchas cifras. Y les importa un comino de donde vengan».

El termostato planetario

Publicado por el 6 abr, 2012 en Tercera Cultura | 2 comentarios

autor: Félix Ares

El mecanismo por el que la Tierra se ha mantenido a la temperatura que permite la existencia de agua líquida.  Hay un mecanismo que ha permitido que la temperatura media de la superficie terrestre esté en el intervalo que permite la existencia de agua líquida. Dicho mecanismo se basa en que al aumentar la temperatura también lo hace la erosión de las rocas, cuyo calcio, al llegar al mar, estimula la creación de rocas calizas que secuestran el CO2 de la atmósfera.

Todas las estrellas similares a nuestro Sol, tienen una vida parecida. Empiezan siendo unas estrellas poco brillantes, y lentamente van aumentando su brillo, hasta que ya muy mayores se hacen gigantescas…

Nuestra estrella tiene unos 5 000 millones de años y nuestra Tierra unos 4 500. Lo sorprendente es que cuando la Tierra nació el sol era un 30% menos brillante que ahora, sin embargo, prácticamente durante toda su historia la temperatura de la superficie ha sido bastante constante, permaneciendo casi siempre en la zona que permite agua líquida: es decir, mayor de cero grados y menor de cien. De ese modo la vida terrestre, uno de cuyos requerimientos es la existencia de agua líquida, pudo desarrollarse.

Cuando todos estos datos se dieron por contrastados, entre los científicos surgió una pregunta: ¿cómo es posible que cuando la Tierra era joven no fuera una bola de hielo? Debemos tener en cuenta que del Sol recibía un 30% menos de energía. En 1981 se publicaba un artículo cuyo autor principal era J. C. G. Walker en el que proponían que el que la Tierra se mantuviera en esas temperaturas era porque tenía un termostato. Ya sabemos que un termostato, por ejemplo el que tenemos en un equipo de aire acondicionado, mantiene la temperatura estable. El termostato de la Tierra era tremendamente complicado y se basaba en dos ingredientes principales: la tectónica de placas (el movimiento de los continentes) y el llamado ciclo carbonato-silicato que lo que hace es quitar y poner CO2 en la atmósfera. Veamos las ideas clave de su funcionamiento. Cuando la Tierra era muy joven y el Sol brillaba poco, lo que permitió que la Tierra no fuera un bloque de hielo es que tenía una gran concentración de CO2 en la atmósfera. Como muy bien sabe, el CO2 es el gas de efecto invernadero que está produciendo el calentamiento global. Mucho gas, mucho calor. Poco gas, mucho frío.

La atmósfera está recibiendo permanente un aporte de CO2 procedente de los volcanes.

Walker, Hays y Kasting se dieron cuenta de algo muy importante: que al aumentar la temperatura aumenta la erosión. Un 95% de la corteza terrestre está formada por silicatos, cuya erosión aumenta con la temperatura. Los silicatos, además de Silicio, como su nombre sugiere, también tienen otros elementos tales como magnesio o calcio. Que no se nos olvide este último: calcio. Con la erosión parte del calcio se libera y va al mar.

Vayamos al mar. En el suelo oceánico es habitual que se formen rocas calizas, bien por reacciones químicas a la adecuada temperatura y presión, bien por las conchas de los seres vivos. El nombre de caliza sugiera que uno de sus componentes es el calcio y es cierto. Para que se forme la roca se necesita calcio y carbono; el carbono puede obtenerse del CO2 de la atmósfera; hay abundancia de él. No es el elemento limitante. El elemento que limita la cantidad de caliza que se produce es el calcio. Si hay calcio se produce caliza.

Al producirse la caliza, se consume CO2. Pero recordemos que si aumenta la temperatura de la superficie, aumenta la erosión y aumenta la cantidad de calcio que llega al mar. Es decir, que al aumentar la temperatura se crea más caliza y esta absorbe más cantidad de CO2. Es decir, al aumentar la temperatura se inician los mecanismos que hacen disminuir el contenido de CO2 de la atmósfera y al hacerlo, el efecto invernadero es menor y la temperatura decrece.

Aquí está el termostato: al aumentar la temperatura aumenta la erosión, que aumenta la cantidad de calcio disponible para crear caliza, que disminuye el CO2 de la atmósfera y por lo tanto disminuye la temperatura.

Por el contrario, si la temperatura es muy fría, hay poca erosión, hay poco calcio disponible y el CO2 no se secuestra en la caliza. Y como los volcanes aportan una cantidad constante de CO2 la temperatura de la Tierra crece.

Tenemos un buen termostato.

La Tierra vista desde el Apollo 17. Gentileza NASA

La Tierra vista desde el Apollo 17. Gentileza NASA

Termostato y CO2

En estos momentos todos somos conscientes de que el aumento de temperatura en la Tierra es uno de los mayores problemas a los que nos enfrentamos. Podríamos pensar que al aumentar la temperatura, aumentara la erosión que llevase el calcio al mar y que allí se secuestraría el CO2 en nuevas rocas calizas. Y no nos equivocaríamos. Pero si no hiciéramos algo para atajar el problema cometeríamos un grave error.

El termostato de la Tierra funcionará, pero demasiado tarde. El problema lo tenemos para los próximos 50-100 años y el termostato terrestre funciona en plazos de millones de años, muchos millones de años.

No debemos hacernos ilusiones. El termostato funciona, pero no nos sirve de nada para solucionar los problemas actuales. Tenemos que hacer algo para evitar que el contenido de CO2 de la atmósfera siga creciendo. Hoy la concentración de CO2 está en el orden de las 380 partes por millón. Los datos paleontológicos nos dicen que al llegar a las 1 000 partes por millón el daño para la vida en la Tierra –incluyéndonos a nosotros– es brutal. Estaríamos ante una de las mayores extinciones de la historia de la Tierra.

Venus. Un planeta que es un horno. En eso se convertiría la Tierra sin su termostato. Gentileza NASA.

Venus. Un planeta que es un horno. En eso se convertiría la Tierra sin su termostato. Gentileza NASA.

Erosión de la caliza

La cáscara de huevo no es nada más que caliza. Vamos a ver que al descomponerse desprende CO2.

Necesitamos un huevo, un vaso y vinagre.

En el vaso ponemos el huevo y echamos suficiente vinagre para que quede totalmente sumergido. Recuerda que el vinagre es un ácido.

Unos minutos después veremos que toda la cáscara está rodeada de burbujas de distinto tamaño. Cuando el vinagre reacciona con la caliza se produce CO2.

Lo mismo ocurriría si en vez de poner un huevo pusiéramos un trozo de caliza. Pero hemos creído que un huevo era más fácil de conseguir.

Uno de los problemas de la llamada «lluvia ácida» es que, como su nombre indica, es ácida; por lo tanto, cuando cae sobre las rocas calizas reacciona con ellas y se desprende  CO2, lo mismo que en nuestro experimento con la cáscara de huevo y el vinagre. Es decir, la lluvia ácida, producida por la contaminación atmosférica, entre otros muchos males también provoca un aumento de la concentración de dióxido de carbono en la atmósfera terrestre, contribuyendo al cambio climático y al aumento de la temperatura en nuestro planeta.

Un huevo metido en vinagre produce burbujas de CO2. Foto de eureka! Zientzia museoa.

Un huevo metido en vinagre produce burbujas de CO2. Foto de eureka! Zientzia museoa.

“Guardaos de toda avaricia”. Clase social y comportamiento ético

Publicado por el 4 abr, 2012 en Divulgación Científica, Tercera Cultura | 1 comentario

"Avaricia". Jheronimus Bosch

Paul K. Piff, del departamento de psicología de la universidad de California, junto con sus colaboradores, han publicado en PNAS un trabajo basado en estudios experimentales y naturalistas con una conclusión social inquietante: mayor clase social predice un peor comportamiento ético.

Aparentemente, la clave está en el individualismo y la codicia: los mayores recursos e independencia de los que disfrutan los individuos de clase más alta priorizan el bienestar propio sobre el de los demás, incrementando el riesgo de las conductas inmorales.

En los experimentos diseñados por Piff y sus colaboradores, los individuos de clase más alta tienden a comportarse peor mientras conducen, tienden a mentir más a sus empleados en una situación hipotética, y son más egoístas en los juegos económicos. Además, los resultados de estos estudios se mantienen descontando otras variables como sexo, raza o edad. Uno de los estudios muestra que cuando los investigadores priman las conductas egoístas, exponiendo los beneficios de la avaricia, los individuos de clase social baja se comportan de un modo tan inmoral como los de clase alta, ilustrando que la avaricia podría ser de hecho una clave importantes de las diferencias sociales en la conducta moral:

Aunque la avaricia podría ser una motivación para todas las personas a lo largo de sus vidas, argumentamos que los motivos egoístas no prevalecen del mismo modo en todos los estratos sociales. Tal como sugieren los hallazgos, la persecución del propio interés es un motivo más fundamentale entre la élite social, y el incremento de este deseo asociado con una mayor salud o status puede promover las malas conductas. La conducta inmoral en servicio del propio interés que favorece el rango y la salud del individuo podría ser una dinámica que se perpetúa a sí misma y que se exacerba aún más con las disparidades económicas en la sociedad, un tema fructífero para el futuro del estudio de la clase social.

Estas conclusiones son probablemente agradables para toda una tradición moral que siempre ha subrayado las virtudes de la austeridad social, e incluso de la pobreza, desde el cristianismo al socialismo obrero, pero Eric Schwitzgebel, conocido por sus trabajos que acreditan el peor comportamiento ético de los especialistas en ética, ha expuesto una interesante dosis de escepticismo sobre este trabajo. Sus objeciones se pueden resumir en tres grandes grupos:

1) Este tipo de trabajo satisface prejuicios populares sobre la avaricia y maldad de los ricos

Según Schwitzgebel, es razonable suponer que si Piff y sus colegas no hubieran encontrado ninguna diferencia en la conducta relacionada con la clase social, probablemente su trabajo no hubiera recibido tanta atención mediática. Incluso es posible que ni siquiera hubiera sido publicado. Dicho de un modo más franco, este estudio resulta “sexy” para prejuicios sociales, políticos y religiosos fuertemente arraigados.

2) Algunos experimentos favorecen el efecto del experimentador

Los efectos distorsionadores del experimentador sobre el experimento que realiza, especialmente en las ciencias sociales, pueden ser importantes incluso cuando la fuente de los prejuicios no resulta clara. En concreto, en el caso del experimento sobre los conductores, los investigadores podrían estar más predispuestos a identificar los vehículos con rasgos más lujosos y llamativos.

3) Los estudios basados en escenarios hipotéticos plantean grandes dudas

Es muy dudoso que los experimentos basados en situaciones hipotéticas (cómo se comportaría usted si…), dentro de un laboratorio, sirvan para medir la conducta moral de las personas en situaciones reales. Podrían estar midiendo más la franqueza y la hipocresía que la conducta real. Alguno de los estudios simplemente podría no estar bien diseñado para medir cómo se comporta realmente la gente.

Referencia: Piff PK, Stancato DM, Côté S, Mendoza-Denton R, & Keltner D. (2012) Higher social class predicts increased unethical behavior. Proceedings of the National Academy of Sciences of the United States of America, 109(11), 4086-91. PMID: 22371585

¿Están locos los chamanes?

Publicado por el 30 mar, 2012 en Divulgación Científica, Tercera Cultura | 10 comentarios

Un chamán esquimal

Las alucinaciones son experiencias sensoriales conscientes que aparentemente no tienen una fuente material exterior. Pero, como explica Tanya Marie Luhrmann, una antropóloga cultural de la universidad de Stanford, las alucinaciones no son sólo fenómenos biológicos. Están, de hecho, fuertemente moldeadas por el aprendizaje y por los modos culturales que dirigen la atención de los sentidos, lo que abre un camino de fecunda colaboración entre la biomedicina y las disciplinas humanistas.

Las alucinaciones, patológicas y no patológicas, parecen emerger a partir de sesgos perceptuales donde el “ruido cognitivo” es difícil de reparar. Pero estas experiencias, que pueden ocurrir de forma automática, son muy sensibles a las expectativas sociales y psicológicas: “Alguien que percibe un ruido ambiguo es más probable que lo interprete, alguien que necesita una respuesta es más probable que escuche una, y alguien que piensa que una respuesta puede ser escuchada, es más probable que la escuche”.

Algunas experiencias de percepción anómala que trascienden la cultura

Luhrmann distigue tres patrones diferentes de experiencias alucinatorias que trascienden la cultura: sobrecargas sensoriales (sensory overrides), alucinaciones psicóticas, y el llamado “patrón de Juana de Arco”.

Las sobrecargas sensoriales son eventos puntuales que tienen lugar cuando la mente exagera un estímulo existente, pero no poseen el fuerte impacto de las alucinaciones patológicas en la esquizofrenia. Este tipo de experiencias parecen estar asociadas a la “absorción” psicológica, es decir, la capacidad para dirigir la mente a un sólo objeto disminuyendo la atención por la corriente de estímulos corrientes.

Las alucinaciones asociadas a la psisosis, por el contrario, tienen a menudo un aspecto más terrible e incontrolable. Este patrón de escuchar voces, o de ser tomado por ideas fijas, es reconocido en todas partes como una enfermedad mental. La esquizofrenia no es un síndrome exclusivamente occidental como se pensaba románticamente (Jane Murphy, 1976) aunque, como explicaba Arthur Kleinman ya en 1989, su su curso varía mucho en las sociedades industriales o no industriales. Luhrmann puntualiza: “podría ser también cierto que, en un sentido profundo, la esquizofrenia sea una enfermedad de la modernidad. La combinación de voces perturbadoras, delirios, y disfunción cognitiva que asociamos a la esquizofrenia podrían haber surgido con la industrialización”.

El “patrón de Juana de Arco” se refiere aparentemente a aquellos casos raros en los que las alucinaciones son frecuentes, pero no tienen el poder perturbador de las alucinaciones psicóticas y no están asociadas con otros síntomas típicos. Podría ser el caso de figuras históricas conocidas como Santa Catalina, Santa Margarita, Moisés o Mahoma, Sócrates y la propia Juana de Arco. Según la historiadora Ann Taves, las grandes figuras de la religiones “axiales” habrían recibido sus supuestas “revelaciones” en estado de trance e intensa absorción. Sin embargo, un inconveniente con esta aproximación es que este tipo de diagnósticos son muy inciertos siglos después de haber ocurrido.

El papel decisivo de la expectación cutural

Las alucinaciones y otro tipo de anomalías de la percepción tienen una indudable base biológica, pero las condiciones en las que se esperan ciertas experiencias de este tipo son variables y específicas en cada cultura. La investigación reciente sugiere que esta expectación cultural realmente genera experiencias de sobrecarga sensorial no patológica. Un caso próximo (Kravel-Tovi y Bilu, 2008) es el del rabi ultraortodoxo Menachem Schneerson, muerto en 1994, y que provocó una sacudida mesiánica en sus seguidores, hasta el punto de experimentar episodios de aparición y “resurrección” del maestro que muestran asombrosos puntos en común con los episodios evangélicos.

Luhrmann enfatiza el papel del “entrenamiento espiritual” para estimular este tipo de experiencias. Las técnicas de meditación y atención, desde la meditación tibetana a las técnicas ignacianas, permiten dirigir la conciencia hacia la escucha de Dios, o de otros objetos espirituales, haciendo que de hecho sea mas probable que la voz de Dios sea escuchada dentro de la mente: “Aunque la literatura psicológica guarda silencio sobre si estas técnicas de entrentamiento generan sobrecargas sensoriales, la literatura etnográfica e histórica sugieren fuertemente que el cultivo de un sentido interior produce experiencias sensoriales que son interpretadas como signos de lo sobrenatural”.

Este entrenamiento puede dar lugar a resultados como los experimentados habitualmente por chamanes y otro tipo de figuras espirituales en las sociedades tradicionales. Para Luhrmann, la percepción de los chamanes como desequilibrados de hecho no se sostiene en la era de la psiquiatría biomédica:

En las décadas en las que el psicoanálisis dominaba la psiquiatría americana, cuando se entendía la esquizofrenia como una respuesta al rechazo materno, muchos antropólogos argumentaron que la vulnerabilidad que es experimentada como esquizofrenia en occidente podría transformarse en algo de valor en las sociedades no occidentales. Ahora que la psiquiatría ha entrado en la era biomédica y que la esquizofrenia se ha incluído entre las enfermeades psiquiátricas más debilitadoras, la mayoría debería mostrarse en desacuerdo con tales ideas. Los antropólogos han argumentado clara y eficazmente a favor de que la esquizofrenia es identificada como una enfermedad en todas las sociedades. Más aún, han señalado que las experiencias de los chamanes y de quienes cumplen con los criterios de la esquizofrenia, difieren de forma sistemática.

El sistema religioso en el que viven las personas moldea el tipo de experiencias anómalas que van a tener. Más concretamente, distintas culturas religiosas conceden distintos significados al rol de los sentidos. Los protestantes y los musulmanes, por ejemplo, enfatizan la escucha, mientras que los católicos y lo hinduístas privilegian la vista, y este tipo de diferencias culturales se reflejan en el tipo de experiencias alucinatorias que tienen las personas.

Las expectativas culturales son variables y de hecho la demanda de percepciones y experiencias anómalas puede descender dramáticamente, como muestra el caso de las sociedades modernas occidentales. En estas sociedaes, tras el desarrollo de lo que Charles Taylor llama un “yo protegido” (buffered self) el grado de desconfianza cultural ha aumentado significativamente frente a las experiencias sensoriales anómalas. En contraste con las sociedades chamánicas, los occidentales valoramos más que otras culturas una personalidad bien definida y bajo control, lo cual disminuye el valor de las experiencias relacionadas con trances o percepciones anómalas. Si bien estos supuestos cuturales no han dejado de ser cuestionados por movimientos contraculturales, por la llamada “New Age” o por la explosión reciente de un cristianismo más carismático y entusiasta.

Referencia: Luhrmann, T. M. (2011-10-21). Hallucinations and sensory overrides. Annual Review of Anthropology, 14(1), 174-85. DOI: 10.1146/annurev-anthro-081309-145819

El ciclo anual de la temperatura global

Publicado por el 30 mar, 2012 en Tercera Cultura | 4 comentarios

Fuente: http://antonuriarte.blogspot.com.es

Temperatura media global mensual Enero 2001 - Febrero 2012 * (click para verla más grande)

Temperatura media global mensual Enero 2001 - Febrero 2012 * (click para verla más grande)

La temperatura media global mensual (mar y continentes) varía entre unos 12.5 ºC en enero, que suele ser el mes más frío a escala global y unos 16.5 ºC en julio, que suele ser a escala global el mes más caluroso.
En enero, sin embargo, es verano en el hemisferio sur y en julio es invierno. Pero es el hemisferio norte el que domina en la fisonomía del ciclo global. Ocurre que el hemisferio sur es mucho más océanico que el hemisferio norte, por lo que las diferencias de temperatura estacionales son menos acusadas si se tienen en cuenta no sólo las temperaturas del aire sobre la superficie de los continentes sino también las temperaturas del agua de la superficie oceánica, que varían mucho menos.
A pesar del CO2 son ya bastantes ciclos, desde que comenzó el siglo, sin que el calentamiento global catastrófico aparezca por ninguna parte.
gráfica de elaboración propia con datos tomados de NCDC: Global Surface Temperature Anomalies

Luau hawaiano

Publicado por el 28 mar, 2012 en Tercera Cultura | 1 comentario

autor: Félix Ares

En la comida tradicional auténticamente hawaiana nada es nativo de Hawái.

Luau hawaianoProbablemente la simple mención de Hawái nos traiga a la mente imágenes de bailarinas con faldas de paja, collares de flores, pulseras que suenan al agitarlas y playas de arena dorada con hermosas palmeras. Si vamos a aquellas islas, es muy posible que participemos en una fiesta que termine con una comida –luau– en la que se incluyen nada más que alimentos tradicionales.

Los platos típicos contienen pollo cocido en leche de coco, envuelto en hojas jóvenes de taro. Probablemente también tenga boniatos, trozos de manzana de la montaña, poi –una salsa hecha con raíces de taro– y trozos de cerdo asados a la manera tradicional polinesia: en un agujero en el suelo en el que previamente se han introducido rocas calientes.

Probablemente pensemos en ello como una imagen de un paraíso natural apenas tocado por la mano del ser humano. Sin embargo, casi nada de lo que hemos descrito es nativo de Hawái. Para empezar, las bailarinas, los primeros habitantes llegaron entre el siglo IV y el VI de nuestra era. Así que difícilmente podemos considerarlos nativos de las islas. Son inmigrantes que procedían, probablemente, de las islas Marquesas. Llegaron en sus catamaranes de doble casco en los que llevaban animales y plantas que ellos comían o usaban y que podían transportar fácilmente. Entre otras cosas llevaron gallinas, cerdos, perros, cocos, taro e incluso las flores con las que hacen los collares: jazmín

He dicho cocos. La primera vez que estuve en la polinesia me sorprendieron algunos cocoteros que crecían inclinados hacia el agua. Primero pensé que era debido a que el viento dominante empujaba a las palmeras en esa dirección, pero después supe que estaba equivocado. Esa inclinación hacia el agua es para que los cocos caigan en ella y que las olas y el viento se las lleven a otras playas o incluso a otras islas. Los cocos resisten en agua salada en relativamente largos viajes. He dicho relativamente, esa es la palabra clave. Hay muchas pruebas de que los cocos no resisten el largo viaje que hay que realizar entre muchas islas del Pacífico. Es decir, que casi con seguridad, los cocoteros que vemos en las islas polinésicas y que hoy son casi uno de sus emblemas, realmente fueron transportados por los colonizadores humanos. Lo mismo ocurre con las gallinas, los cerdos, el taro y el jazmín. Todos ellos proceden del sureste de Asia.

Sin la aportación hecha por los primeros colonizadores humanos, las paradisíacas islas del Pacífico serían mucho menos paradisíacas.

Página 20 de 60« Primera...10...181920212223...304050...Última »