Entrevistas
comentarios 26

Raúl Arrabales: “la consciencia no es una propiedad de la materia, es simplemente un proceso”

Raúl Arrabales es profesor ayudante del departamento de informática de la universidad Carlos III de Madrid. Se ha especializado en la conciencia artificial y ha creado un sitio web dedicado exclusivamente a esta cuestión: www.Conscious-Robots.com

Aunque Arrabales es especialista en conciencia robótica, la entrevista se dirige fundamentalmente a entender la conciencia humana. Cita a Edelman y Tononi para explicar el origen neurológico de la conciencia y defiende la colaboración entre psicólogos y neurólogos para resolver esta cuestión. Caracteriza la conciencia como un proceso nada enigmático -no es preciso recurrir a nuevas leyes de la física cuántica para entenderlo- y considera que llegará el día en que se diseñarán máquinas conscientes. 

Roger Corcho
roger.corcho@terceracultura.net

Tercera Cultura: ¿Qué es la conciencia? ¿Cuál es la mejor teoría o el mejor modelo que a su tenor explica este fenómeno? ¿Se podrá llegar a materializar la experiencia subjetiva? ¿Cuál es el teórico que, según tu opinión, se ha aproximado mejor a entender este fenómeno?

Raúl Arrabales: En primer lugar, en español conviene distinguir entre dos acepciones distintas de la palabra conciencia. Por un lado esta palabra puede hacer referencia al conocimiento inmediato que tiene un ser de sí mismo, pero por otro lado también se usa para referirse a la capacidad que tenemos los humanos para juzgar el bien y el mal. En definitiva, la segunda acepción se refiere a la metafórica vocecita que nos recuerda que hemos obrado mal.

 Mi campo de investigación se centra en el primer concepto, el del auto-conocimiento. En realidad, la con*s*ciencia (yo prefiero utilizar la palabra con ese para referirme a este significado) engloba multitud de conceptos relacionados. Desde este punto de vista podríamos definir la consciencia como la integración efectiva de diversas capacidades mentales como la atención, los sentimientos, el sentido del yo, la toma de decisiones, la imaginación, la empatía, etc.

 En cuanto al estudio científico de la consciencia y los modelos que tratan de explicarla me gustaría resaltar dos puntos que considero interesantes: en primer lugar, creo que todavía no contamos con una teoría satisfactoria que dé una explicación completa de qué es y cómo se produce la consciencia. En segundo lugar, aunque existen diversas hipótesis que tratan de explicar la consciencia, no creo que sean enfoques excluyentes o que compitan unas con otras. En realidad cada una ataca aspectos específicos del fenómeno de la consciencia. Sí que es cierto, sin embargo, que hay algunas teorías que han tenido más éxito entre la comunidad científica que estudia la consciencia. En este punto podríamos distinguir entre dos tipos de teorías: las psicológicas y las neurológicas. Un ejemplo de teoría psicológica es la Teoría del Espacio de Trabajo Global de Baars. Esta teoría usa el símil de una obra de teatro para explicar la consciencia. En cualquier caso, esta explicación no deja de ser una metáfora, que ayuda a entender qué es la consciencia, pero no ofrece ninguna indicación sobre cómo se produce la misma en los humanos. Por el contrario, las teorías neurológicas se centran en buscar los mecanismos existentes en el sistema nervioso central que dan lugar a la consciencia. Un ejemplo relevante es la hipótesis del Núcleo Dinámico de Edelman y Tononi que trata de explicar cómo las conexiones neuronales del complejo talamocortical dan lugar a la percepción consciente. En general hay consenso entre los neurólogos acerca de que el complejo talamocortical es clave en la generación de la consciencia.

 Creo que la tendencia actual va en el sentido de aunar las explicaciones de alto nivel proporcionadas por las teorías psicológicas y las hipótesis sobre el sustrato neuronal de bajo nivel que sustenta las primeras. En definitiva, los estudios sobre la consciencia siempre implican un esfuerzo multidisciplinar y creo que no sería justo citar una teoría concreta como la más acertada. Es más bien la colaboración entre las disciplinas técnicas, teóricas y empíricas la que dará en último término una respuesta satisfactoria. En este aspecto no conviene olvidar que las ciencias de la computación e inteligencia artificial pueden ser un complemento clave en el esclarecimiento de algunos aspectos de la consciencia.

 En relación a la materialización de la experiencia subjetiva, supongo que te refieres a la construcción de máquinas que tengan experiencias subjetivas. Aquí la dificultad radica en que la característica principal de la experiencia subjetiva es que es algo no material. Desde mi punto de vista es un proceso. Con lo cual la pregunta pasaría a ser: ¿se puede reproducir de forma artificial el proceso que da lugar a la experiencia subjetiva? O en otras palabras, ¿podemos crear una mente no material en una máquina? Esta pregunta está relacionada con el llamado «problema duro» de la consciencia, que se refiere a la explicación en términos científicos de algo que no es físico y que no se puede demostrar a través del método científico clásico. Para poder estudiar cualquier fenómeno de forma científica es requisito imprescindible que se pueda observar en tercera persona. Sin embargo, la experiencia subjetiva escapa a esta restricción al no estar compuesta en sí misma por parámetros físicos. Sólo yo tengo acceso a mi experiencia subjetiva, un científico no puede observarla (observar un escáner cerebral no es observar la experiencia subjetiva), no tiene más remedio que creer lo que yo le cuento sobre mi experiencia subjetiva. Por suerte, nosotros mismos podemos actuar como científicos de la consciencia y observar nuestra propia experiencia subjetiva por medio de la introspección. Para responder finalmente a la pregunta sobre si es posible reproducir experiencias subjetivas no materiales en máquinas, creo que sí es posible. De hecho, los informáticos estamos acostumbrados a crear entidades no materiales a partir de hardware convencional, un programa al ejecutarse en un ordenador se convierte en un proceso que es algo no material pero que se produce gracias a un sustrato construido a base de chips de silicio.

TC: Parece que el modelo a la hora de diseñar robots es el propio ser humano. Se pretende que las máquinas sustituyan al ser humano en muchos ámbitos y que hagan de forma más eficiente su trabajo. ¿Habrá alguna vez robots conscientes?

 Desde luego el modelo a imitar en el campo de la robótica siempre ha sido el ser humano. Sin embargo, debido a que esto constituye un reto colosal, en muchas ocasiones se ha optado por rebajar temporalmente las ambiciones y tomar otros animales relativamente más simples como modelo. En la actualidad, gracias a los últimos avances técnicos que se han logrando parece que se intenta retomar el reto original de los robots humanoides, pero seguimos adoleciendo de un punto débil en las capacidades cognitivas de los mismos. Yo personalmente creo que sí seremos capaces de construir robots conscientes, aunque puede que la consciencia que experimenten estos robots no sea como la nuestra. De hecho, creo que la consciencia artificial de un robot debería adaptarse al tipo de trabajos que debe desempeñar. No se necesita experiencia subjetiva ni sentimientos para estar todo el día soldando piezas en una cadena de montaje, sin embargo estas capacidades pueden ser cruciales para un robot social como un asistente para personas mayores.

TC: El filósofo Víctor Gómez Pin afirma que la inteligencia artificial es un timo, que no hay tal cosa, mientras que neurólogos como Adolf Tobeña consideran que en la actualidad ya hay máquinas inteligentes. ¿Cuál es tu punto de vista? ¿Qué opinión te parece equivocada y qué le dirías para sacarle del error?

Hoy en día la expresión Inteligencia Artificial se usa para designar a un campo de investigación científica bien establecido, aunque con sólo 50 años de historia. Yo creo que el concepto de inteligencia se puede estudiar como la capacidad de un ser de sobrevivir y adaptarse al medio en el que se encuentra. Que la inteligencia como propiedad pueda existir en una máquina, yo no lo pongo en duda. Otra cosa es el nivel de inteligencia que puedan desarrollar diferentes entidades de acuerdo a su diseño. Cuando se habla de inteligencia y de consciencia, se suele hablar en términos absolutos, sin embargo, yo prefiero hablar de niveles cualitativos o de medidas cuantitativas (aunque establecer estas medidas sea complicado). En ese sentido, estoy de acuerdo en que hoy en día no tenemos máquinas con la misma inteligencia que un humano, pero sí tenemos máquinas con cierta inteligencia. Por ejemplo, creo que sí tenemos máquinas con una inteligencia comparable a la de un mosquito. Uno de los objetivos de la consciencia artificial es dotar a las máquinas de una inteligencia similar a la humana, para eso se necesitan capacidades como el sentido común y la imaginación. El problema es que hoy en día no tenemos máquinas que sean capaces de enfrentarse con éxitos a situaciones nuevas en entornos complejos, pero sí que tenemos implementaciones de aprendizaje automático que son capaces de aprender y generalizar en ciertos entornos controlados. Por ejemplo, tenemos sistemas de inteligencia artificial capaces de detectar automáticamente intrusiones malintencionadas en una red informática.

TC: ¿Qué significa el término computabilidad? ¿Cómo se utiliza esta noción para descartar la posibilidad de que una máquina llegue a ser consciente? ¿Piensas que será necesario recurrir a nuevas leyes de la naturaleza para entender la conciencia y, por tanto, diseñar ordenadores conscientes?

 Algunos investigadores equiparan el cerebro humano con un ordenador, porque en definitiva, al igual que un ordenador, toma unas entradas, las procesa (es decir, computa) y finalmente produce una salida. Sin embargo, un cerebro produce algo más que una mera salida física (comportamiento), también provoca lo que conocemos como experiencia subjetiva. El problema es que los zombis filosóficos son a priori posibles desde un punto de vista puramente científico. Un zombi es una persona que procesa las entradas de sus sentidos y produce un comportamiento adaptado, pero que no tiene experiencia subjetiva alguna. ¿Cómo podemos saber si una persona siente algo cuando grita de dolor? Podría ser simplemente una respuesta programada en su cerebro, como un robot al que programamos para que diga «¡ay!» cuando se acciona un sensor de presión. Lo que pasa normalmente cuando vemos a una persona gritar de dolor es que inferimos que siente dolor al igual que lo sentiríamos nosotros en la misma situación. Es decir, de alguna forma «nos ponemos en su lugar» y sentimos empatía. Sin embargo, si vemos un robot gritar de dolor, ¿cómo sabemos si realmente está sintiendo algo? En este caso no podemos establecer la analogía con nosotros mismos, pues se trata de una máquina totalmente distinta. ¿Significa esto que no es posible que un robot tenga experiencia subjetiva? La clave está en saber si la experiencia subjetiva se produce gracias al sustrato biológico específico que tienen los humanos. Algunos investigadores como Penrose y Hameroff argumentan que la experiencia subjetiva se produce gracias a fenómenos cuánticos que tienen lugar en los microtúbulos que hay en las neuronas. Si eso fuera cierto, sólo podríamos construir máquinas conscientes usando ordenadores cuánticos que reprodujeran ese tipo de procesos.

Yo particularmente creo que no es necesario recurrir a la mecánica cuántica para entender la consciencia y que podemos crear procesos conscientes en máquinas atendiendo a las leyes conocidas de la naturaleza. En definitiva yo veo la consciencia como un proceso específico en ejecución. Para mí la consciencia no es una propiedad de la materia, es simplemente un proceso.

TC: Han existido algunas corrientes como la Inteligencia Artificial fuerte que tienen puntos de vista extremos sobre la inteligencia. ¿Crees que tienen alguna base para sostener tales tesis?

 En realidad la IA fuerte se corresponde con el objetivo original del propio campo de la IA: crear máquinas tan inteligentes y tan conscientes como los humanos. Lo que sucedió es que los objetivos tuvieron que relajarse debido a las falsas expectativas que se habían creado. En definitiva, lo que ha pasado es que nos hemos dado cuenta de la tremenda complejidad de esta empresa, pero eso no significa que se haya abandonado esta rama de la IA. De hecho, en los últimos años estamos asistiendo a un resurgimiento de esta rama dura materializado en las líneas de la Consciencia Artificial y la Inteligencia Artificial General. Personalmente creo que son campos que merece explorar para comprobar efectivamente donde están los límites. De lo que estoy seguro es si no hay base para sostener que los objetivos de la IA fuerte sean inalcanzables. 

TC: ¿Crees que se está aprovechando el potencial educativo de los ordenadores? ¿Qué elementos se podrían introducir en la escuela para que la enseñanza fuera más efectiva? Antiguamente,  la clase adinerada contrataba a tutores para sus hijos, que de esta forma disponían de una enseñanza personalizada eficiente. ¿Los ordenadores podrían cumplir esta función de una forma más democratizada?

 Desde luego hoy en día sería una pena que no se usara masivamente el potencial de la informática en educación. Las tecnologías de la información en general son una excelente herramienta para mejorar la educación. Ni profesores ni alumnos deben prescindir de herramientas tan potentes, teniendo en cuenta que ahora están disponibles a un coste bajo al menos en el mundo desarrollado. Como cualquier herramienta, sigue siendo labor del docente enseñar a sus alumnos como sacar buen provecho de ella. En el futuro, podríamos contar con robots docentes, que ofrecieran un interfaz mucho más natural para la educación.

TC: Según Varela, un  sistema nervioso no es un sistema de procesamiento de información porque, por definición, los sistemas de procesamiento de información necesitan entradas claras. ¿Nos podrías aclarar esta conclusión?

Más bien yo diría que un sistema nervioso es un sistema de procesamiento de información analógico, donde la información que se adquiere de los sentidos puede tomar valores continuos. Por el contrario un ordenador convencional está basado en circuitos digitales, cuyas entradas se componen de valores discretos. Independientemente del sentido que se le quiera dar al término procesamiento, en ambos casos se realiza un procesamiento de la información y se generan unas salidas.

Raúl Arrabales Moreno          
http://www.caos.inf.uc3m.es/~raul/
http://www.Conscious-Robots.com

26 Comentarios

  1. «Para mí la consciencia no es una propiedad de la materia, es simplemente un proceso» — Excelente: la consciencia socialmente entendida es un proceso de interacción social, y la consciencia subjetiva es un proceso (o una colección de procesos, si se prefiere) de autocomunicación. La autocomunicación puede estudiarse a nivel fenomenológico, hasta cierto punto, y a nivel neurológico, también hasta cierto punto. Pero su mejor comprensión vendrá cuando llegue a enlazar un nivel de análisis con el otro, o a hallar un terreno de encuentro. Desde el punto de vista fenomenológico-semiótico, a mí me resulta sugerente la teoría de la conciencia que se desprende del interaccionismo simbólico, de la teoría de la comunicación social de Erving Goffman, por ejemplo. Aquí hay un artículo mío sobre tal «interacción interiorizada», para quien le interese leer más al respecto. http://ssrn.com/abstract=1073782

  2. Una entrevista interesante sobre un tema fascinante. Éste es un artículo de C. Koch y G. Tononi.

    Una duda. Si la idea de conciencia como proceso es correcta, ésto quiere decir que hay grados de conciencia, que no es un fenómeno todo-o-nada.

    Siendo así, habra que econtrar las regiones cerebrales desde un nivel neurológico suficientes y necesarias para la generación del proceso consciente, pero ésto nos vuelve a remetir a la idea de la conciencia como propiedad del tejido nervioso (materia). ¿Cómo se sale de éste círculo vicioso?

  3. utsaina says

    Muy interesante. Desde mi experiencia con los procesos de introspección diría que la consciencia puede ser el proceso que «observa» a todos los demás procesos (instintivo/biológicos, emocionales, mentales) y evalúa la «armonía global» del resultado conjunto de todos ellos, lo que permite posteriormente identificar los procesos causantes de inarmonía y reajustarlos para que colaboren de forma más eficiente en la «sinfonía global».

    Por ejemplo, en psicoterapis, a la hora de procesar un malestar emocional que nos afecte, el primer paso es conseguir desidentificarse de la emoción, de forma que ya no sentimos que «somos la emoción», sino que «yo soy yo» y que «ahí fuera está la emoción» a la que observo.

    Ahora bien, aún quedaría por saber si ese «proceso observador» es exactamente lo mismo que la «autoconsciencia», la «experiencia subjetiva» que dice Raúl Arrabales, o en terminología mística el «yo soy». Por eso será muy interesante hablar con un robot «aparentemente consciente» cuando llegue el momento y que nos cuente sus experiencias al respecto 🙂

    Como último comentario diré que como no se demuestre pronto que existe una consciencia individual fuera del cuerpo -o del espacio/tiempo-, quizá la inteligencia artificial sea el siguiente paso evolutivo de la Vida, el siguiente paso del Misterio -que el universo es- desenvolviéndose… La que se nos viene encima! 🙂

  4. Me alegra que os resulte interesante el tema. Aunque estamos asistiendo a un resurgimiento del interés científico por la consciencia, sigue existiendo cierta reticencia a tratar el tema de lleno desde la perspectiva de la Inteligencia Artificial. Supongo que en parte es debido a que realmente el campo de la Consciencia Artificial todavía no puede ofrecer grandes resultados, pero no hay que olvidar que es una disciplina realmente joven.

    Sobre la colección de procesos que comentaba José Ángel, no lo comenté en la entrevista, pero es curioso como desde diferentes perspectivas se suele hacer alusión a multitud de procesos inconscientes de cuya interacción emerge la consciencia (o al menos una inteligencia superior a la suma de las partes). Me refiero a ejemplos como la Sociedad de la Mente de Minsky, la arquitectura Copycat de Hofstadter, el modelo de las Versiones Múltiples de Dennett, la comentada teoría de Espacio de Trabajo Global de Baars. Todos estos planteamientos se basan en el concepto de procesadores especializados que de alguna forma colaboran y compiten para llegar a formar coaliciones o versiones temporales que dan lugar en último término a una historia coherente que llamamos flujo de pensamiento consciente. Lo bueno, es que esta idea parece que a priori coincide con lo que realmente pasa en el cerebro humano. Hay diversos artículos de Baars y otros colegas suyos en los que se argumentan las bases neurológicas de su teoría. También en el artículo que habéis enlazado de Koch y Tononi se hace alusión a la pérdida de determinados contenidos de la consciencia cuando se sufren lesiones cerebrales localizadas. Es el caso por ejemplo de la prosopagnosia, o la incapacidad de percibir rostros debido a lesiones en ciertas áreas cerebrales (desde el punto de vista de los procesos, se habría perdido el proceso encargado del reconocimiento de caras).

    Sobre los grados de consciencia que comenta Aníbal, la cuestión sobre si la consciencia es una propiedad binaria o si por el contrario se puede dar en diferentes grados ha traído siempre cierta controversia (algo parecido pasa con la inteligencia). Yo lo veo de la siguiente forma (es básicamente la posición de Antonio Damasio): tenemos por un lado la parte fenomenológica o mínimo necesario para “encender” la consciencia en un cerebro, pero luego está todo el repertorio de posibles contenidos de la consciencia, incluidos por ejemplo el propio modelo del Yo. Yo no creo que haya ningún círculo vicioso que superar. Simplemente hay que distinguir entre lo que Damasio llama “Core Consciousness” que sí que podríamos pensar que tiene un carácter de sí/no; y “Extended Consciousness” que se basa en la anterior y en la que se pueden distinguir numerosos niveles o grados. A este respecto, yo propongo la escala como forma pragmática de medir la consciencia en artefactos artificiales (la versión 2 de ConsScale incluye también una medida cuantitativa del nivel de consciencia de una máquina).

    Lo que comenta utsaina está también relacionado con los llamados pensamientos de segundo orden o HOT defendidos por Rosenthal. Acerca del “yo soy”, creo que por un lado es necesario disponer de un modelo del yo (como contenido consciente), pero probablemente haga falta algo más para que ese contenido llegue a ser qualia o experiencia subjetiva. Quizás un bucle extraño como propone Hofstadter…

  5. Raúl: Excelente entrevista y follow-up. Muchas gracias. Una pregunta. Qué papel piensas que juega (o no) el proceso llamado ToM (Theory of Mind) en el desarrollo de la conciencia en general? Podría ser que para desarrollar lo que llamamos conciencia, una máquina (AI) necesite desarrollar esta capacidad a través de algoritmos evolutivos (Dennett) compartidos? (Circuitos + tiempo + espacio + interacción = conciencia? Por ejemplo).

  6. Gracias Vicar,
    Lo primero, como la gente se suele confundir con el significado de ToM, una aclaración para los que no conozcan el término Teoría de la Mente (ToM): este concepto no se refiere a un área de estudio de la filosofía o de la psicología, sino que se trata de la capacidad que tenemos los humanos de atribuir estados mentales a otros y a nosotros mismos. Es decir, ser capaz de establecer teorías sobre nuestra propia psique o la de otros.

    Para mí ser capaz de desarrollar la capacidad de Teoría de la Mente (ToM) es uno de los requisitos necesarios en la formación de: la autoconsciencia, la empatía, la capacidad de desarrollo social, y por ende la cultura. Particularmente, creo que una forma fácil de entender este proceso es mirarlo desde un enfoque ontogénico, como propone Lewis (2003). Para desarrollar la capacidad ToM totalmente, el primer paso sería (1) “Yo sé” (que sería una consciencia primitiva del propio ser), luego vendría el segundo paso (2) “Yo sé que yo sé” (como un proceso observador de segundo orden que razona sobre el primero), en el tercer paso ya entra en juego el concepto de otros vistos como “yoes” (3) “Yo sé que tú sabes”, y por último, el refinamiento que poseemos los humanos adultos (4) “Yo sé que tú sabes que yo sé”. Poseer el nivel 4 de ToM (equivalente al nivel 9 o Social de ConsScale) significa ser capaz de por ejemplo mentir intencionadamente; en definitiva mostrar inteligencia Maquiavélica, algo que de momento sólo puede hacer un humano (y algunos programas de ordenador escritos con mala idea para llenarnos el e-mail de spam).

    Aunque los enfoques de computación evolutiva pueden ser una herramienta válida para generar este tipo de procesos en sistemas artificiales, no creo que sea estrictamente necesario tener un proceso darwinista. De una forma o de otra, lo que necesitas en tu agente artificial es una representación interna de su propio cuerpo (sea físico o simulado), de las reacciones de su cuerpo, su yo, el yo de otros, y las relaciones entre todos estos conceptos. Todo esto es fácil de decir, pero todavía no tenemos mucha idea de cómo lograrlo de forma efectiva. Desde luego, aplicar procesos darwinistas dado el entorno propicio puede ser una solución. Una de las ideas que tengo pendiente es usar ConsScale como herramienta en los procesos de selección de algoritmos genéticos.

  7. Muchas gracias, Raúl. Es un tema realmente fascinante. Será un placer seguir tus investigaciones. Quizás también aquí!

  8. de interés divulgativo:

    http://montcadi.bubok.com/

    os vuelvo dejar referencia de mi libro, donde trato el problema de la conciencia: http://www.bubok.com/libros/2042/idea-tragica-de-la-democracia-para-una-ciudadania-caosmopolita

    (a mí me parecen claras dos cosas: la conciencia no es una persona en la cabeza, pero tampoco es un ordenador en la cabeza; conozco la teoría de Varela y la combino con la de Damasio, más que con la de Dennet -hasta donde sé-, y con la de Castoriadis)

  9. Excelente entrevista. Soy de la idea de que la solución al problema duro, si es que existe, lo más probable es que venga dada por la alianza psicología (científica), neurociencia e inteligencia artificial (robótica específicamente por aporvechar la idea de corporalización, y robótica evolucionaria, por dejar al ambiente lugar en el diseño… como en el caso de las máquinas biológicas).
    Ahora, digo «si es que existe» por mi duda respecto de nuestra capacidad de saldar el asunto. Osea, ¿qué clase de «contrastación crucial» serviría para decidir entre teorías rivales?… llevado a la robótica y retomando lo dicho por Raul respecto de tercera persona y zombies ¿Cómo, desde la tercera persona de la ciencia, podemos decidir si la máquina con la que interactuamos es un zombie o una máquina autoconciente como nosotros nos sentimos?. Incluso suponer conciencia a los demás humanos es en estricto rigor un asunto de fé.
    Ese es el «gusto» que me deja este tema, de una búsqueda a ciegas respecto de la pregunta final… Eso no quita que es la más apasionante de las preguntas.

    Un saludo

  10. Gracias, coincido con René en que suponer la consciencia de cualquier entidad distinta de nosotros mismos puede parecer, en un sentido estricto, un asunto de fe. Pero, ¿y si articulamos una forma de observación similar a la que se usa en otras disciplinas científicas? ¿Acaso no parece también asunto de fe la existencia de las partículas subatómicas? Después de todo nadie las ha visto nunca. Lo que observan los científicos son sus efectos, es decir, se hace una observación indirecta. Lo que en esencia significa que no sabemos a ciencia cierta qué es lo que provoca esa observación indirecta. De hecho si alguien encuentra una explicación alternativa pero plausible, nadie podría decir que es más o menos cierta que la explicación actual de la física de partículas.

    ¿No podríamos hacer algo similar con la consciencia? Es lo que hacemos en el día a día: suponer que los demás son conscientes igual que nosotros porque observamos su consciencia de forma indirecta y con eso nos basta. Desde un punto de vista pragmático, ¿que más nos da si un robot experimenta estados fenomenológicos o no, si de todas formas se comporta como si los tuviera? (desde luego no es lo mismo desde un punto de vista moral).

    En el caso de las implementaciones artificiales muchos argumentan que podemos eliminar el problema de la observación indirecta, porque en un robot que hemos diseñado nosotros, sí que podemos literalmente observar qué está pasando en su interior y de esta forma inferir si tiene o no experiencia subjetiva. Aunque yo veo un problema con eso: para poder hacerlo con éxito primero deberíamos saber exactamente cómo crear esos estados de forma artificial…

  11. Concuerdo en que lo mejor que tenemos por ahora es la observación indirecta, pero eso no soluciona el problema duro de la explicación de los estados fenomenológicos.
    Creo que el caso de las entidades teóricas de la física es un poco distinto; la conjunción de datos observables y derivaciones matemáticas hacen necesario! que exista «un algo» con un rol específico, de modo que los datos de salida se sigan de los de entrada. El caso de la conciencia es distinto, su rol causal no es claro… al punto que La misma idea de zombie enfatiza esto, es teóricamente posible construir una máquina que se comporte como máquina conciente, pero de eso no podemos inferir que posea experiencia fenomenológica. Tampoco se me ocurre como de la observación de la observación de la arquitectura interna podríamos inferir válidamente conciencia fenomémica (Sin aun haber revisado el artículo de ConsScale confieso).
    Creo que desde un punto de vista tecnológico no importa si la máquina tiene o no conciencia de si, pero desde el punto de vista general de la ciencia cognitiva y filosofía de la mente, es casi igual de irrelevante que una máquina sólo se comporte como si tuviera; sobre todo porque ese «como si» no es significativo de momento que no tenemos acuerdo sobre la diferencia que supone, en términos comportamentales observables, tener o no tener conciencia.

  12. Esta última observación, «¿que más nos da si un robot experimenta estados fenomenológicos o no, si de todas formas se comporta como si los tuviera? (desde luego no es lo mismo desde un punto de vista moral)»…

    … bueno, yo creo que sería lo mismo desde un punto de vista moral, si es una moral basada en una ética comunicativa, y no una moral dogmática.

    Por otra parte, me ha traído a la mente (sí, sí, a la mente, ya os lo podéis creer o no) la cuestión del test de Turing, con el que quizá tenga que ver constantemente la investigación de Raúl Arrabales. A mí se me ocurre una objeción para dicho test: es difícil en efecto que podamos confundir a una máquina con un humano, pero no es tan difícil poder confundir a un humano con una máquina, sobre todo si tiene instrucciones de seguir protocolos estrictos de acción o comunicación. Vamos, lo que decía Lenin, que un águila puede volar tan bajo como una gallina si quiere… Y es muy humano atenerse a instrucciones y a un tipo de inteligencia estandarizada y, por tanto, también impenetrable.

  13. Yo lo siento por el autor (Sr. Arrabales) como técnico en la IA, pero he de decir que en todo este plantemiento falta lo más fundamental: «Esa representación interna del propio cuerpo, de sí mismo». La vida es un aglomerado de sensación-representación, y sin sensación no hay nada que hacer… Este es un tema típico en el que la relación o simbiosis entre Filosofía y Ciencia es clara: Hay que avanzar en este sentido sin despreciar, por supuesto, los adelantos en las neurociencias e inteligencia artificial. Recomiendo al respecto el Blog Simbiotica que va en esta dirección. (http://simbiotica.wordpress.com/)
    Saludos:
    Alejandro Álvarez

  14. Sobre este tema, reconozco que no sé lo suficiente como para tener una opinión clara. Puedo contaros mi «impresión», de todas formas. Creo que debemos fijarnos en la evolución de los sistemas nerviosos, y, en particular, comprender la diferencia entre dos de sus funciones. Por una parte, los primeros sistemas nerviosos servían para permitir al animal construir una «representación» del entorno; ahora bien, esta «representación» puede enchufarse a un mecanismo de actos reflejos de modo que la percepción conduzca a una reacción apropiada. ¿Diremos en este caso que el animal «es consciente» de lo que percibe? Pues no tiene por qué; nosotros mismos tenemos sistemas de «percepción ciega», p.ej., en la visión (hay dos canales de la percepción visual, uno consciente y el otro no -aunque menos efectivo: así, algunas personas que han perdido el primero, y que «no ven», o eso dicen ellas, pueden andar por una habitación sin tropezarse).
    Por otro lado, los sistemas nerviosos desarrollaron un sistema de MOTIVACIÓN (mecanismos de placer y dolor), y éste sí que requería que algunas de las percepciones fueran «conscientes».
    Mi sugerencia, por tanto, es que los expertos en la conciencia artificial (y la otra) se concentren SOBRE TODO en los mecanismos que generan experiencias dolorosas o placenteras. P.ej., ¿puede «sufrir» una máquina? ¿Y «gozar»?

  15. Pues yo no estoy de acuerdo con ese dualismo. Para nada.

    «I have shown, that those who deplore Artificial Intelligence are also those who deplore evolutionary accounts of human mentality: if human minds are nonmiraculous products of evolution, then they are, in the requisite sense, artifacts, and all their powers must have an ultimately ‘mechanical’ explanation. We are descended from macros and made of macros, and nothing we can do is anything beyond the power of huge assemblies of macros (assembled in space and time)». Dan Dennett, Darwin’s Dangerous Idea, Ch. 13: Losing Our Minds to Darwin (p. 370).

    Lo de filosofía y sensaciones, placer y dolor, no son más que macros.

  16. René, respecto a lo que comentas de la consciencia como epifenómeno, es cierto que desde un punto de vista científico sería posible, pero mi intuición es que en la naturaleza ha ocurrido más bien lo contrario: que son los estados fenomenológicos los que la evolución ha encontrado útiles para ser causa del comportamiento. En cualquier caso, independientemente de la “consciencia natural”, para mí el tema de los qualia en consciencia artificial se secundario (aunque muchos investigadores no están de acuerdo). Yo prefiero ver primero si logramos construir un robot que parezca consciente, y luego podemos discutir si tiene o no estados fenomenológicos. Por eso, ConsScale se basa en capacidades cognitivas e ignora deliberadamente la dimensión fenomenológica.
    También es cierto que no está claro cómo a partir de la observación de la arquitectura interna se puede deducir que hay consciencia. Más bien, lo que proponen muchos autores es usarlo como una pista más, al igual que el comportamiento observado.

    Lo que comentas José Ángel sobre el test de Turing es muy interesante. Hay muchas tardes cuando salgo del trabajo que creo que yo no pasaría el test. En IA yo creo que el test de Turing está sobrestimado. Sólo sirve para cuando ya tienes una máquina consciente y se basa exclusivamente en capacidades lingüísticas, pero creo que ahora necesitamos pruebas que puedan usarse con entidades menos conscientes…

    Alejandro, la representación de sí mismo, del propio cuerpo y el modelo del yo, son centrales también en la IA y sobre todo en el campo de la consciencia artificial. De hecho, si te fijas en el artículo de ConsScale, estos conceptos aparecen a partir de los niveles 6 y 7.

    Lo que comentas Jesús, sobre generar experiencias placenteras o dolorosas, en IA se ha tratado desde diversos enfoques. Por ejemplo, desde el punto de vista del aprendizaje, los paradigmas de aprendizaje por refuerzo (como el Q-learning). Lo que pasa es, que como bien apuntas con tus preguntas, el problema sigue estando en la dimensión fenomenológica de estos procesos. Pero para mí, que sea un problema no significa abrazar el dualismo, significa que tenemos que esforzarnos más en intentar entender cómo se generan esas macros (en el sentido de Darwin apuntado por vicar).

  17. Aunque no soy especialista, es un tema que me parece fascinante. Me gusta la definición de consciencia señalada en el artículo, ya que la misma parece ser alcanzable de crear, pero tengo dudas cuando analizo sus implicaciones.

    Supongamos que la inteligencia artificial avanza tanto que sea posible construir una computadora en la que puedan reproducirse todos los procesos que ocurren en la mente humana. Supongamos que en ese momento también sea posible “copiar” toda la información de mi mente y grabarla en un disco duro del mismo tipo del que utiliza esa máquina del futuro, recuerdos, datos, reglas, procesos de todo tipo, todo el mundo virtual generado en mi mente hasta el presente. Se crea un sistema de sincronización de manera que en todo momento se mantenga esa copia actualizada. Si al momento de mi muerte en el que mi mente queda “apagada” se conecta ese disco duro a la computadora y se enciende esta, puedo seguir observando el mundo a través de esa computadora? O yo habré perdido todo contacto con el mundo y en este quedó un nuevo ente que tiene en su mente lo mismo que tenía yo en la mía? Si la respuesta pudiese ser sí, que pasaría si se hace lo mismo sin haber muerto, puedo ver el mundo desde dos entidades diferentes al mismo tiempo? Si la respuesta fuese no, que pasa si en lugar de hacer una copia se hubiese sustituido todo el aparato biológico por objetos artificiales que hacen la misma función, entonces sí seguiría siendo la misma persona con la misma consciencia?

    En esta pregunta está implícita la pregunta si el avance de la inteligencia y la conciencia artificial podrían dar lugar a una vida eterna, por lo que me parece interesante y me gustaría conocer opiniones.

    Con respecto al análisis del concepto, se puede indicar que la consciencia de un organismo vivo es un concepto diferente a una definición enfocada al objetivo de simular artificialmente la consciencia. Pero también surge la misma situación sin incluir el factor vida.

    Si entendí bien la definición, la consciencia existe en una entidad formada por múltiples procesos inteligentes, algunos de los cuales puede supervisar y tomar decisiones respecto a los otros, en base a poseer un concepto de si mismo que le permitan concluir si determinadas salidas o entradas serán favorables para determinados conceptos que tiene identificado como “sus intereses”. Esta entidad (al igual que el ser humano) podría también tener procesos sobre los que no tenga control alguno e incluso intereses predeterminados que no podría modificar , y además muy poco conocimiento de lo que realmente es y de por qué está ahí. El punto esencial es que el grado de conocimiento y decisión debería ser “alto” (aunque no pueda precisarse esto mediante valores), para no inferir que cualquier cosa tiene consciencia.

    Basándonos en esta definición de consciencia, una computadora con los procesos descritos y adecuada tecnología para lograr el alto grado necesario, sería muy similar a una mente humana. Podría interactuar con el mundo de igual manera que se interactúa virtualmente hoy en día y pasar cualquier test en dependencia de las habilidades que su hardware y algoritmos bases le permita.

    Que pasa entonces si hacemos una copia de esta entidad? Es la misma consciencia o es otra?. Si es la misma creo que se contradice con el hecho de que la consciencia se modificará de forma diferente en cada copia producto de experiencias diferentes. Si es otra creo que se contradice con el concepto de consciencia del cual se inició el análisis, que es básicamente el auto-conocimiento ya que en todas las copias existe el mismo auto-conocimiento. Si es que es el mismo en un instante dado y se divide en dos consciencias diferentes al encontrar dos experiencias diferentes, entonces se podría analizar cuál de esas copias es el original? Desde el punto de vista de esa computadora, desde donde está viendo el mundo?

    Resumiendo un poco. Puede crearse entes con consciencia? El artículo indica que sí. Entonces puede copiarse la consciencia creada? La definición proporcionada y la respuesta anterior indican que sí. Las dudas serían: Luego de hacer las copias, estos entes tendrían la misma consciencia o consciencias diferentes? Como y donde se identifica a sí mismo un ente consciente que ha sido creado y luego replicado, como se distingue a sí mismo de sus copias si no hay un sustrato físico del cual dependa su consciencia?

    Entiendo que estas preguntas será mejor responderlas cuando se tenga más avance en el estudio de la consciencia artificial, pero las considero importante para evaluar si el concepto de partida es correcto o no. Creo que en cualquier ciencia al definir algo, sería adecuado continuar con la definición de sus propiedades. En este caso la replicación sería o no una propiedad de la consciencia y como puede ser expresada.

    Agradecería mucho sus comentarios para conocer como analizan esto otras personas y sobre todo los especialistas en el tema.

  18. Joel, creo que el punto fundamental necesario para resolver las preguntas que planteas es el concepto de unidad que la consciencia proporciona a los seres que la disfrutan.
    Tú has planteado la pregunta en el caso de que una persona muera y toda su mente copiada en un ordenador (capaz de reproducir la consciencia) se vuelva a poner en funcionamiento. ¿Volvería esa persona a observar el mundo desde ese cuerpo de máquina? Otros autores, como Hofstadter, han planteado la cuestión de manera similar:
    ¿qué pasaría si tuviéramos una máquina de tele-transporte como la de Star Trek y nos tele-transportáramos a la vez a Londres y a Nueva York? ¿Habría dos yoes diferentes en dos cuerpos clonados? ¿O la misma persona sería consciente de ambos cuerpos uno en Inglaterra y otro en EEUU? Yo creo que en el momento de realizar la tele-transportación + clonación cada uno de los clones comenzaría a ser una persona distinta, una unidad diferente, gemelos, pero diferentes. En cualquier caso, si no podemos hacer el experimento, esto son sólo conjeturas.

    Para mí la respuesta es simple: a nivel físico no existe tal unidad. De hecho, es la consciencia el proceso encargado de generar esa unidad a la que llamamos yo. Pero a nivel físico o biológico tal unidad no existe. Las moléculas o células que componen tu cuerpo van cambiándose y reponiéndose con el tiempo, al final lo único que mantiene una unidad del yo es la consciencia. También se puede plantear la misma pregunta de otra forma: ¿Cuándo pierdo la consciencia al dormirme y a la mañana siguiente despierto, sigo siendo la misma persona? En este caso la respuesta es clara. ¿Y si durante la noche se cambia mi cerebro por una máquina que contiene toda la información de mi mente? ¿Seguiría siendo yo el que se despierta a la mañana siguiente? ¿O sería otra entidad consciente? Algunos autores argumentan que para mantener la unidad hay que hacer un trasvase progresivo de la mente del cuerpo a la máquina, haciendo que el yo pase progresivamente de un lado al otro, pero yo no lo veo tan claro.

  19. Muy interesante el tema. Evidentemente este es el camino a proseguir, y ante todo no pararse… Dejemos el tema epistemológico para más tarde; ahora una visión positiva, no desechando nunca lo que pudiera herir la susceptibilidad de personas que con buena fe ven en peligro sus propias creencias. De cualquier forma animo de forma entusiasta a Raúl, que siga por el mismo camino. Saludos:
    Alejandro Álvarez

  20. Pau says

    Cordial saludo. Con respecto a la teoría Damasiana, que plantea la consciencia como una metáfora del «Salir al escenario», es decir la sensación del yo al mundo mental o el paso de la inocencia al conocimiento, puede entenderse entonces o ¿usted está de acuerdo con la afirmación que la consciencia es la relación entre un objeto y un organismo que transformados se convierten en conocimiento? ¿Es la consciencia la que permite la construcción del conocimiento y por ende luego el saber o es simplemente respecto al conocimiento del yo?

    Gracias.

  21. Pingback: Robotic Consciousness – Raúl Arrabales Moreno

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *