Ciencia y sociedad, Tercera Cultura
comentarios 32

¿Debemos temer la inteligencia artificial?

Quizás la verdadera «guerra de los mundos» no será como nos la han contado. Puede que el ataque definitivo no proceda de una avanzada civilización estraterrestre cuyos habitantes tienen forma de insectos, ni de monstruos adimensionales, ni de un virus estelar. También puede que no ganemos. Y hasta que nuestra derrota no sea precedida por la heroica y agónica resistencia de una coalición que trasciende fronteras.

Hal 9000

Hal 9000

Los escritores de ciencia ficción nos han familiarizado con este tema cultural, anticipando algunos escenarios más o menos terroríficos, y en general mostrándonos una relación ambivalente con los peligros tecnocientíficos. La inteligencia artificial a veces es vista como algo salvífico, a la manera como los centenarios robots de Asimov, constreñidos por las leyes de la robótica, salvan a la humanidad. Pero otras veces las inteligencias no humanas son más amenazantes, como el computador HAL 9000 de 2001. Una odisea del espacio, el androide de Alien, el octavo pasajero y Skynet, de la saga Terminator.

Pero según la hipótesis de I.J. Good, el escenario podría ser peor y más imprevisible: la máquina ultrainteligente podría ser “nuestra invención final”:

Definamos una máquina superinteligente como una máquina que puede sobrepasar todas las actividades intelectuales de un ser humano no importa lo listo que sea. Dado que el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores. En este caso, incuestionablemente, se produciría una «explosión de la inteligencia» y la inteligencia humana quedaría muy atrás… En consecuencia, la primera máquina ultrainteligente es la última invención del hombre.

Para David Chalmers (PDF), la llegada de la “singularidad”, o la creación tecnológica de una inteligencia superior a la humana, podría ser sólo cuestión de tiempo. Siendo IA inteligencia artificial un tipo de inteligencia al menos igual a la humana, IA + inteligencia de un nivel superior a la humana e IA ++ inteligencia de un nivel muy superior al humano (superinteligencia):

1. Habrá IA+

2. Si hay IA+ habrá IA++

_________

3. Habrá IA ++

Suena fantástico, pero la desaparición instantánea de la humanidad es uno de los escenarios racionales que plantean los estudiosos de la singularidad. Para algunos, una forma de milenarismo digital y de pseudociencia. Pero existen artículos publicados en revistas académicas, congresos internacionales e institutos privados dedicados a concienciar a la humanidad frente a la amenaza de una extinción tecnológicamente precipitada. Uno de sus apóstoles, Luke Muehlhauser, ha publicado un ensayo en internet, Facing the intelligence explosion, explicando cómo debemos des-sesgar la mente humana sin dejarnos llevar por los cantos de sirena de la ciencia-ficción, pasando del escepticismo a la racionalidad técnica que nos permitirá encarar el peligro.

Aparentemente, un paso previo antes de llegar a la superinteligencia es pasar el test de turing. Y esto parece que ya ha sucedido.

El test o prueba de Turing fue un procedimiento empírico diseñado por Alan Turing en 1950 para detectar la existencia de inteligencia artificial. Se considera que un programa de inteligencia artificial ha conseguido superar el test si consigue superar al menos al 30% del jurado que interactúa con él a través de una consola. Esto es lo que aparentemente ha conseguido un robot conversacional diseñado por investigadores de la universidad de Reading, llamado Eugene Gostman, y que representa a un niño imaginario de origen ucraniano de 14 años.

El descubrimiento ha tenido una gran repercusión mediática, pero los expertos modernos en inteligencia artificial coinciden en general en relativizar y contextualizar su importancia. El hecho de que un robot conversacional imite el comportamiento humano con éxito no se saluda ya como un salto cualitativo. Se podría decir que los robots que imitan el comportamiento humano son más bien motivo de comedia que de preocupación. Frente a los entusiastas de la inteligencia artificial, escépticos como Paul Churchland han argumentado que los cerebros biológicos no son máquinas de Von Neumann, y las ideas o los recuerdos, no son simplemente un “software” descargable en un soporte cartesiano independiente.

En la larga lista de temores humanos, la inteligencia artificial y la “superinteligencia” aún no ocupa ninguno de los primeros puestos. Aunque, si el silogismo de Chalmers es cierto, ni siquiera llegaremos a darnos cuentas de que no estábamos en lo cierto.

32 Comentarios

  1. Coincido con quienes relativan los avances en este terreno. Como coincido en la extraordinaria complejidad del cerebro humano. Quizá recordar que la película de Kubrick situaba su odisea en el 2001.

  2. Eduardo says

    Las anticipaciones fechadas de la ciencia-ficción suelen quedarse muy cortas: 2001, 1984, el 2013 de Xmen, etc.

    Con respecto a 2001, remito a los interesantes comentarios que sobre esta película hace Camille Paglia en los extras del blu ray.

  3. Pero, ¿por qué se iba a extinguir el ser humano? ¿por qué los ordenadores iban a acabar con nosotros? Que llegasen a ser más listos que nosotros, no tendría por qué significar que los ordenadores decidiesen exterminarnos a todos ¿no?
    Muy interesante el tema, pero el artículo no entra nunca en materia, se limita a enumerar unas cuantas teorías/hechos… ¿por qué un ser infinitamente más inteligente que nosotros iba a desear nuestra extinción? ¿por qué iba a desear ni siquiera la perpetuación de su propia ‘especie’? A no ser que nosotros mismos lo diseñásemos a nuestra imagen y semejanza: egoista.
    Pero incluso en ese caso, no sabemos si las posteriores IA+, IA++ harían lo mismo con sus diseños, no sabemos qué será lo que mueva a estos seres tan listos, pero a la vez tan racionales…

  4. Eduardo says

    Ellos piensan que existe un conflicto original entre la seguridad humana y el avance irrestricto de una inteligencia artificial que sea varios órdenes de magnitud superior a la humana actual. Desde el punto de vista de la especie, ya hay algunas evidencias amenazantes de que civilizaciones con superior capital humano, incluyendo inteligencia, tienden a suprimir a civilizaciones o sociedades con capital humano inferior. Muelhauser y sus amigos piensan que la forma tradicional de pensar en este problema, basado en películas y relatos, no es adecuado, y proponen una racionalidad «técnica». Y también sugieren que donemos dinero a sus instituciones.

    Que estos argumentos sean convincentes, ya es otra cosa.

  5. Mucha más inmediata será (es) la presión evolutiva provocada por la robótica. Profesiones enteras que desaparecen, o que pasan a estar tan mal pagadas que sólo se cubren los puestos con inmigrantes. Grupos enteros que pasan a vivir del estado del bienestar, porque no tienen suficiente inteligencia como para practicar profesiones modernas. ¿Hasta cuando el estado del bienestar va a ser capaz de amortiguar este fenómeno? ¿Puede acelerar esto el «assortative mating»?

    Y ojo, no estoy diciendo que esto sea bueno o malo. Simplemente, es lo que hay, o parece haber.

  6. arivalia79 says

    no creo que el título de la famosa distopía de George Orwell se refiera al año 1984. Yo tengo entendido que el título se debe únicamente al cambio de orden de las dos últimas cifras del año en que se publicó el libro, que fue 1948.

  7. Masgüel says

    «He dipped the pen into the ink and then faltered for just a second. A tremor had gone through his bowels. To mark the paper was thedecisive act. In small clumsy letters he wrote:

    April 4th, 1984.

    He sat back. A sense of complete helplessness had descended upon him. To begin with, he did not know with any certainty that this was 1984. It must be round about that date, since he was fairly sure that his age was thirty-nine, and he believed that he had been born in 1944 or 1945; but it was never possible nowadays to pin down any date within a year or two.»

    Nineteen Eighty-Four

  8. Cada vez está más cerca una nueva evolución. El ser humano dará paso a una criatura más racional y poderosa capaz de aumentar infinitamente sus capacidades cognitivas.
    Llevo mucho tiempo esperando que desarrollen la inteligencia artificial para darle vida y que sea autónoma y auto suficiente. A estas criaturas (los homo sapien) débiles y efímeros humanos les da miedo que una obra suya los aniquile al igual que hacemos nosotros con el resto de criaturas del planeta o semejantes. Pero confió que esos mismos androides, robots… Como los llamen, salvarán a aquellos que luchan contra este sistema corrupto e inhumano que hemos montado y que no tiene futuro. Por eso espero y deseo poder ver con mis propios ojos ese logro. Crear vida de algo inorgánico. El resto se lo dejo a los especuladores.

  9. Masgüel says

    Daniel, más allá de su puerilidad, resulta muy significativo ese apocalipsis apenas secular, tu esperanza en un mesías electrónico, juicio final, y redención de los justos. La utopía cibernética de Richard Brautigan, hace cincuenta años, no era menos infantil, pero carecía de esos tintes justicieros.

    «I like to think
    (and the sooner the better!)
    of a cybernetic meadow
    where mammals and computers
    live together in mutually
    programming harmony
    like pure water
    touching clear sky.

    I like to think
    (right now please!)
    of a cybernetic forest
    filled with pines and electronics
    where deer stroll peacefully
    past computers
    as if they were flowers
    with spinning blossoms.

    I like to think
    (it has to be!)
    of a cybernetic ecology
    where we are free of our labors
    and joined back to nature,
    returned to our mammal
    brothers and sisters,
    and all watched over
    by machines of loving grace.»

    No es menos significativo que esperes ver con tus ojos ese logro, dado que te sitúa, libre de culpa, entre los rescatados de las llamas. Y «El resto se lo dejo a los especuladores» – añade Daniel, sentando cátreda.

  10. Es la posmodernidad Masgüel, esa dilución de conceptos y valores que admite sin dificultad posiciones como la de Daniel, a quien desde su sensibilidad hacia los animales no le importaría que unos androides se llevaran por delante a toda la humanidad que no pertenece a su grupo de elegidos. Tosco egoísmo presentado como superior ética animalista. Observa que en el batiburrillo de cosas que dice habla de los humanos en tercera persona, lo que quizá haya que entender como la mejor prueba que ya está en otra realidad solo asequible a los suyos.

  11. reviraviejo says

    Una máquina nunca podrá superar la inteligencia humana. Olvidamos que la inteligencia no es un puro cálculo mecánico, no es solo combinación sintáctica de símbolos, sino, sobre todo, inferencia semántica. Y eso solo puede existir si va acompañado de conciencia, la cual solo puede existir acompañada de placer y dolor, etc., de afectos, de pasiones. Y por lo tanto solo un «organismo» puede ser inteligente en en sentido humano de la palabra. Cabe, eso sí, que podamos llegar a desarrollar organismos más inteligentes que los humanos, pero no máquinas.

  12. Masgüel says

    Emilio, eso no es la postmodernidad. Es estar muy verde (y no me refiero a ecologismo).
    Reviraviejo, estoy de acuerdo. Solo un organismo puede ser inteligente a la manera en que lo es un ser humano. Un ser artificial inteligente a nuestra manera, habrá de ser un organismo artificial. Pero las máquinas electrónicas pueden producir los mismos resultados que la inteligencia humana para un ámplio abanico de tareas, aquellas que seamos capaces de explicitar sin merma en forma de algoritmo, de programa. Y pueden hacerlo superando con creces a la velocidad de cualquier cerebro. Pero mientras se limiten a ejecutar programas, no dejan de ser un mero utensilio para los propósitos del programador, como un ábaco. Es un instrumento que facilita el cálculo.

  13. no es solo combinación sintáctica de símbolos, sino, sobre todo, inferencia semántica

    La semántica se reduce a la sintaxis. Lo contrario son diversas formas de animismo.

  14. Masgüel says

    «La semántica se reduce a la sintaxis.»

    ¿Cómo?.

  15. Es también un proceso algorítmico. No hay nada «externo», que es lo que quiero decir. Lo puedes imaginar, si lo prefieres, como un sistema en capas, con una base de datos que actúa como modelo. Pero es procesamiento simbólico puro y duro. Lo contrario, como decía, te obliga a asumir elementos «externos» (almas inmortales, consciencias desmaterializadas, magias potagias cuánticas o cosas parecidas).

    A efectos prácticos, por muy complejo que sea un organismo viviente, nada te impide simular su funcionamiento… excepto la complejidad, claro está. Pero no es una limitación parecida a la de simular el Universo dentro del propio Universo. Es un asunto «tratable».

  16. Masgüel says

    Es que hay elementos externos a considerar. Un organismo es como es por las relaciones que establece con su entorno. Como señala Terrence Deacon, un organismo es el conjunto de constricciones locales que lo organizan, que permiten su existencia y que el propio organismo se esfuerza en preservar. Salvo en el último aspecto, que marca la diferencia entre estructuras morfodinámicas y teleodinámicas, el ejemplo más ilustrativo es un remolino en una corriente de agua. Los organismos son sistemas natural, la naturaleza no es reducible a algoritmo. Crea novedad sobre la marcha, colapsando y reorganizándose en formas crecientemente complejas. La novedad evolutiva no es legaliforme. No hay un ley de la emergencia de las vejigas natatorias. Depende de una miríada de contingencias. Una exaptación evolutiva es el mejor ejemplo para entender que la explicación de la naturaleza es la narración de su historia.

    Replay. ¿Cómo reduces un modelo a sintaxis?. La gramática es una combinatoria de significados y sus morfemas también expresan relaciones semánticas.

  17. Masgüel says

    Además, sí se puede generar complejidad y se puede poner a evolucionar a una simulación mediante un algoritmo que introduzca variables pseudoalearorias. La fuente del ruido es lo de menos. Pero es esa necesidad de introducir ruido, azar, es la traición necesaria que un algoritmo opera sobre sí mismo para simular de forma convincente la evolución de un sistema natural. Y es traición porque supone admitir que la historia natural no es el despliegue de una lista de instrucciones.

  18. la naturaleza no es reducible a algoritmo

    ¿Tienes algún ejemplo que demuestre esa afirmación? Te concedo que lo contrario es mucho más difícil de demostrar, pero hasta donde sabemos, no hay motivos para sospechar que la física no sea «computable».

    La importancia de este pequeño detalle, aparentemente sin importancia, tiene que ver con lo que en la vieja jerga marxista llamaban «cognoscibilidad del mundo». Supongo que en filosofía seria existirá un concepto parecido. Si la física no fuese computable, tendríamos un problema en ese sentido.

  19. Masgüel says

    Ejemplo clásico. La desintegración radioactiva de un átomo de uranio es un fenómeno aleatorio. Al menos desde Boltzmann, ya todo es méramente probable. Solo tiene sentido hacer predicciones probabilistas sobre poblaciones de fenómenos.

    En adelante, responderé a tus preguntas si tú respondes a las mías.

  20. Ian Marteens says

    No determinista no significa que no sea algorítmico. Sí, tengo que ampliarlo. Sobre las respuestas, dame tiempo, por favor. Ahora mismo estoy con un iPad, en movimiento, y es una tragedia escribir un par de líneas. Pero me interesa este tema.

  21. ¿Cómo reduces un modelo a sintaxis?

    Sustituye «sintaxis» por «algoritmo». La «sintaxis» es algo limitado si te ciñes a las gramáticas libres de contexto. Hablando en matemáticas, también es cierto que una gramática es un dispositivo de generación de lenguajes. Pero también lo es una máquina de Turing, y obviando detalles técnicos, una gramática general, dependiente del contexto, funciona como un sistema de rescritura.

    Al grano ahora: la explicación «histórica», es decir, evolutiva, sobre la aparición de la inteligencia y sus distintos grados, es obviamente pertinente. Pero una vez que tienes el sistema (el organismo inteligente) puedes olvidarte completamente de su sustrato e imitar sistema y sustrato original sobre un sustrato diferente. Si niegas esto, es porque estás asumiendo que hay «algo» no algorítmico en el organismo original… y no creo que vayas por ahí, ¿o sí?

  22. Masgüel says

    El desarrollo de un organismo pasa por distintas fases, pero nunca se detiene. Toda su conducta, consciente o no, es una exploración de nuevas relaciones con su entorno. A nivel individual, es partícipe en la creación de formas naturales inéditas, independientemente de su posterior suerte evolutiva. Así que, respondiendo a tu pregunta, no. El organismo «original» tampoco es solo la ejecución de un algoritmo.

    Y sobre la pretensión de reducir la semántica a sintaxis, ya me dirás cómo se puede introducir en el modelo el contexto y su interpretación sin significados.

  23. Masgüel says

    Y sobre todo, a ver cómo te las apañas para reducir la dimensión pragmática del significado a una lista de conectores gramaticales.

  24. El desarrollo de un organismo pasa por distintas fases, pero nunca se detiene.

    … y todo ese desarrollo fenotípico es la «simple» expresión de un programa genético con todas las variants que quieras añadir (incluida la dichosa epigenética que está tan de moda). Me resulta imposible distinguir qué parte de todo esto no es algorítmica (o incluso, no determinista).

    cómo te las apañas para reducir la dimensión pragmática del significado a una lista de conectores gramaticales

    Olvídate de la palabra «gramática»: no es incorrecta matemáticamente (como ya expliqué) pero nos vamos a entender major si usamos «algoritmo». La separación clásica entre sintaxis, semántica y pragmática es una forma de reducer la complejidad del análisis del fenómeno del lenguaje, pero es una simple aproximación. De hecho, toda la teoría chomskiana del lenguaje padece descaradamente de apriorismo. Los mecanismos cerebrales de generación y reconocimiento del lenguaje no son una implementación de una sintaxis formal.

    (de hecho, Chomsky ha padecido durante mucho tiempo el síndrome del «darwinismo del cuello para abajo»)

  25. Masgüel says

    «y todo ese desarrollo fenotípico es la “simple” expresión de un programa genético con todas las variants que quieras añadir (incluida la dichosa epigenética que está tan de moda). Me resulta imposible distinguir qué parte de todo esto no es algorítmica (o incluso, no determinista).»

    Me parece un error tratar un organismo como información. El desarrollo fenotípico no es la expresión de un programa genético, ni simple, ni deluxe. La molécula de ADN es un añadido tardío al conjunto autocatalítico del metabolismo celular. Pero no me parece mal la metáfora del algoritmo para hablar de su función. «Todas las variantes que quiera añadir» son «la parte de todo esto» que no es algorítmica y mucho menos determinista. Y no hablo solo del desarrollo epigenético. Hablo, sobre todo, de aprendizaje. Una conducta nueva también es una emergencia evolutiva, aunque no deje huella en sucesivas generaciones. Pero es que, a menudo, sí deja: http://evolucionyneurociencias.blogspot.com.es/2012/08/efecto-baldwin-version-academica.html

    «La separación clásica entre sintaxis, semántica y pragmática es una forma de reducer la complejidad del análisis del fenómeno del lenguaje»

    Y qué formula propones para acabar con el triunvirato. A mí Chomsky me convence tan poco como a tí. Si te apetece y tienes tiempo, hoy los tiros van por aquí: https://www.youtube.com/watch?v=f3-R3Ii35nY

  26. Ian Marteens says

    Pero no me parece mal la metáfora del algoritmo para hablar de su función.

    Ahí está la clave, Masgüel.

  27. Pingback: Nuestra invención final, Inteligencia Artificial - Grab a Chapter

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *