Los científicos temen que las máquinas lleguen a ser más listas que los humanos
Por John Markoff, New York Times
[Trad. V. Carbona]
Un robot que abre puertas y encuentra tomas de corriente para recargarse. Virus de ordenador que nadie puede parar. Zánganos (aeronaves espías sin piloto) que, aunque controlados por seres humanos, parecen máquinas capaces de matar de manera autónoma.
Impresionados y alarmados por los avances en la inteligencia artificial, un grupo de científicos de la computación debate si deben existir límites sobre la investigación que pueda llevar a que los humanos pierdan el control de sistemas basados en ordenadores que asumen un nivel cada vez mayor de las funciones de la sociedad, desde hacer la guerra hasta chatear con clientes por teléfono.
Lo que les preocupa es que avances futuros podrían provocar profundos trastornos sociales y hasta tener consecuencias peligrosas.
Como ejemplos, los científicos señalan a un número de tecnologías tan diversas como sistemas médicos experimentales que interactúan con pacientes para simular empatía, y gusanos y virus de ordenador que desafían explicaciones y de los que se podría decir que han alcanzado el nivel de «cucaracha» de la máquina inteligente.
Aunque los científicos de computación reconocen que estamos muy lejos de Hal, el computador que se apoderó de la nave espacial en «2001: Una Odisea en el Espacio», afirman que existe un temor legítimo a que el progreso tecnológico transforme el concepto del trabajo al destruir una gama de empleos cada vez más amplia, y obligue a los humanos a aprender a vivir con máquinas que copian el comportamiento humano cada vez más.
[Nota del trad.: Ref. el artículo de Susan Blackmore en New Scientist sobre El Tercer Replicador.]
Los investigadores -destacados científicos de computación, investigadores de inteligencia artificial y roboticistas que se juntaron en el Centro de Conferencias Asilomar de la Bahía de Monterrey en California- generalmente descontaron la posibilidad de ver superinteligencias altamente centralizadas y la idea de que la inteligencia podría surgir espontáneamente del Internet. Pero declararon que los robots capaces de matar de manera autónoma, o ya están aquí, o pronto lo estarán.
Enfocaron atención específica sobre el espectro de que criminales pudieran ser capaces de aprovecharse de sistemas de inteligencia artificial una vez se desarrollen. ¿Qué podría hacer un criminal con un sistema de síntesis de conversación capaz de hacerse pasar por un ser humano? ¿Qué sucede si la tecnología de la inteligencia artificial se usara para obtener información personal de teléfonos inteligentes?
Los investigadores también discutieron las posibles amenazas a trabajos típicamente humanos, tales como coches de conducción autónoma, asistentes personales basados en software y robots de servicio doméstico. Hace apenas un mes, un robot de tareas domésticas desarrollado por Willow Garage en Silicon Valley demostró que era capaz de navegar en el mundo real.
Un informe de la conferencia, que se llevó a cabo en privado el 25 de febrero, será publicado hacia finales de este año. Este mes, algunos de los participantes comentaron por primera vez sobre la reunión con otros científicos y en entrevistas.
La conferencia fue organizada por la Asociación para el Fomento de la Inteligencia Artificial (A.A.A.I.), y al escoger Asilomar para las discusiones, el grupo evocó decididamente un evento clave en la historia de la ciencia. En 1975, los principales biólogos del planeta también se reunieron en Asilomar para discutir la nueva habilidad para reconstruir la vida intercambiando material genético entre organismos. Preocupados por los posibles riesgos biológicos, los científicos habían cesado ciertos experimentos. La conferencia produjo pautas específicas para la investigación de ADN recombinante, lo que permitió que procediese la experimentación.
La reunión sobre el futuro de la inteligencia artificial fue organizada por Eric Horvitz, un investigador de Microsoft que ahora es el presidente de la asociación.
El Dr. Horvitz dijo que pensaba que los expertos en computación deben responder a la noción de máquinas superinteligentes y sistemas de inteligencia artificial descontrolados.
La idea de una «explosión de inteligencia» en la que máquinas listas diseñaban máquinas aún más inteligentes fue propuesta por el matemático I. J. Good en 1965. Luego, en discursos y en novelas de ciencia ficción, el científico Vernor Vinge popularizó la idea de un momento en el que los humanos crearan máquinas más inteligentes que los hombres, causando cambios tan rápidos que «acabaría la era humana». Llamó a este cambio la Singularidad.
Esta visión, propagada en películas y en literatura, es considerada como algo plausible y algo inquietante por algunos científicos, tales como William Joy, co-fundador de Sun Microsystems. Otros tecnólogos, notablemente Raymond Kurzweil, han ensalzado la llegada de máquinas ultrainteligentes, diciendo que ofrecerán inmensos avances en la extensión de la vida y creación de riqueza.
«Algo nuevo ha sucedido en los últimos cinco a ocho años», dijo el Dr. Horvitz. «Los tecnólogos están ofreciendo visiones casi religiosas, y sus ideas están resonando en maneras que se parecen a la del Rapto [el juicio final del Cristianismo]».
La versión de Kurzweil de la utopía tecnológica ha capturado las imaginaciones en el Silicon Valley. Este verano, una organización llamada la Singularity University comenzó a ofrecer cursos para preparar un «núcleo duro» para moldear los avances y ayudar a la sociedad a bregar con las ramificaciones.
«Mi sensación era que tarde o temprano tendríamos que hacer algún tipo de declaración o evaluación, dada la voz cada vez más estridente de los tecnólogos y de gente muy preocupada por la llegada de las máquinas inteligentes», dijo el Dr. Horvitz.
El informe de la A.A.A.I. intentará evaluar la posibilidad de «la pérdida del control humano sobre las inteligencias basadas en computadores». También intentará bregar, dijo el Dr. Horvitz, con asuntos socioeconómicos, legales y éticos, además de los cambios probables en relaciones entre humanos y computadores. ¿Cómo podría relacionarse alguien, por ejemplo, con una máquina tan inteligente como su cónyuge?
El Dr. Horvitz dijo que el panel estaba buscando maneras para guiar la investigación para que la tecnología mejorase a la sociedad en lugar de dirigirla hacia una catástrofe tecnológica. Parte de la investigación podría, por ejemplo, llevarse a cabo en laboratorios de alta seguridad.
La reunión sobre inteligencia artificial podría ser crucial para el futuro de esta área de estudio. Paul Berg, que organizó la reunión de Asilomar de 1975 y recibió un Premio Nobel de química en 1980, dijo que era importante que la comunidad científica se acercase e informase al público antes de que la alarma y la oposición se endurezcan.
«Si esperas demasiado y los lados se atrincheran como con los O.G.M.», dijo, refiriéndose a los alimentos genéticamente modificados, «entonces es muy difícil. Es demasiado complejo, y la gente habla sin escucharse uno al otro».
Tom Mitchell, profesor de inteligencia artificial y aprendizaje en máquinas de la Universidad Carnegie Mellon, dijo que la reunión en Febrero había cambiado su modo de pensar. «Entré muy optimista sobre el futuro de la Inteligencia Artificial y pensando que Bill Joy y Ray Kurzweil estaban muy alejados en sus predicciones», dijo. Pero, agregó, «La reunión me hizo querer ser más expresivo sobre estos asuntos y en especial expresarme acerca de las grandes cantidades de datos recogidos sobre nuestras vidas personales».
A pesar de sus inquietudes, el Dr. Horvitz dijo que tenía esperanza de que la investigación sobre inteligencia artificial beneficiaría a los humanos, y quizás hasta podría compensar por las debilidades humanas. Recientemente demostró un sistema basado en la voz que ha diseñado para preguntar a pacientes sobre sus síntomas y para responder con empatía. Cuando una madre dijo que su hijo tenía diarrea, la cara en la pantalla dijo, «Oh, no, cuánto lo siento».
Un médico le dijo después que era maravilloso que el sistema respondía a la emoción humana. «Esa es una gran idea», dice el Dr. Horvitz que le dijeron. «No tengo tiempo para eso».
¿Viruses?
My bad. Gracias.
Del texto
«Otros tecnólogos, notablemente Raymond Kurzweil, han ensalzado la llegada de máquinas ultrainteligentes, diciendo que ofrecerán inmensos avances en la extensión de la vida y creación de riqueza.»
Así parece poca cosa lo de Kurzweil. Una visión más poderosa ofrece su postura con esto
Google y la NASA lanzan la Universidad de la Singularidad en Silicon Valley
http://www.elmundo.es/elmundo/2009/02/04/navegante/1233747353.html