Tercera Cultura
comentarios 2

Robots asesinos

¿Debemos prohibir los robots soldados con capacidad de matar?

He recibido un e-mail que me proponía firmar una petición para prohibir los robots asesinos. La primera intención, obviamente, es firmarla. ¿Quién quiere robots asesinos? Al leer con un poco de calma la petición, lo que estaban pidiendo era la prohibición de robots soldados con capacidad de matar y el argumento principal era que no se podía dejar a una máquina tomar decisiones éticas sobre si disparar a matar o no. ¿Debemos prohibir los robots soldados con capacidad de matar?La cuestión se convirtió en algo mucho más complejo. Ya no se trata de «robots asesinos» sino de «robots soldados con capacidad para matar». ¿Se podrían llamar soldados si no tuvieran la capacidad de matar? ¿No está implícito en la naturaleza del soldado matar cuando se le ordena? «Cuando se le ordena» implica que quien toma la decisión de matar no es el soldado sino otra persona. El soldado solo ejecuta lo ordenado. En ese sentido ya los robots soldados con capacidad para matar no son tan diferentes del soldado humano. Los ejércitos preparan muy bien a sus personas para que obedezcan las órdenes. En ese sentido se parecen bastante a los robots. Si la decisión de matar la toma un humano no parece que haya nada en contra de los robots soldados. No obstante, hay muchas veces en las que un soldado en una tarea concreta debe tomar la decisión de matar sin la orden la de un jefe. Debe tomar la decisión el mismo. Por ejemplo, se llega a una aldea remota donde puede haber enemigos y de las casas sale un niño con una metralleta. El niño puede disparar y matarle o simplemente puede estar asustado y ni siquiera sabe manejar el arma. ¿Hay que disparar o no? Supongo que es a esos casos a los que se refería la petición de prohibir los «robots asesinos».

La primera reacción es pensar que hay que prohibirlo pues la máquina tiene que tomar decisiones éticas. Una reacción un poco más meditada nos dice que no hay ni que aprobarlas ni que prohibirlas, lo que hay que hacer es definir las pruebas que deben pasar las máquinas para que podamos aprobarlas. Definir con exactitud esas pruebas sin duda es muy complejo, pero una idea de cómo deben ser es relativamente sencilla: los robots deben comportarse igual o mejor que los soldados humanos en las mismas circunstancias. Habrá que diseñar campos de pruebas para ver cómo reaccionan los humanos y ver cómo lo hacen los robots. Y, cómo no, entre esas pruebas siempre habrá algo nuevo, algo inesperado. Cuando los robots igualen o superen a los humanos es que estarán preparados para asumir su papel.

2 Comentarios

  1. arivalia says

    e iría en contra de las famosas leyes de la robótica de Isaac Asimov

  2. «una idea de cómo deben ser es relativamente sencilla: los robots deben comportarse igual o mejor que los soldados humanos en las mismas circunstancias»

    El problema con esto es que le estás dando demasiado crédito a la inteligencia artificial.

    De todos modos, nos estamos yendo por las ramas. ¿Una mina antipersona distingue si el que la pisa es soldado o civil? ¿Y una bomba nuclear? Manning nos ha mostrado que los soldados en EEUU no siempre toman las decisiones correctas, morales o no. Por lo que, ¿Cambia algo que traigamos robots asesinos? Pues si, ya que en el fondo un robot puede estar controlado para tomar las decisiones más importantes, mientras que no podemos poseer ni controlar telepaticamente a un soldado.

    En definitiva, creo que el día que un robot tome una decisión poco ética será, en definitiva, porque una persona por detrás la autorizó. Lo mismo da que el que la ejecute sea un misil, una mina, un soldado o un robot.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *