viernes, 31 de agosto de 2012

Mi robot aspirador no sigue las tres Leyes de la Robótica




Todos hemos tenido alguna vez la sensación de que llegará un momento en el que las máquinas se cabrearán con sus creadores, los frágiles y patéticos humanos, y nos destruirán.  Parece que la evolución de la inteligencia artificial no puede tener ningún otro final diferente.  Pero, ¿hay alguna manera de protegernos ante este funesto futuro?

El genial escritor de Ciencia Ficción Isaac Asimov imaginó un futuro en el que los robots formarían un papel importante para la Humanidad, conviviendo en paz con nosotros, y evolucionando en una simbiosis perfecta.
Para ello, desarrolló un sistema perfecto de protección del ser humano, que él llamó Las Tres Leyes de la Robótica.
Estas Tres Leyes son unas normas que el robot estaría obligado siempre a cumplir, al estar impresas en su cerebro mismo (en la ROM, la memoria de sólo lectura).    Estas normas no se podrían pues modificar, y si el robot las intentara desobedecer, su cerebro se vería inmediata e irreversiblemente dañado.

Las famosas Leyes representan el código moral del robot.  Cada una de las decisiones que el robot tiene que tomar de manera independiente deben pasar por estas tres reglas lógicas.


  1. 1ª LEY: Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

  2. 2ª LEY: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.

  3. 3ª LEY: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.


Así de simple.  Así de perfecto.  La seguridad del Ser Humano está garantizada por este triple problema de lógica.
El propio Asimov comprobó la validez de dichas leyes en infinidad de situaciones, en varios de sus libros (Yo, RobotLas bóvedas de aceroEl sol desnudoLos robots del amanecerRobots e Imperio)

Cualquiera podemos plantear una situación en la que un robot tendría por obligación que actuar de una u otra manera, a partir de dichas leyes.

Un ejemplo sencillo: un robot descubre a un hombre, armado y peligroso, que está violando a una mujer.  El robot recibe dos órdenes simultáneas; la mujer le pide auxilio, y el hombre le ordena que se mantenga al margen.  Para recalcar esta orden, el hombre apunta al robot con un arma capaz de destruirlo.

¿qué debe hacer el robot?

Muy fácil: 

- Primero, de acuerdo con la Primera Ley, el robot no puede hacer daño a ninguno de los dos seres humanos, ni siquiera al violador.
- Sin embargo, su inacción permitiría que la mujer sufriera daño, y estaría incumpliendo la Primera Ley. Por tanto, el robot se decide a actuar, con el objetivo que la mujer no sufra daño.
- El robot debe obedecer a los humanos, siempre que esa orden no contradiga la Primera Ley.  Por tanto, la orden del violador no debe ser obedecida.  Sin embargo, la orden de la mujer es perfectamente compatible con todo lo anterior.
- Por tanto, el robot está obligado a proteger a la mujer sin causar daño al violador.
- El robot en ese caso no podrá proteger su propia existencia, manteniéndose fuera del alcance del arma.  Esto entraría en contradicción con su obligación de auxiliar a la mujer (1ª Ley), y con la de obedecer a su orden (2ª Ley). Intentará salvarla, aunque eso suponga su propia destrucción.

Como código moral es intachable.  No sé cuántos de nosotros tomaríamos impulsivamente la misma decisión, a pesar de saber que nuestro código moral nos obliga a ello.

Parece un sistema perfecto.  ¡¡Este tío era un hacha!!  Por mucho que se desarrollen los robots en el futuro, y nos superen en fuerza, inteligencia, rapidez, etc, nunca nos causarán daño. 
Supongo que todos los desarrollos de inteligencia artificial actuales están teniendo en cuenta esta magnífica manera de protección, de una u otra manera.  Lástima que la evolución de la robótica está siendo un poco decepcionante, y todavía los robots no son lo que Asimov esperaba.  Lo más "avanzado" y asequible que podemos encontrar hoy en día es un robot aspirador.  Llamarlo robot es un chiste, pero bueno.  Sin embargo, un incidente que ocurrió con el que tenemos en casa, me hizo sospechar que las tres Leyes no están instaladas en estos "robots".  Mientras el sufrido aspirador estaba buscando polvo y suciedad por todas las esquinas de la casa, dejé distraidamente la puerta abierta. Al salir de casa, encontré al robot parado en el rellano, a escasos centímetros de un precipicio de cinco pisos, a punto de caer.  Eso me hizo plantearme brevemente que su sistema de seguridad anti-caídas era equivalente a la 3ª Ley, puesto que el robot había protegido su propia existencia.  En ese caso, pensé, una sencilla orden que obligara al robot a avanzar, a través por ejemplo del mando a distancia, activaría la 2ª Ley, por la que el robot tendría que obedecerme, precipitándose al vacío.  Por si acaso, no quise tentar a la suerte, por lo que nunca sabré si el robot habría dado prioridad a su propia seguridad o a mi estúpida orden.  Decidí mejor intentar comprobarlo a través del libro de instrucciones.
Pues bien, allí no encontré ninguna referencia a las tres Leyes, ni siquiera a la más importante de todas, la primera. Bueno, ciertamente es ridículo planteárselo para un inofensivo robot aspirador, puesto que no tiene mucha capacidad de hacer daño. Pero supongo que robots más avanzados si que deberían tener en cuenta estas leyes de la robótica.

Para mi profunda decepción, nadie parece estar teniendolas en cuenta para el desarrollo de sus robots.  Ni siquiera Honda, con su famoso robot ASIMO hace ninguna referencia al tema (y eso que su nombre tiene un sospechoso parecido con Isaac ASIMOv).
Bueno, tranquilos, tampoco este gracioso robot con forma de niño tiene aparentemente ningún peligro para nosotros.  Quizás es demasiado pronto para que en nuestra sociedad se haya instalado el debate de si las máquinas creadas por el Hombre se pueden volver contra él, y de cómo protegernos.

Pero la robótica, aunque lenta, va avanzando. Un día, aunque sea lejano, existirá un robot tan tan avanzado que puedan dedicarse, por ejemplo, al cuidado de nuestros hijos: realizarán todas las tareas más repetitivas o tediosas, sentirán un amor incondicional hacia esas delicadas criaturas, y podrán enseñarle a los niños muchas cosas, con una infinita paciencia.  


Pero ese día espero que ya haya quedado claro que es imprescindible tener un sistema de protección tan sencillo y poderoso como las Leyes de la Robótica.  Porque a todos nosotros, por mucho amor que tengamos a nuestros hijos, hemos tenido en algunos momentos ganas de saltarnos la Primera Ley de la Robótica. 


No hay comentarios:

Publicar un comentario en la entrada