Las leyes de la robótica: el código moral del robot

yo-robot-480x288.jpg

Bajo mi humilde opinión como profana en la materia, pienso que una de las mayores aportaciones de Isaac Asimov a la Ciencia Ficción (me atrevería decir que a la Filosofía en general) es el conjunto de las leyes robóticas:

  1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Estas leyes son, según definición del propio autor «formulaciones matemáticas impresas en los senderos positrónicos del cerebro» de los robots, es decir, líneas de código del programa de funcionamiento del robot guardadas en la ROM del mismo.

Origen de las leyes robóticas

Isaac Asimov afirma que las leyes son fruto de una conversación que mantuvo con John W. Campbell el 23 de diciembre de 1940. Para quienes no sepan quién es Campbell, es el autor de Who Goes There? (1948) , llevado al cine en 1951 con el título de The thing from another world, dirigida por Christian Nyby, y en 1982 The thing (La Cosa) dirigida por John Carpenter.

Sin embargo Campbell matiza, modesto, que en realidad las Leyes Robóticas son creación de la mente brillante de Asimov pero que en aquella conversación se matizaron hasta concretarla en su forma final.

La primera aparición de las tres leyes robóticas fue en 1942, en el relato Runaround aunque ha regido la conducta de los robots en todas las obras de Asimov, especialmente en I, Robot (Yo, Robot) la mítica colección de relatos en la que más se discuten las tres leyes y ha influido decisivamente en el género de la ciencia ficción ya que las han aplicado numerosos autores en obras relacionadas con el universo del autor.yo-robot

Incluso han traspasado los límites de la ficción, ya que en 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas y el Consejo de Investigación de Artes y Humanidades de Gran Bretaña publicaron cinco principios éticos que deberían seguir tanto los creadores de los robots como sus usuarios de los robots.
Importancia de las Leyes de la Robótica

Según Asimov estas leyes se crearon como medida de protección para el ser humano para evitar que en un futuro hipotético las máquinas acabaran rebelándose contra sus creadores. Las leyes se implantarían en los robots de manera que cualquier intento de desobediencia contra cualquiera de las leyes no sólo produciría un daño irreversible en el cerebro del robot sino que éste moriría.

Interpretación de la Ley

Pero no es tan sencillo matizar las leyes ya que dan lugar a múltiples ramificaciones y raíces que se han diseccionado y discutido tanto dentro como fuera de la obra de Asimov. El Robot se enfrenta a los mismos dilemas morales a los que se enfrenta el ser humano al que se le da el poder de matar: ¿puede un robot acabar con una vida humana? Y si puede hacerlo aunque eso suponga su propia destrucción: ¿hay una vida más importante que otra? ¿Cuál es el criterio que se debe utilizar para determinar qué vida debe prevalecer? ¿qué se entiende por daño? ¿físico, psicológico? ¿cuál es peor o mejor?

Al principio, cuando los robots eran más simples (en el fondo tanto como los seres humanos que los diseñaban) el criterio era cuantitativo: dos vidas valen más que una. Poco a poco este criterio se fue matizando ya que había vidas que podían considerarse más valiosas que otras: la de un niño, un líder, el dueño al que el robot debía proteger, etc.

Las ramas seguían extendiéndose a medida que aumentaba la complejidad del robot y, por lo tanto, su capacidad de autorreflexión: ¿realmente cualquier niño?¿realmente cualquier líder? ¿siempre el dueño? ¿se puede lastimar físicamente al atacante para proteger la psiquis del atacado?

Y todas estas preguntas deberían ser contestadas bajo un análisis puramente lógico, carente de emoción ya que, en teoría, los robots no sienten.

La ley Cero

  • Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

Esta ley es una variación de una de las leyes de la robótica. Aparece por primera vez en Robots e Imperio. Fue elaborada por R. Daneel Olivaw, uno de los robots más complejos jamás creados, tras una discusión mantenida con el humano Elijah Baley en su lecho de muerte. Éste le dijo que la humanidad es un tejido y las vidas humanas individuales son hebras de ese tejido.

El dilema moral, en este caso, es definir qué se entiende por Humanidad y qué se entiende por daño, ya que esta ley prevalecerá por encima de las otras.

Difícil respuesta, similar a la que se le planteó a Ender, de quien hablo en otro artículo. Yo no sabría contestarla. Creo que, a día de hoy, nadie puede.

 

Comments are closed.