Las leyes de la Robótica de Asimov en discusión
Cualquier fan de la ciencia ficción conoce los tres postulados que pasaron de ser literatura a las directrices de la relación entre la humanidad y la tecnología: las Leyes de la Robótica de Isaac Asimov. Así como aparecieron en 1942, en el relato Runaround del norteamericano:

1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley
Hasta ahora, era un consenso general que las leyes de la robótica eran suficientes para regir sobre los límites de operación de robots y androides. Sin embargo, hecho recientes (un robot militar que en 2007 causó la muerte de 9 soldados en Sudáfrica y un obrero sueco asesinado por el robot que intentaba reparar en una fábrica sueca este año) ha puesto sobre la mesa de discusión la necesidad de expandir los preceptos de la robo-ética.
Según Josh Hall, autor del libro Beyond AI: Creating the Conscience of a Machine, con la mayor complejidad de las máquinas, surgen nuevos dilemas éticos, pues los robots cada vez deben tomar más decisiones por sí mismos.
Los estudiosos de la robo-ética quieren desarrollar una serie de preceptos para castigar las malas decisiones de un robot, una suerte de lenguaje legal robótico: una legislación que indique cómo debe realizarse la interacción entre seres humanos y robots, y cómo deben comportarse los robots.
Para estos expertos, la fecha crucial será el 2030, cuando las nuevas generaciones de robot se conviertan en herramientas de uso doméstico, y cuándo la responsabilidad del comportamiento de estás máquinas no dependa ya de su constructor, sino de los complejos sistemas de inteligencia artificial que sustenten al robot.
Esta nueva legislación se constituiría de una serie de instrucciones incorporadas en el software del robot que le indicarían, por ejemplo, cuánto y cómo pueden acercarse a una persona e incluso nuestra nociones sobre lo que no es legal.
El problema es, añaden los expertos, que la moralidad no se puede describir en instrucciones concretas.
Fuente | Wired


0 comentarios:
Publicar un comentario