miércoles, 30 de junio de 2010

Las Leyes de la Robótica


En la robótica existen cuatro leyes, las cuales partieron de las novelas de ciencia ficción del escritor norteamericano Isaac Asimov. Estas leyes surgen como medida de protección para los humanos. Según Asimov, las leyes de la robótica quería contrarrestar un supuesto "complejo de Frankenstein", es decir, evitar que el robot se revelara frente a su creador causándole daño.

De intentar siquiera desobedecer una de las leyes, el cerebro positrónico (tipo CPU) del robot resultaría dañado irreversiblemente y el robot moriría (según las novelas de Asimov). En otras palabras, estas leyes son el código moral de todo robot. Los robots solo sirven para servir a los humanos.

1.Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2.Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
3.Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

Existe una cuarta ley que se sobrepone a las tres anteriores

4.Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

Esta ley nos da a entender sobre el uso de robots en la guerra. Solo podrían atacar a su similar, mas no a un humano.

Hay un documento escrito por un ingeniero de la marina de USA, en donde se propone dotar a los robots de combate de total libertad cuando se enfrenta a un enemigo robótico (donde la violencia no seria un problema), y de algunas reglas más restrictivas cuando combate contra humanos. Incluso, dice que podría ser útil un operador humano para que decida por la maquina.

He aqui el documento escrito en inglés: http://www.dtic.mil/ndia/2006disruptive_tech/canning.pdf



4 comentarios:

  1. Si al robot se le da inteligencia "propia" (que no dudo que en algún momento se dará) el "complejo Frankeinstein" puede salir a flote y romper las 4 reglas.

    ResponderEliminar
  2. bueno como dice Junior, es cierto, que pasaria si llegan a concebir un poco de conciencia y llegan a empezar a tomar el control del mund, ya que son increiblemente fuertes.
    Seria un caos, pero por el momento, todo esta en orden

    ResponderEliminar
  3. Yo pienso,que si un robot esta progrado basandose en las 4 reglas,no ocasionara daño a la humanidad asi tenga inteligencia artificial,ya que solo obedece las ordenes que le da el humano.El problema seria si una persona logra infectar a un robot y borrarle esas 4 reglas,pudiendo manejarlo a su antojo,por lo que el sistema de seguridad en estos robot,tendria que ser extremadamente alto y muy complicado para evitar que los robot sean mal utilizados

    ResponderEliminar
  4. La programación de un robot no puede ser perfecta, por lo tanto deja la posibilidad de que estos desarrollen una "conciencia" propia. Adquiriría un voluntad y no se vería detenido por las leyes de Asimov. Es, entonces, el ser humano el que debería velar por el bienestar de estas leyes y de nuestra propia existencia.

    ResponderEliminar