
En la robótica existen cuatro leyes, las cuales partieron de las novelas de ciencia ficción del escritor norteamericano Isaac Asimov. Estas leyes surgen como medida de protección para los humanos. Según Asimov, las leyes de la robótica quería contrarrestar un supuesto "complejo de Frankenstein", es decir, evitar que el robot se revelara frente a su creador causándole daño.
De intentar siquiera desobedecer una de las leyes, el cerebro positrónico (tipo CPU) del robot resultaría dañado irreversiblemente y el robot moriría (según las novelas de Asimov). En otras palabras, estas leyes son el código moral de todo robot. Los robots solo sirven para servir a los humanos.
1.Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2.Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
3.Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.
Existe una cuarta ley que se sobrepone a las tres anteriores
4.Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.
Esta ley nos da a entender sobre el uso de robots en la guerra. Solo podrían atacar a su similar, mas no a un humano.
Hay un documento escrito por un ingeniero de la marina de USA, en donde se propone dotar a los robots de combate de total libertad cuando se enfrenta a un enemigo robótico (donde la violencia no seria un problema), y de algunas reglas más restrictivas cuando combate contra humanos. Incluso, dice que podría ser útil un operador humano para que decida por la maquina.