Problem zasad moralnych jakimi będą się kierowały urządzenia wyposażone w sztuczną inteligencję pojawił się znacznie wcześniej niż realne możliwości produkcji takich urządzeń. Początkowo rozważano go jedynie w literaturze fantastycznej, lecz teraz ze względu na dynamiczny rozwój nauki stał się realnym problemem.

Isaac Asimov w roku 1942 stworzył trzy prawa robotów i przedstawił je w fantastycznym opowiadaniu "Zabawa w berka". Celem tych praw było uregulowanie kwestii stosunków pomiędzy przyszłymi myślącymi maszynami a ludźmi. Przedstawiały się one następująco:

1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.

2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.

3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Następnie w opowiadaniu "Roboty i Imperium" Asimov dodał prawo zerowe, które stało się nadrzędne wobec trzech pozostałych:

0. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Więcej informacji: pl.wikipedia.org