As máquinas de “The Matrix” aderem às três leis da robótica?

7

No "mundo real" da Matriz, as máquinas seguem as Três Regras de Asimov? Eles foram programados com eles?

EDIT: Eu percebo que matar pessoas vai contra a 1ª lei, mas mantendo as pessoas na Matrix (que as máquinas vêem como uma simbiose) ao invés de simplesmente matar essas criaturas "chatas", eu me pergunto se as mortes podem ser visto como "preservar o bem maior" ou algo nesse sentido; e assim justificar a violação das leis.

    
por Teknophilia 25.06.2012 / 15:04

4 respostas

A "Lei Zeroth" que Asimov referencia (protege a humanidade mesmo à custa de alguns indivíduos) pode justificar as ações que os robôs em Matrix tomam. Eles podem ter decidido que ser destruído resultaria em um colapso tão grande da civilização que colocaria a humanidade em um risco indevido de ser destruída. Heck, os humanos apagaram o sol, não há como eles conseguirem produzir comida suficiente para sobreviver sem os robôs.

    
25.06.2012 / 23:16

No filme O Animatrix , há um curta chamado A segunda parte da Renascença I que entra em detalhes sobre a ascensão das máquinas e o fim do homem.

The relationship between humans and machines changes in the year 2090, when a domestic android is threatened by its owner. The android, named B1-66ER in what appears to be a reference to the character Bigger Thomas from the novel Native Son, then kills the owner, his pets, and a mechanic instructed to deactivate the robot. This murder is the first incident of an artificially intelligent machine killing a human. B1-66ER is arrested and put on trial, but justifies the crime as self-defense, stating that it "simply did not want to die".

O acima implicaria que primeiro, muitas máquinas eram sencientes e / ou eram máquinas pensantes livres. Em segundo lugar, por causa das palavras e ações do andróide, pode-se dizer que essa máquina sabia da diferença entre ativação e desativação e, neste caso, especificamente usada, a palavra "não queria morrer".

Se o B1-66ER tivesse ligado pelas três leis da robótica:

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.

  2. A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.

  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws

B1-66ER poderia ter sido dito ter tido um defeito em sua programação por não obedecer a lei 3, que está em conflito direto com a lei 1. Mas como o curta-metragem continua:

B1-66ER loses the court case and is destroyed. Across the industrialized world, mass civil disturbances erupt when robots and their human sympathizers rise in protest. World leaders fear a robot rebellion, and governments across the planet initiate a major program to destroy all humanoid machines.

Parece que a maioria, se algum dos robôs, não estava vinculada às Três Leis dos Robôs.

    
25.06.2012 / 16:02

A robot may not injure a human being or, through inaction, allow a human being to come to harm.

A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.

A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

Não, não e não.

    
25.06.2012 / 15:43

Negativo. As máquinas no "mundo real" violam as primeiras 2 leis

  1. eles agem de formas que terminam, nunca importam em perigo a vida humana

  2. eles não obedecem ordens de humanos.

CONTUDO , na medida em que a Terceira Lei, a resposta é um pouco mais turva.

A lei de quebra nº 3 ( A robot must protect its own existence as long as such protection does not conflict with the #1 or #2 Laws ) pode ser feita em dois cenários distintos:

  1. por falhar em fazer a primeira metade (auto-preservação) quando não está em conflito com as leis # 1/2

  2. fazendo a primeira metade (auto-avaliação) quando em conflito com as leis # 1/2.

Desde que nós já estabelecemos que # 1 / # 2 são violados dentro e fora de si, o segundo cenário é claramente violado em qualquer ataque por uma máquina em um ser humano. A questão interessante é se eles violam a terceira lei no primeiro cenário.

Não é 100% inequívoco se eles seguem a terceira lei de forma consistente, mas

  • eles claramente não passam por auto-finalização sem motivo

  • E há muitos exemplos deles tentando proteger ativamente sua própria existência, por exemplo

    • os programas que se recusam a ser terminados da Matrix (Merovingian, os programas que tentaram contrabandear sua filha da matriz na estação de trem)

    • nunca se preocupe com a guerra original entre máquinas e humanos que claramente se autodefesa na parte da máquina

25.06.2012 / 15:43