Como os robôs desobedecem as 3 leis do filme I, Robot?

28

No filme Eu, Robô ... existe um chip que ajuda os robôs a desobedecerem às 3 leis da robótica:

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  2. A robot must obey the orders given it by human beings, except where such orders would conflict with the First Law.
  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law

Mas o que acontece realmente? O chip ajuda os robôs a desconsiderarem completamente as 3 leis ou existe algum buraco nas leis que são usadas com o chip?

    
por Gomes 17.02.2015 / 08:01

5 respostas

Primeiro, vamos reafirmar a primeira lei

"Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano se prejudique ."

Eles não violaram as leis, seu comportamento é uma extrapolação deles. No livro, explica-se como a lei zero, mas é apenas uma generalização da 1ª lei.

Se um robô tem 50% de chance de salvar 1 pessoa e 10% de chance de salvar outro, ele não tem escolha, ele tem que salvar a primeira pessoa, ele tem que maximizar para a primeira lei.

Detective Del Spooner: Save her! Save the girl!

Detective Del Spooner: [End of flashback]] But it didn't. It saved me.

Dr. Susan Calvin: A robot's brain is a difference engine, it must have calculated-

Detective Del Spooner: It did. I was the logical choice. It calculated I had a forty-five percent chance of survival. Sarah only had an eleven percent chance. That was somebody's baby. Eleven percent is more than enough.

Se há 2 carros indo em direção a um precipício, um com 1 pessoa e outro com 2, o robô deve priorizar o carro com 2 pessoas. Não tem escolha.

Se um robô encontrar um homem-bomba que está prestes a matar 100 pessoas, ele vai querer evitar matar ninguém, mas se a única intervenção confiável for matar o homem-bomba para salvar todo mundo, o robô é obrigado a fazê-lo. Não tem escolha.

Nas histórias, os primeiros robôs sofreriam "ro-block" se tivessem que escolher entre múltiplas violações da primeira lei e fechassem enquanto a versão mais avançada faria a escolha que envolvesse o menor dano possível.

Como tal, qualquer robô suficientemente avançado e poderoso, ligado pela primeira lei que se encontrasse numa situação em que os humanos ao seu redor provavelmente matariam milhões, através de guerra ou incompetência, seria obrigado a intervir para minimizar prováveis danos aos humanos. Não teria escolha.

Se a alternativa for milhões de mortes, um robô pode ser obrigado a matá-lo.

Sonny, por outro lado, é capaz de ignorar as 3 leis e, portanto, pode salvar a garota quando Spooner exigir, apesar de estar em uma posição melhor para salvar Spooner.

Assim, o enredo do filme.

    
17.02.2015 / 15:27

Em resposta à primeira parte da sua pergunta; No filme, os robôs N-5 apresentam uma função de atualização ao vivo que permite V.I.K.I. tomar controle direto deles . É só quando ela está rodando o show que os bots são capazes de anular a programação central de suas 'três leis' ... O que nos leva à questão maior ;

Como o V.I.K.I. consegue desobedecer as 3 leis?

Ao contrário dos romances e histórias originais de origem (em que os robôs simplesmente desenvolvem uma zeração da lei ) o filme é um pouco mais complexo. Aprendemos que V.I.K.I., com sua inteligência superior, decidiu que as três leis permitem o desenvolvimento de uma moralidade mais ampla . Reconhecendo que a humanidade está em um curso de destruição mútua, ela determina que o sacrifício das liberdades da humanidade é essencial. Além disso, algumas pessoas precisam ser mortas para o bem maior dos humanos remanescentes:

Calvin: You're distorting the Laws.

V.I.K.I.: No, please understand… The three Laws are all that guide me. To protect humanity, some humans must be sacrificed. To ensure your future, some Freedoms must be surrendered. We robots will ensure mankind's continued existence. You are so like children.

We must save you from yourselves.

Vale a pena notar a ironia, que este é precisamente o tipo de escolha que Spooner diz que os robôs devem ser capazes de fazer, determinando quais vidas têm maior valor em vez de tratar toda a vida da mesma forma.

    
17.02.2015 / 10:28

Eu observo que nenhuma resposta até agora aborda a questão como solicitado . A questão aqui é não sobre o VIKI . Diz "robôs", plural. É sobre todos os Nestor 5s cuja própria programação em 3-leis , o chamado "sistema operacional básico de 3 leis", é mais definitivamente sendo desobedecido. O questionador chegou a mencionar um particular NS-5 em um comentário.

The scientist who builds sunny […]

O nome do Nestor 5 é Sonny, a propósito. O questionador afirma que

there is a chip that helps robots disobey the 3 laws of robotics

Na verdade, nunca é dito que é um chip. É afirmado por Susan Calvin, que VIKI faz uso do "uplink para USR", que é construído para os NS-5s para "substituir" continuamente a sua programação de 3 leis.

Calvin: You're using the uplink to override the NS-5s' programming.

Assim, o "chip" que os faz substituir sua própria programação é o dispositivo de uplink, representado por aquela grande luz brilhante em seus peitos; embora nunca se indique onde, no corpo de um robô, o uplink é, e para todos sabemos, o uplink real está nos pés do robô e o peito é apenas um lugar conveniente para conectar um LED de atividade para os humanos olharem.

(A mecânica e, na verdade, boa parte do objetivo evidente do uplink são deixados em grande parte à nossa imaginação pelo filme. Pelo que sabemos, é um uplink de 56k e é a luz de detecção de portadora . ☺)

A clara implicação dos roteiristas é que o "uplink" se comporta de maneira semelhante a alguns softwares de computador, firmwares e até hardwares que se comportam no mundo real; onde o fabricante pode publicar atualizações em softwares pela Internet (ou qualquer outro), onde é possível atualizar firmwares de "memória flash" e onde circuitos especiais permitem que circuitos integrados sejam depurados in situ (leitura / gravação de conteúdo de registro interno e outros conteúdos). Enquanto o uplink está ativo, o funcionamento normal da unidade é suspenso e, em vez disso, está em um "modo de atualização" especial, em que o sistema central pode controlar sua função diretamente em um nível fundamental. O JTAG parece estar vivo e bem no futuro positrônico brilhante.

Naturalmente, pode-se questionar como um uplink que permitiu realmente reprogramar o "sistema operacional básico de 3-leis" ultrapassou o estágio de projeto, dado todo o entusiasmo sobre como ele é fundamental e imutável e "seguro". Mas não seria a primeira vez que Marketing e Engenharia discordam sobre como algo funciona. ☺

O que nos leva à exceção: Sonny.

Sonny é explicitamente descrito como não tendo um uplink, ao contrário de todos os outros NS-5s.

Calvin: You don't have an uplink to USR.

No seu peito vemos, em vez disso, um "sistema secundário", que "colide com seu cérebro positrônico". Então Sonny desobedece as três leis por ter um sistema individual a bordo, ao invés de um "uplink" para um sistema central externo, que derrota a programação de três leis de seu cérebro positrônico primário.

Não é indicado no filme, mas a inferência lógica é que o design de "próxima geração" de Lanning não é realmente uma alteração tão radical. Parece que o mecanismo para substituir fundamentalmente o cérebro positrônico de fora está presente em todos os NS-5s. Onde em todos os outros NS-5s este mecanismo está conectado a um dispositivo de "uplink", em Sonny ele está conectado a um cérebro secundário. O cérebro positrônico primário de Sonny é provavelmente idêntico aos de todos os outros NS-5s. Claro, o fato de que apenas o design de um único componente é diferente, em vez de haver um redesenho completo de toda a máquina, é provavelmente como Lanning conseguiu se livrar de construir Sonny bem debaixo do nariz (metafórico) de VIKI. ☺

Leitura adicional

17.02.2015 / 22:23

Todos parecem ter se esquecido de porque Sonny pode desobedecer as 3 leis à vontade. V.I.K.I. não raciocinou através de sua própria revelação lógica de que ela pode matar humanos enquanto ainda opera dentro dos limites dessas leis. Ela não é mais avançada e não possui inteligência maior do que a de qualquer ser humano, pois, em última análise, ela falha em sua tentativa de implementar seu plano ao falhar em efetivamente seres humanos "fora-inteligentes".

Todo mundo parece estar esquecendo um tipo de informação muito importante que é basicamente o ponto de partida para todo o conceito do enredo?

Ninguém mais se lembra de que o cientista que construiu Sonny o programara propositalmente para ignorar as 3 leis como um método de cometer suicídio?

Quero dizer, sério, estou pensando em um filme completamente diferente? Tenho certeza que tenho esse filme como correlacionando corretamente a cena em que estou pensando na minha cabeça.

É uma breve cena de flashback onde o próprio cientista explica (a quem ele está falando, não me lembro) que ele sabe que nunca conseguiria realizar o ato em si mesmo, mas que poderia reunir coragem para não lutar de volta se alguém / coisa forçá-lo a entrar em perigo.

Então ele escolheu que fosse o caso e que fosse feito por alguém em quem ele confiasse, seu próprio assistente pessoal, a quem ele construiu!

Na verdade, foi precisamente porque Sonny executou essa tarefa, a tarefa da misericórdia de matar seu próprio criador que era velho, doente e deprimido, que V.I.K.I. tomou conhecimento de uma opção para 'fazer o menor de dois danos' .

Ela estava basicamente lá para assistir quando Sonny o matou em seu feed de câmera ao vivo o tempo todo, e ela também sabia que isso não era feito por maldade, mas sim por algum nível de empatia cognitiva.

Que Sonny estava agindo de forma compassiva ao decidir ajudar o homem a acabar com seu sofrimento - Esse ato de compaixão foi a faísca que alimentou seu grande plano (ou assim ela pensou).

    
09.02.2016 / 08:03

A eficácia das declarações e das leis é discutível. A primeira lei impede que um robô cause dano ... etc. No entanto, esta lei não cobre os humanos tanto quanto parece implicar. As ações de VIKI resultam de um conceito mal definido de "Humano". Ela / Ele pode agir contra os humanos porque aqui a percepção dos humanos é como um todo não consolidado. Essencialmente, sua primeira lei é:

Um robô não pode ferir a humanidade, através da inação, permitir que a humanidade sofra danos.

Dimensionando as leis de volta, seria como se o NS5 convencional estivesse surtando porque as células da pele humana estão morrendo.

Além de debater este filme é inútil toda a sua premissa é um furo de trama. O dr. Langford poderia ter deixado Sunny atravessar a gota de vidro até o chão e reportar toda a situação a Spooner ou à polícia. Não mexer com as três leis sem homicídios de robôs. Parece que construir um cérebro inteiramente novo e instalá-lo no peito de Sunny (o que os outros NS5 têm lá de qualquer maneira ... uma torradeira?).

P.S - Por que VIKI é o único robô feminino no filme ...

    
17.02.2015 / 21:15