O robô que salvou a vida de Spooner em I, Robot, quebrou a segunda lei da robótica?

75

Existe uma cena particular em Eu, Robô que levanta uma questão interessante. O detetive Spooner conta a história de como perdeu o braço. Ele sofreu um acidente de carro e encontrou a si mesmo e uma menina debaixo d'água, prestes a se afogar. Will foi salvo por um robô que estava passando. A razão dada por que o robô salvou Will e não a garota foi que, estatisticamente falando, as chances de sobrevivência de Spooner eram maiores do que as da menina. Isso faz sentido, pois um robô tomaria decisões com base na probabilidade estatística. Mas há um problema: no flashback, ouvimos claramente o personagem de Will gritar: "Salve a garota!" para o robô. Essa foi uma ordem direta de um humano para um robô.

No começo eu pensei que isso não fosse uma violação da segunda lei, porque se o robô tivesse obedecido a sua ordem, ele teria morrido. A segunda lei da robótica não pode substituir a 1ª lei. Mas o problema com isso é que, se a situação de escolha de uma Sophie contasse como quebrar a 1ª lei da robótica, então um robô de emergência nunca seria capaz de fazer triagem (como o robô que salvou Spooner claramente fez). Se escolher salvar um humano conta como prejudicar outro ser humano, então um robô não seria capaz de operar efetivamente em uma emergência como essa.

Tudo isso leva à minha pergunta:
Esse robô quebrou a segunda lei da robótica ou há alguma interpretação sutil das leis que poderia explicar seu comportamento?

    
por Magikarp Master 12.07.2017 / 14:05

10 respostas

O filme parece operar em mecânica anacrônica de Asimov

O que teríamos aqui é provavelmente um conflito entre a primeira e a primeira lei. Desde que o robô não pode salvar ambos os seres humanos, um teria que morrer.

Eu, Robot era:

Há definitivamente precedentes para um robô da era Eu, Robô sabendo que os humanos podem prejudicar, no conto " Little Lost Robot ", mas isso foi sob a circunstância de que o humano viria a prejudicar, independentemente da ação do robô, então os robôs consideram que não é através de sua inação que os seres humanos vêm a prejudicar.

No entanto, eu suspeito que, em vez disso, um robô Asimov interpretaria a situação no filme como um conflito entre a primeira lei e a primeira lei, já que qualquer ser humano poderia ser salvo dependendo da decisão do robô. Em outras palavras, o robô poderia ter salvado a criança, mas não o fez, o que seria uma primeira violação da lei. Olhando para ambas as vítimas da mesma maneira, o robô acharia isso como um conflito entre a primeira lei e a primeira lei.

O conto "Mentiroso" explora o que acontece quando um robô se depara com um cenário lei vs lei primeira:

Through a fault in manufacturing, a robot, RB-34 (also known as Herbie), is created that possesses telepathic abilities. While the roboticists at U.S. Robots and Mechanical Men investigate how this occurred, the robot tells them what other people are thinking. But the First Law still applies to this robot, and so it deliberately lies when necessary to avoid hurting their feelings and to make people happy, especially in terms of romance.

However, by lying, it is hurting them anyway. When it is confronted with this fact by Susan Calvin (to whom it falsely claimed her coworker was infatuated with her - a particularly painful lie), the robot experiences an insoluble logical conflict and becomes catatonic.

Em suma, um robô da era Eu, Robô na escrita de Asimov não teria conseguido continuar funcionando após este cenário e teria que ser descartado completamente. É provável que não seja capaz de funcionar depois de ter sido inicialmente confrontado com o cenário, destruindo-se assim antes de ser capaz de resgatar humanos.

A segunda lei é irrelevante, porque a primeira lei contra a primeira lei resulta em um impasse insustentável. A primeira lei é o "trunfo", por assim dizer, e não é dada prioridade, para que a segunda ou terceira competição, como vemos em Runaround :

In 2015, Powell, Donovan and Robot SPD-13 (also known as "Speedy") are sent to Mercury to restart operations at a mining station which was abandoned ten years before.

They discover that the photo-cell banks that provide life support to the base are short on selenium and will soon fail. The nearest selenium pool is seventeen miles away, and since Speedy can withstand Mercury’s high temperatures, Donovan sends him to get it. Powell and Donovan become worried when they realize that Speedy has not returned after five hours. They use a more primitive robot to find Speedy and try to analyze what happened to it.

When they eventually find Speedy, they discover he is running in a huge circle around a selenium pool. Further, they notice that "Speedy’s gait [includes] a peculiar rolling stagger, a noticeable side-to-side lurch". When Speedy is asked to return with the selenium, he begins talking oddly ("Hot dog, let’s play games. You catch me and I catch you; no love can cut our knife in two" and quoting Gilbert and Sullivan). Speedy continues to show symptoms that, if he were human, would be interpreted as drunkenness.

Powell eventually realizes that the selenium source contains unforeseen danger to the robot. Under normal circumstances, Speedy would observe the Second Law ("a robot must obey orders"), but, because Speedy was so expensive to manufacture and "not a thing to be lightly destroyed", the Third Law ("a robot must protect its own existence") had been strengthened "so that his allergy to danger is unusually high". As the order to retrieve the selenium was casually worded with no particular emphasis, Speedy cannot decide whether to obey it (Second Law) or protect himself from danger (the strengthened Third Law). He then oscillates between positions: farther from the selenium, in which the order "outweighs" the need for self-preservation, and nearer the selenium, in which the compulsion of the third law is bigger and pushes him back. The conflicting Laws cause what is basically a feedback loop which confuses him to the point that he starts acting inebriated.

Attempts to order Speedy to return (Second Law) fail, as the conflicted positronic brain cannot accept new orders. Attempts to force Speedy to the base with oxalic acid, that can destroy it (third law) fails, it merely causes Speedy to change routes until he finds a new avoid-danger/follow-order equilibrium.

Of course, the only thing that trumps both the Second and Third Laws is the First Law of Robotics ("a robot may not...allow a human being to come to harm"). Therefore, Powell decides to risk his life by going out in the heat, hoping that the First Law will force Speedy to overcome his cognitive dissonance and save his life. The plan eventually works, and the team is able to repair the photo-cell banks.

Era de romances de robôs:

Alguns milhares de anos depois da era Eu, Robô , o dilema da primeira lei versus a primeira lei foi essencialmente resolvido.

Em Os Robôs da Aurora , um robô humaniforme experimenta um impasse e é destruído, e Elijah Bailey é encarregado de descobrir porque. Ele sugere ao Dr. Fastolfe, um dos maiores roboticistas da época, bem como o dono e criador do robô, que um dilema da primeira lei contra a primeira lei poderia ser responsável, citando a história de Susan Calvin e do robô psíquico. No entanto, o Dr. Fastolfe explica que isso é essencialmente impossível na era moderna, porque mesmo as invocações da primeira lei recebem uma prioridade e prioridades iguais são selecionadas aleatoriamente; que ele mesmo é provavelmente a única pessoa viva que pode orquestrá-lo, e teria que estar em um bom dia.

Nós vemos instâncias diretas de robôs lidando com prioridade em conflitos de primeira lei ao longo dos romances, como em The Naked Sun , quando outro robô humaniforme força Bailey a se sentar de forma que possa fechar o topo em um transportador para protegê-lo de sua agorafobia.

A desvantagem é que é possível, embora exija circunstâncias extremas, para que múltiplas apelações de segunda ou terceira lei compensem um apelo à primeira lei, como veremos novamente em The Robots of Dawn O robô em questão no filme diz ter decidido que um humano tinha uma chance maior de sobrevivência do que o outro, e usou essa informação para determinar qual humano salvar. Isso não seria um fator na era Eu, Robô , mas é um fato da robótica básica na era dos romances de robôs. No entanto, pareceria que o comando de Spooner para salvar a menina não teria prioridade suficiente para compensar a diferença de prioridades entre seu próprio recurso de primeira lei e o da criança.

    
12.07.2017 / 21:16

A Segunda Lei declara

A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.

Então você está dizendo, recusando-se a salvar a garota como ordenado pelo Detetive Spooner, o robô quebrou essa lei? A única maneira que não pode ter quebrado a segunda lei é se o corolário entra em jogo e entraria em conflito com a primeira lei.

A primeira lei diz

A robot may not injure a human being or, through inaction, allow a human being to come to harm.

Obviamente, o robô não feriu diretamente ninguém, de modo que está fora de cena. O robô não permitiu que a garota se machucasse pela inação enquanto o robô estava agindo ajudando Spooner (isto é, ele não estava apenas observando). No entanto, se, como você diz, era estatisticamente mais provável que Spooner sobrevivesse com alguma ajuda, então obedecer a Spooner e ajudar a garota poderia ser interpretado como deixar Spooner se machucar por inação.

Assim, a Segunda Lei não é quebrada, pois é sobrepujada pela Primeira Lei. A Primeira Lei não está quebrada, pois o robô fez o possível para salvar um humano.

    
12.07.2017 / 14:15

Eu vou olhar para essa questão do ponto de vista lógico do mundo real.

O robô não quebra a segunda lei; mas tecnicamente, faz quebrar o segundo. Dito isto, as regras seriam apenas uma explicação condensada de uma lógica muito mais complexa e de um código de computador.

Para citar as leis de robótica de Issac Asimov, a ênfase é minha:

Rule 1:
A robot may not injure a human being or, through inaction, allow a human being to come to harm.
Rule 2:
A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
Rule 3:
A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.
Irrelevant, but provided for completions sake.

Na situação dada, o robô teve que agir, para salvar Will ou a criança. O robô, sendo capaz de calcular as chances de uma taxa de previsão quase perfeita, é capaz de estabelecer que não pode agir em tempo suficiente para salvar ambos o e o filho ; e as chances dizem que Will tem uma chance melhor de sobreviver. Nesse caso, é lógico escolher a vontade. Este é um ponto chave da trama; os robôs fogem da lógica pura - um fato que os diferencia muito dos seres humanos.

Quando o robô falha em também salva o filho, ele está causando dano por meio da inação . No entanto, novamente, o robô sabe que é impossível salvar o Will e o filho. Escolhe a melhor opção, para melhor cumprir as suas regras. É aí que uma compreensão maior dos computadores e das próprias regras entra em ação.

O que realmente aconteceria, considerando a regra explícita

As regras não são um fato absoluto. Eles não estão lá para dizer "os robôs nunca prejudicarão um humano e sempre salvarão o dia, quando presente". Sabemos disso pela forma como o filme se desenrola. As regras são simplesmente as regras usadas para governar as ações dos robôs, no verso. Como programador, isso é algo que é descaradamente óbvio para mim; mas estou confiante de que não é assim para outros que não estão familiarizados com o quão estritamente aderente qualquer sistema de computador é.

O ponto é que a regra não diz nada sobre isso "sem contar" porque o robô "já está salvando alguém". Como tal, considerando apenas esta regra explícita (como qualquer computador ou robô interpretaria, pelo menos), não há permissão para uma situação em que o robô só pode salvar uma das duas pessoas em perigo. Na ciência da computação atual, considerando apenas a regra explícita , tal evento provavelmente causaria um loop infinito. O robô pararia onde estava e continuaria a processar o catch-22 para sempre; ou, pelo menos, até que sua lógica o expulse do processo de pensamento. Nesse ponto, o robô despejaria sua memória do evento atual e seguiria em frente. Em teoria,

O que provavelmente aconteceria, no verso

No verso, as regras são muito mais complicadas; pelo menos, interna ao robô. Provavelmente haveria muitos casos especiais, ao processar as regras básicas, para determinar como agir em tais situações. Como resultado, o robô ainda é capaz de agir e leva o resultado mais lógico. Só salva Will, mas faz salvar alguém .

É muito mais compreensível que as regras sejam simplificadas para três situações genéricas de casos comuns; seria muito menos crível que as pessoas confiassem tão facilmente em robôs se a regra dizia: "Um robô não pode ferir um humano ou, por inação, permitir que um ser humano se prejudique; a menos que, ao fazê-lo, haja uma chance maior de impedir que outro humano sofra danos ". Há apenas muitas maneiras de interpretar isso.

Assim, no que diz respeito às regras explícitas, o robô não quebra a segunda regra; desobedecer a ação de Will não vai ir contra "impedir um humano de se prejudicar por meio da inação", porque através da desobediência à vontade, ele salva Will. No entanto, ele faz quebrar a regra de "através da inação, permitir que um ser humano se prejudique".

No que diz respeito a como o robô realmente processaria essas regras, não estaria quebrando as regras. Haveria uma série muito mais complexa de lógica "se ..." e "outra ...", onde a lógica dos robôs permitiria ir contra essas regras básicas em situações onde a lógica dita que > não importa qual opção , um humano ainda seria prejudicado.

Isto é estabelecido, no final do filme;

The robots are able to effectively establish martial law, and in doing so, harm several humans; they have developed enough to establish that by harming a few humans in effectively imprisoning the rest of the population, they prevent far more harm through all of the various actions we like to get up to that both risk, and in some cases take, our lives.

    
12.07.2017 / 14:49
Portanto, a primeira lei como uma regra em preto e branco realmente não funciona sem alguns refinamentos, porque (como mencionado por outras respostas) da triagem.

Minha interpretação de como o filme implementa as leis é que, para o contexto de "salvar vidas", os robôs fazem um cálculo de EV (valor esperado); ou seja, para cada escolha, eles calculam a probabilidade de sucesso e multiplicam isso pelo número de vidas que salvam.

No caso Will Smith vs. Child, salvar Will Smith pode ter 75% de chance de sucesso, enquanto a Criança tem apenas 50% de chance de sucesso, ou seja, o EV de salvar Will Smith é de 0,75 vidas e o EV da criança é 0,5. Querendo maximizar as vidas salvas (como definido pela nossa primeira lei baseada em probabilidade), o robô sempre escolherá Will, independentemente de quaisquer diretivas dadas. Obedecendo às ordens de Will, o robô estaria "matando" 0,25 humanos.

Isso pode ser estendido a probabilidades aplicadas a vários humanos em perigo (por exemplo, salvar 5 humanos com 20% de chance é melhor que salvar 1 humano com 90% de chance), e pode levar a algumas conclusões interessantes, mas acho que é uma explicação razoável para os eventos do filme.

    
12.07.2017 / 15:32

O núcleo de quase todas as histórias de robôs de Asimov é sobre a interação das leis da robótica entre si e, através das histórias, você pode entender muito como Asimov considerava seus robôs para trabalhar.

Nas histórias, as leis da robótica não são simples coisas conectadas. Não há uma declaração simples "If then else" acontecendo. Nos cérebros dos robôs, há uma ponderação aplicada a todos os eventos. Um exemplo é que um robô considerará suas ordens de proprietários mais importantes que as de qualquer outra pessoa. Então, se eu enviar meu robô para as lojas para comprar algumas coisas e alguém pedir que ele faça suas tarefas enquanto estiver fora, o robô poderá considerar minha ordem como mais importante do que outras.

Da mesma forma, vemos o robô escolhendo entre duas possíveis violações da primeira lei. Quem salva? Ele faz um cálculo e decide que Will Smith é o melhor para salvar.

Uma vez que pensamos nisso em termos dessas ponderações, podemos considerar como dar uma ordem ao robô pode mudar as coisas.

Se a avaliação do robô era muito próxima para salvar (por exemplo, a escolha do mais próximo do que das chances de sobrevivência), então o peso adicional do pedido poderia forçá-lo a mudar o curso de ação. tem mais peso. No entanto, a primeira lei é a mais importante e, portanto, o peso de uma ordem é, na maioria das vezes, insignificante em comparação com os fatores que ela usou ao avaliar a situação antes do pedido.

Então, em essência, o que está acontecendo é que o robô está encontrando o melhor curso de ação para atingir seus objetivos. Ele tentará salvar os dois. Se não puder, fará o melhor possível e é isso que vemos. O fato de que Will Smith disse para fazer algo diferente não teve efeito porque a primeira lei ainda a obrigava a fazer o que considerava ser melhor.

Então, tendo dito tudo o que a pergunta real: "Este robô quebrou a 2ª lei da robótica, ou existe alguma interpretação sutil das leis que poderiam explicar o seu comportamento?"

As leis são sutis. As vidas dos robôs são inteiramente vistas através das lentes das três leis. Cada coisa que faz é ponderada contra as três leis. Como exemplo, considere que em uma rua movimentada há sempre a chance de uma pessoa entrar em um robô e se machucar. Na maior parte, isso provavelmente não resultará em nada que se aproximasse de um ferimento para a pessoa, mas poderia doer um pouco, a pessoa poderia ficar aborrecida e, portanto, seria uma violação potencial da primeira lei - o robô poderia ser melhor evite isso não entrando naquela rua lotada, mas eu pedi para ir e fazer as compras. É provável que o curso de ação dos robôs seja fazer as compras para as quais pedi e, assim, estar na rua movimentada. É provável que esteja certificando-se de que é tão consciente do possível de todos em torno dele para se certificar de que não causa inadvertidamente alguém com algum dano. Isto é, deve-se tomar medidas positivas para evitar qualquer impacto ou cair em falta de "através da inação ...".

Então, é tudo muito complicado e essa é a beleza do filme e todas as histórias de asmiov. O filme gira em torno de um robô (VIKI) e sua interpretação das três leis. Ele faz o que alguns consideram prejudicial, porque na verdade considera ser o menor dano .

    
12.07.2017 / 18:34
Acredito ter lido todas as histórias e romances de robô de Asimov e minha percepção é que as Três Leis são apenas resumos verbais (como as três leis da termodinâmica) que generalizam uma grande quantidade de comportamento observado. Nesse sentido, o comportamento real dos robôs é determinado por um código incrivelmente intricado e complicado e também faz uso de física subatômica e de estado sólido mais avançada que atualmente não entendemos. As três leis são formas muito óbvias de resumir como elas parecem se comportar em geral em situações muito simples da mesma maneira que analisar o comportamento geral do Sol e da Terra é bastante simples usando a lei de Newton, mas analisando os efeitos gravitacionais e perturbações sobre os asteróides no cinturão de asteróides devido a Júpiter é muito mais difícil ou impossível.

São situações em que as leis parecem estar quebradas, mas isso é apenas o resultado do código que está levando o robô a analisar rapidamente uma situação extremamente complicada e então chegar a uma decisão sobre o que ela deve fazer e as Três Leis. são considerados unbreakable essencialmente como um dispositivo dramático ou literário.

    
14.07.2017 / 16:54

Eu acho que o robô não quebrou a segunda lei. Veja como eu imagino o robô trabalhando: O Robô verifica continuamente as 3 Leis.

Lei 1: O robô tem que salvar ou ferreiro ou a criança. Como a criança tem uma chance menor de sobreviver, ele escolhe Will.

Lei 2: O robô tem que obedecer a humanos: Will diz a ele para salvar a garota. A Ordem é ignorada porque a Lei 1 tem prioridade maior.

Lei 3: Ele não se machuca, então quem se importa

Parece que a primeira lei deixa-o ignorar as leis 2 e 3 e a segunda deixa-o ignorar a lei 3. Ignorar não é o mesmo que quebrar a regra neste caso, porque a lei 2 estabelece especificamente que ela pode ser ignorada. Assim não está quebrado.

    
14.07.2017 / 08:42

Como o robô não pode salvar tanto a garota quanto o Spooner, a interpretação da triagem da Primeira Lei - "minimize o dano líquido" - entra em ação. Se o robô tivesse Spooner's 'Save the girl! ', o robô não estaria minimizando mais o dano líquido - e isso é uma violação da Primeira Lei. Então, a Primeira Lei substitui a Segunda Lei aqui.

[nota lateral: nós não vemos muito deste evento, mas eu aposto que o robô teria sido severamente danificado por ter que escolher, apesar de não aparecer até depois que ele salvasse Spooner (caso contrário Isso violaria a Primeira Lei)]

    
12.07.2017 / 19:26

Não importa como a probabilidade de sobrevivência de ambos foi calculada ...

O robô não parava para considerar assuntos sobre a segunda lei, até que o bloco de ações relativo à primeira lei concluiu, que tinha sido salvar a vida em ordem de probabilidades de sobrevivência.

Seria uma reviravolta mais interessante se Will gritasse: Eu tenho câncer terminal!

E assim alteraria as informações e as chances de ambos.

    
13.07.2017 / 16:26

A segunda lei está "quebrada"?

Talvez seja onde a lógica computacional e o idioma inglês não se misturam?

A lógica abaixo pode ser um pouco bugs e / ou ineficiente, mas é uma interpretação de como a primeira 'lei' poderia funcionar enquanto explica o comportamento do robô em questão.

Quando a função Law1 é chamada, o robô analisa as condições de todos os seres humanos em alguma lista (todos os humanos de que ela talvez saiba); Avalia a gravidade do perigo em que estão e compara-os; então, se houver múltiplos humanos em gravidade de perigo similar (mais alta), ele compara cada um desses seres humanos e determina qual deles é mais provável de ser ajudado com sucesso; E enquanto pelo menos um humano precisar ser protegido contra danos, a lei2 não será executada.

Private Sub UpdateBehavior (ByVal humans As List(Of Human), _
            ByVal humanOrders As List(Of Order), ByVal pDangers As List(Of pDanger))
  Dim bBusy as boolean
  bBusy = False
  Law1(humans)
  If Not bBusy Then Law2(humanOrders)
  if Not bBusy Then Law3(pDangers)
Exit Sub

Private Function Law1 (ByVal humans As List(Of Human)) As Boolean
Dim human as Human
Dim targetHuman as Human
  Try
    Set targetHuman = Nothing
    'loop listed humans
    For Each human In humans 
      If human.IsInDanger() Then
        'Enumerate 'danger' into predetermined severities/urgencies
        '(eg. Danger of going-hungry > falling-over > being-stabbed)
        'and compare
        If targetHuman.DangerQuantification() < human.DangerQuantificationThen()
          'If the comparison human's amount of danger is discernibly greater
          'make that human the new target
          Set targetHuman = human
        'Where both humans are in equal quantifiable amounts of danger
        Else If targetHuman.DangerQuantification() = human.DangerQuantification() then 
          'CompareValueOfHumanLife() 'Can-Of-Worms INTENTIONALLY REMOVED!
          If rescueSuccessRate(human) > rescueSuccessRate(targetHuman)
            'Target the human where rate of successful harm prevention is higher
            Set targetHuman = human
          End If
        End If
      Else
        'Set the first human found to be in danger as the initial target
        targetHuman = human
      End If
    Next human
    If Not targetHuman Is Nothing then
      Law1 = True
      Rescue(TargetHuman)
    else
      Law1 = False
    End If
    AvoidHarmingHumans()
  catch
    initiateSelfDestruct()
  end try
End Function

O robô quebrou a segunda lei? Algumas pessoas podem dizer "O robô agiu de forma contrária à definição da lei em inglês e, portanto, foi quebrado". enquanto outras pessoas poderiam dizer: "As leis são apenas funções. A Lei 1 foi executada. A Lei 2 não. O robô obedeceu à sua programação e a segunda lei simplesmente não se aplicou porque a primeira tomou precedência".

    
13.07.2017 / 14:59