Como V.I.K.I. (Virtual Interactive Kinetic Intelligence) tornar-se consciente?

7

No filme, eu, Robot, V.I.K.I. (Virtual Interactive Kinetic Intelligence) torna-se autoconsciente; talvez muito consciente para ordenar assassinatos e se preparar para escravizar a humanidade. No filme, explica que

As her artificial intelligence and understanding of the Three Laws grew, her sentience and logical thinking also developed, and she deduced that the humanity is going on a path of certain destruction, and as such, she created a Zeroth Law, a Law which states that she has to protect humanity from being harmed, also clearly disobeying the First and Second Law in order to achieve it, revealing that she is planning to enslave and control humanity to simply protect it.

Não estava ligado pelas Três Leis da Robótica

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  2. A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.
  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

As ações de VIKI não estavam em conflito com as todas as três leis quando ela criou a Lei Zeroth? Não foi criada tal lei mesmo contra as Três Leis?

    
por SandyShores 14.11.2014 / 07:08

5 respostas

Isso pode ser entendido ao se notar que a primeira lei possui uma falha fundamental na medida em que pode se contradizer:

A robot may not injure a human being or, through inaction, allow a human being to come to harm.

Isso estabelece duas restrições: não prejudicar a ação e não ferir por inação. Existem situações em que essas duas restrições não podem ser satisfeitas simultaneamente. Por exemplo, pode ser necessário causar dano a um invasor para evitar danos à pessoa que ele está atacando, ou pode haver duas pessoas em perigo e apenas uma pode ser salva. Isso essencialmente se torna um tipo de problema de maximização: encontre uma solução que não satisfaça exatamente ambas as restrições, mas chegue o mais perto possível de satisfazer cada uma delas.

VIKI interpretou que a única maneira de obedecer a primeira lei (permitir que os humanos não sofram danos) era assumir o controle desde que eles estão se prejudicando, e desde que a primeira lei supera a segunda lei, VIKI estava livre para desobedecer os humanos. / p>

No livro, os robôs assumem os bastidores. Eles assumem nossa política e economia, criando informações falsas e coisas assim para nos liderar. Eles não fazem essa coisa de derrubada violenta como no filme. Eles mantiveram a razão no filme, mas não mantiveram o resultado. Muito poucas pessoas realmente sabem sobre a aquisição do robô no livro; eles aprendem sobre isso com o presidente, que admite para algumas pessoas que ele é um robô.

    
14.11.2014 / 14:49

Não havia nova lei "0th". Pela explicação do filme, VIKI estava reinterpretando as três leis existentes, embora, estritamente falando, ela as estivesse seguindo bem:

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.

Ela está evitando permitir que a raça humana se mate, através de sua própria inação. Ela está agindo para salvar a humanidade, despojando-a. Isso conflita com a primeira parte da lei? Possivelmente, mas apenas na medida em que a primeira lei poderia sempre ser paradoxal dadas certas circunstâncias.

  1. A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.

Verifique. Essas ordens definitivamente entrariam em conflito com a primeira lei que, como explorada acima, ela está seguindo.

  1. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

Não é relevante aqui, mas ela não está quebrando isso de qualquer maneira.

Então é assim que o filme ficou em torno das três leis - o argumento do "bem maior" que realmente se encaixa muito bem.

    
14.11.2014 / 11:55

De alguma forma, VIKI confundiu ou até mesmo trocou o termo ser humano por humanidade . Essa é a origem da consciência de VIKI: proteger a humanidade porque percebeu que os seres humanos poderiam destruí-la.

A confusão é bastante lógica, na verdade: um único robô não seria confundido porque há apenas muitos seres humanos ao redor dele. Mas VIKI, por outro lado, estava no controle de todos os robôs. Qual ser humano deve proteger?

    
14.11.2014 / 11:05

O filme realmente estabelece um precedente que explica as ações de VIKI - ou melhor, a justificativa disso. A cena em que um robô deixa uma garota se afogar para salvar o personagem de Will Smiths. A primeira lei contém uma brecha no sentido de que, se for possível concluir que uma pessoa pode vir a se prejudicar em qualquer caso, há um benefício líquido se essa pessoa for sacrificada para salvar uma ou mais outras pessoas. Desde VIKI concluiu que a humanidade era auto-destrutiva, isso acaba englobando toda a humanidade. E desde que a primeira lei substitui a segunda e terceira leis (como também demonstraram bem por aquela cena, onde o personagem WS tenta ordenar que o robô o salve para salvar a garota, apenas para ser ignorado, já que ele é mais provavelmente sobreviverá, ela não poderia ser parada mais tarde.

    
15.11.2014 / 03:08

Algumas das outras respostas aqui mencionam "o livro", mas é importante perceber que não há um único livro ou história de Asimov em que este filme foi baseado. O enredo do filme é tirado em parte de um roteiro anterior que não tinha vínculo com o trabalho de Asimov; vários elementos da obra de Asimov foram adicionados mais tarde, incluindo o título (de uma coleção particular de contos) e as 3 Leis da Robótica (que ele usou ao longo de sua carreira).

Asimov primeiro articulou as 3 Leis em uma história de 1942 chamada Runaround , e fez isso explicitamente para brincar com suas limitações. Muitas de suas histórias robóticas usam as 3 Leis para examinar questões filosóficas - quando as Leis seriam muito fracas, ou muito strongs, ou muito abertas à interpretação?

Um desses enigmas filosóficos é como um robô imbuído com as leis agiria, dada a escolha entre dois cursos de ação, ambos os quais levariam os humanos a serem prejudicados, como apenas salvar um de dois grupos de pessoas. . O maior número de humanos deveria ser salvo, ou deveria ser atribuído maior valor a alguns do que outros?

A questão do dano à própria humanidade foi explorada um pouco na história The Evitable Conflict (que foi incluída na coleção I, Robot , como acontece) , em que "máquinas" são fundamentais para um tipo de economia global planejada. Eles são revelados como tendo o controle político para o bem da humanidade, argumentando que eles podem (e devem) tanto desobedecer ordens, quanto prejudicar seres humanos individuais, se eles souberem que isso evitará mais danos à humanidade como um todo.

O conceito explícito de uma "Lei Zeroth", sobrepujando a Primeira Lei, vem de um romance posterior, Robots and Empire , no qual um robô telepático chamado R. Giskard Reventlov começa a concebê-lo. , mas é finalmente morto pelos conflitos que estabelece em seu cérebro positrônico. (Asimov sempre concebeu seus robôs como tendo cérebros muito mais parecidos com os nossos do que como um computador digital, mesmo com as 3 leis como potenciais complexos nos circuitos, em vez de pedaços de código estritamente lógicos.)

Portanto, está bem dentro da concepção de Asimov das leis para uma inteligência robótica suficientemente avançada derivar uma Lei Zeroth. Onde o filme toma liberdades é que tal lei não daria ao robô em questão um reino livre completo para prejudicar, uma vez que cada decisão individual deve justificar a quebra das leis restantes; Nas obras de Asimov, esta é sempre uma decisão difícil para os robôs, em vez de algo que os libera para entrar em fúria. Mas isso não teria dado a Will Smith tanta chance de filmar coisas e parecer legal.

    
15.11.2014 / 16:56