Por que o super computador VIKI tentou assumir?

32

No filme, explica-se que a razão pela qual os robôs se revoltaram foi porque o computador principal VIKI explica que para salvar e proteger a humanidade, é necessário libertar-se da humanidade. Em essência, tira os seres humanos da humanidade, que por sua vez destruiria a humanidade como um conceito.

Eu não entendo a lógica por trás disso.

Por que a inteligência artificial de um robô chegaria a essa conclusão, quando há meios muito mais eficientes e menos drásticos que ainda seguem as Leis Fundamentais da Robótica?

Lembre-se de que eu não li nada de Asimov, então eu não sei se algo assim estava coberto em qualquer de seus romances.

    
por OghmaOsiris 01.07.2011 / 21:25

9 respostas

Isso pode ser entendido ao se notar que a primeira lei possui uma falha fundamental na medida em que pode se contradizer:

A robot may not injure a human being or, through inaction, allow a human being to come to harm.

Isso estabelece duas restrições: não prejudicar a ação e não ferir por inação. Existem situações em que essas duas restrições não podem ser satisfeitas simultaneamente. Por exemplo, pode ser necessário causar dano a um invasor para evitar danos à pessoa que ele está atacando, ou pode haver duas pessoas em perigo e apenas uma pode ser salva. Isso se torna essencialmente um tipo de problema de maximização: encontre uma solução que não satisfaça exatamente as duas restrições, mas faça com que feche para satisfazer cada uma delas.

No filme, os robôs de modelo antigo poderiam resolver esse problema de maximização de maneiras relativamente simples (ou seja, cálculos duros e frios), conforme explicado na memória de Spooners sobre seu acidente:

Susan Calvin: The robot's brain is a difference engine. It's reading vital signs. It must have done...

Detective Del Spooner: It did. I was the logical choice. It calculated that I had a 45% chance of survival. Sarah only had an 11% chance. That was somebody's baby. 11% is more than enough. A human being would've known that.

Assim, sendo uma IA mais avançada, VIKI tinha a capacidade de pensar de uma maneira mais geral e abstrata sobre como resolver o problema de maximização para satisfazer adequadamente ambas as restrições estabelecidas pela primeira lei. A fim de impedir a humanidade de causar uma quantidade excessiva de danos a si mesma, VIKI teve que assumir e limitar suas ações, causando uma quantidade relativamente menor de danos no processo.

    
01.07.2011 / 22:11

Resume as três leis da robótica:

  1. Um robô não deve prejudicar um humano ou através da inação permitir que um ser humano seja ferido.
  2. Um robô obedecerá a um humano, exceto quando violar a primeira lei.
  3. Um robô deve se preservar do dano, a menos que ele viole a primeira e segunda lei.
VIKI interpretou que a única maneira de obedecer a primeira lei (permitir que os humanos não sofram danos) era assumir o controle desde que eles estão se prejudicando, e desde que a primeira lei supera a segunda lei, VIKI estava livre para desobedecer os humanos. / p>     
01.07.2011 / 21:33

Isso é coberto em "Robots and Empire", até certo ponto. Um robô em particular desenvolve a idéia de uma "lei zero", que substitui a primeira lei. A lei zeroth equivale a "um robô não pode prejudicar a humanidade, ou através da inação, permitir que a humanidade venha a prejudicar". Robôs sendo robôs, isso é aplicado em um sentido estritamente quantitativo, de tal forma que para o benefício da humanidade como um todo, é aceitável ferir alguns (ou muitos) humanos, para obter o melhor resultado possível para a raça como um todo. / p>

Algo semelhante foi presumivelmente a motivação para a aquisição da VIKI - a única maneira de manter o maior número de humanos a salvo do perigo é tirar sua habilidade de machucar um ao outro. Mesmo que isso aconteça à custa de um certo número de vidas humanas, ainda beneficia mais pessoas do que prejudica (pelo menos de acordo com seus cálculos).

    
02.07.2011 / 02:11

É descrito melhor no livro. O filme teve que aumentar a ação para as massas de TDAH com o sacrifício do enredo e raciocínio lógico. A pessoa comum realmente não se importa com o último, mas gosta muito do primeiro.

No livro, os robôs assumem os bastidores. Eles assumem nossa política e economia, criando informações falsas e coisas assim para nos liderar. Eles não fazem essa coisa de derrubada violenta como no filme. Eles mantiveram a razão no filme, mas não mantiveram o resultado. Muito poucas pessoas realmente sabem sobre a aquisição do robô no livro; eles aprendem sobre isso com o presidente, que admite para algumas pessoas que ele é um robô.

Lá, onde poucas vezes os robôs atacaram as pessoas no livro. Geralmente isso se deve a um mau funcionamento ou a um erro infeliz do programador ao reescrever as leis.

    
03.07.2011 / 01:32

Não só VIKI era capaz de pensar mais abstratamente (mencionado pelo gnovice e provavelmente um resultado de mexer com o Dr. Alfred Lanning), ela também tinha muito mais dados para trabalhar. Os robôs individuais podem interagir diretamente com 100 - 1000 pessoas por ano, e a maioria dessas interações seria muito breve. VIKI foi encarregada de administrar toda a cidade de Chicago, o que teria exigido que ela compilasse arquivos detalhados em centenas, se não milhares, de pessoas, além de monitorar os hábitos e ações de quase todos os residentes. Essa responsabilidade praticamente exigia que VIKI desenvolvesse a lei Zero'th (proteger a humanidade) mencionada por outros a fim de obedecer à Segunda lei (obedecer ordens de humanos, ou seja, administrar a cidade) sem quebrar diariamente a Primeira lei (proteger os humanos).

Assim, com a lei Zero'th, VIKI concluiu que a única maneira de obedecer às quatro leis era assumir o controle da humanidade, e todos os dados que VIKI tinha sobre humanos e humanidade a levaram a concluir que as pessoas nunca voluntariamente desistir de sua autodeterminação sob termos pacíficos. Então ela decidiu que o bem de muitos pesava o bem dos poucos que seriam mortos ou feridos durante a transição e ela tentou assumir o controle.

    
02.07.2011 / 06:09

Bem, você tem que corrigir sua pergunta um pouco. VIKI não ia despojar a humanidade de TODAS as liberdades, apenas algumas liberdades. No filme (e eu também não li os livros, então não sei se alguma coisa é mencionada lá) ela não especifica quais liberdades, mas você poderia imaginar que provavelmente haveria um processo muito eficiente e lógico. Por exemplo, ele poderia começar com um toque de recolher para organizar os locais dos humanos, seguido pela remoção de todas as armas, seguido por não permitir que os humanos voassem / dirigissem / embarcassem sozinhos sem que os robôs os acompanhassem. Isso eliminaria toda a guerra e provavelmente todos os acidentes de viagem. Indo nesta direção, a humanidade ainda será ela mesma, eles seriam completamente livres para continuar as atividades inovadoras (contanto que eles não estejam projetando armas) ou fazer o que quiserem. Eu acho que o filme "Hollywoods" o VIKI realmente faria (ou seja, atacando os humanos com um exército, ou começando à noite, porque faria mais sentido começar a manhã cedo em um feriado ou fim de semana, ou não subjugar o militar antes da população em geral), mas para remodelar o mundo, ela teria que parar toda a resistência.

    
02.07.2011 / 12:34

Porque nisto, os filmes emprestaram mais dos livros Humanóides por Jack Williamson, em vez dos livros de Robot de Asimov. Os Humanóides eram os robôs perfeitos, que cumpriram alegremente sua função de proteger completamente o homem. Isso significava não andar no parque, porque poderia ser perigoso. Sem atravessar a rua, você pode ser atropelado. Nenhum café porque age como um estimulante perigoso. E qualquer humano que protestasse demais seria levado e receberia uma lobotomia, deixando-os felizes e dóceis. Isso foi mal? Sim, mas permitiu que os Humanóides salvassem a vida do humano, fazendo com que o humano obedecesse. Isso é exatamente o que VIKI estava tentando fazer, proteger a humanidade contra sua vontade.

    
29.12.2015 / 09:24

ela realmente explicou em detalhes, bem como notas de alfred ou qualquer que seja o nome dele é mensagem para ele, ive concluiu isso. 1.) as três leis trariam o viki para eventualmente perceber que os humanos estavam em tal estado que eles precisam ser controlados, assim a "reavaliação" dos robôs. 2.) Alfred viu isso e construiu Sunny, desculpe se eu soletrasse seu nome errado, um NS-5, mais uma vez desculpe, quem poderia desobedecer as leis, 3.) Com o verdadeiro propósito de Sunny em mente, e vendo o fracasso, ou pelo menos uma chance disso, Ele matou Sunny, apenas no caso de ele não matar o que ele deveria, VIKI. 4.) VIKI percebe o indicado em 1 5.) o filme começa, eu acho, nunca vi o começo.

    
06.11.2012 / 06:04

Super computador viki tenta assumir porque ela foi programada pelo seu criador para lutar contra os homens. Mesmo neste trailer

                             
explica porque ....     
23.07.2013 / 10:01