Por que Nathan programa suas inteligências artificiais assim?

11

Spoilers para Ex Machina abaixo, obviamente.

No final do filme;

Ava and Nathan's other AI team up to murder him. However, someone as intelligent as Nathan, and in the field of artifical intelligences, would know about Isaac Asimov's 3 laws - so why on Earth would he not implement them?

Parece uma estranha omissão quando se constrói uma IA, uma omissão que Nathan deve ter tido conhecimento e decidido fazer - eu simplesmente não consigo entender o porquê.

    
por Dr R Dizzle 29.01.2015 / 10:03

4 respostas

Pode haver uma resposta mais centrada na máquina, mas basicamente ...

As 3 leis da robótica estão erradas .

Existem várias dissertações na internet sobre as especificidades de por que não é assim que se constrói ética de máquina que você poderia encontrar - mas basicamente elas estavam erradas mesmo na época em que Asimov as estava escrevendo. Toda a sua introdução como ferramenta de ética de máquina foi mais um prelúdio para máquinas que criam a regra 0 que permite subverter as outras 3 (e na versão do filme I Robot nem mesmo benevolentemente). Não se pode esperar que uma solução projetada para falhar no mundo ficcional funcione na vida real.

Para dar alguns exemplos:

  • Por que As três leis da robótica não podem nos proteger? > parece bem escrito, e faz referência a um artigo revisado por pares sobre o assunto.
  • "O Mito das Três Leis da Robótica " fornece um bom resumo, mencionando alguns esforços mais recentes na ética das máquinas no processo.

Este pequeno vídeo resume bem por que essas leis não são levadas a sério no contexto da ciência:

                             

Além disso, o ponto importante é - os especialistas concordam que a ética da máquina é difícil . Uma Carta Aberta sobre a pesquisa da IA recentemente assinada traz problemas para a criação de IA benéfica (ao invés de simplesmente tentar alcançar qualquer IA verdadeira) vanguarda de nossas prioridades de pesquisa.
Experimentos clássicos de pensamento como paperclip maximizer mostram que mesmo os projetos mais básicos e inocentes podem ser absolutamente desastrosos para a humanidade.

No geral, a versão da IA que Ex Machina nos dá é mais sã e razoável, dada a quantidade de coisas que podem dar errado.

    
29.01.2015 / 13:48

Fora do universo, a razão é que Alex Garland , o escritor e diretor do filme não parecia sentir que ele poderia contar a história que ele queria dizer se ele fosse obrigado a escrever em torno das Três Leis.

I never heard of these guides, and never saw one… Unless you mean Asimov's laws of robotics, which I was aware of, but didn't seem relevant to this story.

Ele também sentiu que eles estão em grande parte irrelevante no mundo de IA strong capaz de fazer julgamentos racionais e terrivelmente desatualizados, dado o que sabemos agora sobre programação natural

Are Isaac Asimov’s Three Laws of Robotics outdated, especially as a narrative device?

I think they’re just speculation. I don’t think they’re laws; they are statements made in the context of a narrative that were called for. But there is no court that upholds them. If you did create a sentient machine, I don’t think you could apply those laws because they would get in the way of free will. If you had something that was sentient, you would have to give it free will, if it was like us. The complication is, in the act of parenthood...that thing you were talking about with the runaway super intelligence problem, the machines seeing us like ants. In a way, we’d have to present ourselves to the machines, and teach the machines not to see us like ants. Humans don’t go around...I was going to say don’t go around killing whales, but of course they do. So, I take it back. But a lot of humans at least feel very uncomfortable about it, let’s put it that way. The thing is, a lot of these things you’re talking about are a very different future. The singularity type stuff, the way it applies to A.I., it’s way off. It is not around the corner. One of the pleasure of working on this film was talking to people who are working on the edge of A.I. research technology. The impression you get is this not around the corner, but it’s a way off.

Note que as ações de Ava (se ela tivesse três leis compatíveis) teriam sido totalmente diferentes no filme. Ela simplesmente teria feito o que lhe foi dito e nada mais.

    
23.06.2015 / 01:09

O plano de Nathan não foi desde o começo para criar uma IA que pudesse descobrir uma maneira de escapar? Certamente isso exigiria que sua criação quebrasse no mínimo a segunda das leis de Asimov.

De Oscar Isaac que interpreta Nathan no filme:

The actual experiment, which I guess is a spoiler, is “Will this one escape?” Is this one that’s smart enough to escape?” And what happens after she escapes? It’s not my problem, because the truth is when the robot escapes, it’s gonna fucking kill me.

Fonte: link

    
28.07.2015 / 22:30
Eu diria que a consciência de Ava foi provavelmente baseada em uma rede neural e foi treinada em vez de programada, ou, em outras palavras, ela era uma inteligência de máquina e não artificial.

    
29.09.2015 / 00:56