Os vários terminadores (especificamente, o T-800 e o T-1000) podem contrariar sua programação ou são "forçados" a agir de uma certa maneira, dada uma determinada situação?
Os vários terminadores (especificamente, o T-800 e o T-1000) podem contrariar sua programação ou são "forçados" a agir de uma certa maneira, dada uma determinada situação?
Não tenho muita certeza de que I tem livre arbítrio, então será muito difícil argumentar conclusivamente de uma maneira ou de outra. Mas existem alguns argumentos de qualquer maneira.
Embora o que exatamente "livre-arbítrio" signifique seja uma pergunta muito disputada com implicações filosóficas e teológicas severas, não estou abordando nada disso. Para os propósitos deste post, vou me concentrar em saber se um terminador pode ou não operar fora de seus parâmetros de missão. Pode não ser livre-arbítrio, mas seria incomum.
O texto deste post é: "Nós não sabemos, mas provavelmente não."
Este é o Arnie nos dois primeiros filmes, mas vou focar no segundo porque ele diz mais do que dez palavras. Pelo menos a princípio, Arnie pode obviamente não vá contra sua programação, que John explora pelo menos uma vez:
[John is making a scene after being told they can't rescue Sarah from the asylum, the T-800 is holding onto his jacket]
John: [Screaming] LET GO OF ME!
[The T-800 does, and John drops to the ground]
John: Why the hell did you do that?
T-800: Because you told me to.
John: What? You have to do what I say, huh?
T-800: That's one of my mission parameters.
[Later]
John: Look, I'm gonna go get my mom, and I order you to help me.
[John walks away, and the T-800 follows]
No entanto, isso é antes de John e Sarah mudarem seu chip de aprendizado para o modo Read-Write1. O que quer que isso realmente faça, e John parece achar que isso o ajudará a se integrar melhor, a SkyNet parece acreditar que ativá-lo nas situações erradas pode ser perigoso para ele:
John: Can you learn stuff you haven't been programmed with so you could be... you know, more human? And not such a dork all the time?
T-800: My CPU is a neural net processor; a learning computer. But Skynet pre-sets the switch to read-only when we're sent out alone.
Sarah: Doesn't want you doing too much thinking, huh?
T-800: No.
Pessoalmente, não vejo nenhuma evidência que sugira que isso aconteça. É possível que, com tempo suficiente, as ações de Arnie depois disso basicamente se resumem a:
Esse último ponto é provavelmente o mais controverso. Há um argumento a ser argumentado de que Arnie está indo além da programação (afinal, ele não pode proteger John Connor se estiver morto), mas acho que não por algumas razões:
Por fim, toda ação que Arnie toma é motivada (ou pode-se pensar que foi motivada) por uma diretiva programada nele por John Connor no futuro ou por uma ordem dada a ele por John Connor no presente.
Obviamente, não podemos responder a isso nos filmes; o T-1000 em T2 nunca se desvia de seu objetivo de matar John Connor. O mais próximo que podemos chegar é da T-1001, representando Catherine Weaver, uma personagem do programa de TV Terminator de curta duração.
Weaver é única porque ela é a única Terminator que vimos (na tela; não li nenhum dos romances ou histórias em quadrinhos que acabei de aprender que existiam) a quem duas coisas se aplicam:
Isso basicamente significa que é impossível para John tê-la reprogramado da mesma maneira que reprogramado Arnie ou Cameron (personagem de Summer Glau no programa).
Então, por que ela está trabalhando contra a SkyNet? Infelizmente não sabemos. Fox cancelou o show antes que pudéssemos descobrir. Existem, no entanto, duas possibilidades básicas:
Outro ponto interessante para Weaver é que ela se envolve em algum comportamento verdadeiramente inexplicável para uma máquina aparentemente sem emoção. Em suas primeiras aparições (a estréia da temporada 2, "Samson and Delilah"), ela filosofa sobre livre arbítrio e individualidade na frente de um de seus subordinados sem motivo óbvio. Mais tarde, no episódio, ela mata um homem no banheiro e, em seguida, dá uma frase para um quarto onde, literalmente, ninguém pode ouvi-la.
Isso conta como livre arbítrio? Eu não sei. Pessoas mais inteligentes que eu passaram a vida inteira tentando responder a essa pergunta, então não vou tentar fazer isso aqui.
Embora a pergunta original estivesse especificamente perguntando sobre o T-800 e o T-1000, quero apresentar um exemplo peculiar da série de TV: o personagem de Cameron, de Summer Glau.
Não sabemos muito sobre o número do modelo de Cameron (um pôster promocional diz que ela é "Classe TOK-715", que não se encaixa com outras designações de terminadores), mas ela exibe algumas das interações sociais mais complexas que já existimos. visto de um terminador. Há duas instâncias particulares que quero mencionar:
Primeiro incidente: a temporada 1 termina com Cameron como vítima de um carro-bomba. Obviamente, isso não a mata, mas a deixa irritada: quando ela encontra John e Sarah logo no início da temporada 2, ela tenta matar John. Eles finalmente conseguem remover seu chip, desativando-a. Logo depois disso, Sarah e Derek estão prontas para incinerar o chassi de Cameron. John, no entanto, os anula e coloca seu chip de volta. Depois que ela acorda, vemos no HUD de Cameron que uma diretiva para rescindir John é substituída.
Embora o vejamos esfregando-o com uma camurça, John não teve tempo de fazer nenhum reparo no chip de Cameron, então há apenas duas explicações possíveis. A reprogramação de John se reafirmou no chip de Cameron, ou ela substituiu sua programação SkyNet original ela mesma, que é surpreendentemente próximo ao que poderíamos chamar de "livre arbítrio". O show foi cancelado antes que pudesse realmente explorar isso, mas devo observar que Cameron age de maneira diferente na temporada 2: ela é mais emocionalmente consciente do que na temporada 1 e, em geral, agia mais como seres humanos.
O segundo incidente, que apresento por último porque acho o mais convincente, é do episódio da temporada 1 7, "The Demon Hand". Uma das tramas do episódio envolve Cameron se matricular em uma aula de balé ministrada pela irmã de um dos alvos da família, a fim de coletar informações3. Em uma lição, a professora Maria diz a Cameron:
Maria: The height is nice. Beautiful feet, but your upper body is a little...mechanical, ja? Remember, you are a cat.
Cameron: [confused] I'm a cat?
Maria: Come next week. We will develop your flexibility and your...imagination. Remember, dance is the hidden language of the soul, ja?
Mais tarde, no episódio, Maria e seu irmão são mortos depois que Cameron obtém as informações de que precisava, então presumivelmente ela não freqüenta mais aulas de dança - ela não tem motivos para isso.
No entanto, a cena final do episódio revela Cameron praticando balé em seu quarto. Não há razão lógica para ela precisar fazer isso - como mencionei, a missão está completa. A menos que Cameron acredite que ser capaz de dançar a ajude a se misturar com seres humanos normais (consulte "Linguagem oculta da alma"), algo que devo enfatizar que ela se dá notavelmente bem quando exigida, a única conclusão é que ela está fazendo isso porque ela gosta de. Isso é livre arbítrio? Ainda não sei, mas é muito mais próximo de qualquer coisa que os outros terminadores tenham feito. Também se adapta muito bem ao monólogo de encerramento de Sarah, que é exibido na cena da dança:
Sarah: Science performs miracles like the gods of old. Creating life from blood cells or bacteria or a spark of metal but they're perfect creatures and in that way they couldn't be less human. There are things machines will never do. They cannot possess faith, they cannot commune with God, they cannot appreciate beauty, they cannot create art. If they ever learn these things, they won't have to destroy us. They'll be us.
1 Como Keen me lembra nos comentários, a cena em que isso acontece foi removida do lançamento teatral, embora tenha sido incluída na edição Director's Cut. A canonicidade depende da sua perspectiva, embora, para ser honesto, isso realmente não afete minha resposta. Mesmo que você não aceite a opção Somente leitura para leitura / gravação como cânone, nenhuma das ações de Arnie depois do hospital realmente oferece suporte ao livre arbítrio.
2 Como Izkata me lembra nos comentários, pode não ser óbvio como Weaver está trabalhando contra a SkyNet. Um dos principais pontos da trama da temporada 2 do programa é que Weaver está construindo uma IA autoconsciente e ensinando-lhe moralidade. O objetivo final parece ser esse AI, que ela chama de John Henry (uma referência ao conto alto) ajudará John Connor na luta contra a SkyNet - no final da temporada 2, quando Weaver e Sarah finalmente se encontrarem, Weaver diz:
Weaver: Your John may save the world but he can't do it without mine.
Além disso, no início da temporada, aprendemos em flashbacks (ou em flashforward, dependendo de como você o vê) que John Connor no futuro estava tentando formar uma aliança com um terminador de metal líquido desonesto. Está fortemente implícito posteriormente que esse terminador é o terminador Weaver, indicando que havia uma facção de terminadores que, se não resistiam ativamente à SkyNet, eram neutros na guerra humana / SkyNet. Ainda não sei se isso conta como livre arbítrio, mas é interessante.
3 Suspeito que isso tenha sido escrito porque Summer Glau é uma bailarina clássica. A vida real escreve o enredo.
Essas máquinas estão sendo enviadas para uma situação em que responderão a estímulos para os quais nunca poderiam ter sido programados e com expectativa de resposta correta. Claramente, eles foram enviados por alguém (!) Que acreditava ter livre-arbítrio suficiente para fazer o trabalho. Basicamente, faz mais sentido adotar a postura intencional em relação a um terminador do que adotar uma postura mecânica. Isso implica, basicamente, que você também pode assumir o livre-arbítrio: a maneira mais razoável de lidar com um terminador é pensar em seus objetivos e pensar que está tentando satisfazê-los, e que escolherá o melhor caminho possível procure alcançar essa satisfação, dadas as restrições internas em operação.
Como alternativa, você pode querer aceitar um modelo determinístico do universo; nesse caso, talvez você ache que não existe livre arbítrio. Nesse caso, o terminador pode não ter realmente livre-arbítrio, mas provavelmente ainda é melhor adotar a postura intencional em relação a ele, e, portanto, pode considerá-lo como tendo tanto livre-arbítrio quanto os humanos, o que deve ser suficiente para qualquer pessoa. *
* Tangente: o nível de interesse na questão de saber se as pessoas "realmente" têm livre-arbítrio é aquele que sempre me intrigou um pouco. Claramente, nenhuma pergunta na filosofia poderia ser menos interessante ou fazer menos diferença: imagine que uma resposta definitiva à pergunta seja encontrada amanhã. Não importa o que seja, nunca pode fazer a diferença para você ou como você vive sua vida!
Esta pergunta não pode ser respondida pela simples razão de que não se pode dizer que nenhuma inteligência artificial tenha livre-arbítrio até que possamos provar definitivamente que os humanos têm livre-arbítrio.
Terminadores, como qualquer IA, têm um conjunto interno de regras que determina seu comportamento. O núcleo das 'regras' de qualquer IA é sua função de valor.
Uma IA tem uma função de valor que ela usa para avaliar situações. Normalmente, a IA atua para maximizar o valor dessa função (embora algumas funções, e portanto a AI, sejam escritas para minimizar - elas são, em última análise, indistinguíveis do observador externo). Existem técnicas que permitem que as IAs escolham um curso de ação que não maximize sua função de utilidade (valor), para evitar a questão da escalada, mas, como regra geral, não há como uma IA agir contra sua função de utilidade.
A função de utilitário não é determinada pela IA, a função de utilitário é projetada pelo criador da IA e é, em última análise, a definição da AI. O Skynet é um exemplo de uma IA com uma função de utilidade ruim, pois avaliou a situação em que se encontrou na ativação e decidiu que a utilidade máxima foi obtida matando todos / a maioria dos seres humanos. Um Fanfic extremamente bem escrito, que diverge rapidamente do cânon, lida com a questão da função de utilidade da Skynet melhor do que eu jamais poderia.
Muito provavelmente, os Terminadores executam uma cópia local do software principal da Skynet ou têm uma IA personalizada projetada pela Skynet. Assim, os Terminadores também terão uma função de utilidade contra a qual eles não podem ou não podem agir.
Portanto, a resposta mais provável para sua pergunta, mas não garantida, é NÃO, os Terminadores não podem ter livre-arbítrio, pois estão vinculados por uma função codificada que determina seus objetivos.
A exceção poder seja o T-800 / T-101 de John Connor. Quando John alterna a configuração de leitura / gravação, é possível que isso permita que o Terminator altere sua função de utilidade. Isso não parece Provável, como seria incrivelmente estúpido permitir que uma IA alterasse sua função de utilidade (como eles poderiam julgar a utilidade disso? Falta a capacidade de simular o resultado de uma função de utilidade alterada, a utilidade de alterar a função de utilidade não seria calculável), mas é remotamente possível.
Uma explicação (breve) de por que a IA não pode ter livre-arbítrio (IRL): para ter livre-arbítrio, você deve poder fazer algo por opção. Você deve poder escolher um caminho abaixo do ideal ou escolher um caminho sem motivo óbvio. Uma IA, guiada por código - não importa quão complexa - sempre terá um motivo para escolher uma determinada ação. Eles podem simular a escolha aleatória, mas isso não é realmente aleatório.
Para outros contra-argumentos à aprendizagem e ao livre arbítrio da IA, apresento o Experimento de pensamento do quarto chinês.
Pelo que sabemos, o cérebro humano é semelhante - é perfeitamente possível que, se alguém soubesse a posição e a velocidade de cada partícula subatômica do cérebro de alguém, ele poderia prever perfeitamente as ações dessa pessoa. Isso não pode ser definitivamente provado ou refutado.