Isso pode ser entendido ao se notar que a primeira lei possui uma falha fundamental na medida em que pode se contradizer:
A robot may not injure a human being or, through inaction, allow a human being to come to harm.
Isso estabelece duas restrições: não prejudicar a ação e não ferir por inação. Existem situações em que essas duas restrições não podem ser satisfeitas simultaneamente. Por exemplo, pode ser necessário causar dano a um invasor para evitar danos à pessoa que ele está atacando, ou pode haver duas pessoas em perigo e apenas uma pode ser salva. Isso se torna essencialmente um tipo de problema de maximização: encontre uma solução que não satisfaça exatamente as duas restrições, mas faça com que feche para satisfazer cada uma delas.
No filme, os robôs de modelo antigo poderiam resolver esse problema de maximização de maneiras relativamente simples (ou seja, cálculos duros e frios), conforme explicado na memória de Spooners sobre seu acidente:
Assim, sendo uma IA mais avançada, VIKI tinha a capacidade de pensar de uma maneira mais geral e abstrata sobre como resolver o problema de maximização para satisfazer adequadamente ambas as restrições estabelecidas pela primeira lei. A fim de impedir a humanidade de causar uma quantidade excessiva de danos a si mesma, VIKI teve que assumir e limitar suas ações, causando uma quantidade relativamente menor de danos no processo.Susan Calvin: The robot's brain is a difference engine. It's reading vital signs. It must have done...
Detective Del Spooner: It did. I was the logical choice. It calculated that I had a 45% chance of survival. Sarah only had an 11% chance. That was somebody's baby. 11% is more than enough. A human being would've known that.