Isso pode ser entendido ao se notar que a primeira lei possui uma falha fundamental na medida em que pode se contradizer:
A robot may not injure a human being or, through inaction, allow a human being to come to harm.
Isso estabelece duas restrições: não prejudicar a ação e não ferir por inação. Existem situações em que essas duas restrições não podem ser satisfeitas simultaneamente. Por exemplo, pode ser necessário causar dano a um invasor para evitar danos à pessoa que ele está atacando, ou pode haver duas pessoas em perigo e apenas uma pode ser salva. Isso essencialmente se torna um tipo de problema de maximização: encontre uma solução que não satisfaça exatamente ambas as restrições, mas chegue o mais perto possível de satisfazer cada uma delas.
VIKI interpretou que a única maneira de obedecer a primeira lei (permitir que os humanos não sofram danos) era assumir o controle desde que eles estão se prejudicando, e desde que a primeira lei supera a segunda lei, VIKI estava livre para desobedecer os humanos. / p>No livro, os robôs assumem os bastidores. Eles assumem nossa política e economia, criando informações falsas e coisas assim para nos liderar. Eles não fazem essa coisa de derrubada violenta como no filme. Eles mantiveram a razão no filme, mas não mantiveram o resultado. Muito poucas pessoas realmente sabem sobre a aquisição do robô no livro; eles aprendem sobre isso com o presidente, que admite para algumas pessoas que ele é um robô.