As três leis: "Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra danos. Um robô deve obedecer a ordens dadas por seres humanos, exceto quando tais ordens entrem em conflito com a Primeira Lei." Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei. "
Assim como o robô que puxou o policial para fora do carro contra puxar a garota, se assumirmos que o caminhão tinha um AI e que quando ele detectou o driver de dormir foi ativado, ele teria se encontrado em uma situação onde um naufrágio era iminente. Dado isso, ele teria agido pelos números para minimizar o dano aos humanos em geral (assumindo que não tem ética relativista para aumentar o peso do dano para "seu" humano sobre os outros). Podemos facilmente imaginar que a única outra opção para a ação necessária seria desviar para o tráfego que estava por vir e causar um impacto muito mais energético que, concomitantemente, teria maior probabilidade de causar muito mais danos aos seres humanos. Desta forma, a IA teria escolhido o caminho do menor dano, mas ainda teria causado / permitido dano aos humanos (analogamente e possivelmente prenunciando aos atos de VIKI se aceitarmos os dados declarados).