Sob a FAA, não existem realmente regulamentações que limitem a capacidade de um piloto automático e de decolar mais do que os (além de atualizações de rotas, etc.). Em última análise, qualquer sistema de aeronaves terá que ser certificado e isso envolve testes rigorosos, bem como demonstrações de que o sistema funciona em todos os casos indicados.
Existe, no entanto, um problema de lógica na sua declaração:
For example, during flight under certain condition where some sensors are failed and flight control system reverts back to direct law (in case of FBW) and the intelligent system autopilot recognizes this case so it helps pilot to decide what to do or controls the aircraft thoroughly
O motivo pelo qual o piloto automático desengata ou desconecta é porque, devido à falha do sensor, ele não tem mais as informações necessárias para controlar adequadamente a aeronave. Não importa quão inteligente seja o sistema, sem a entrada correta do sensor, o controle positivo não é possível ou seria logicamente incorreto. Isso é verdade até mesmo para pilotos humanos e foi em parte o problema que levou ao desastre da Air France 447 .
Há uma questão mais ampla aqui de pilotos automáticos lidando com situações de emergência que é um pouco diferente de uma falha de sensor (leia-se falha estática pitot). Isso já está em parte em algumas aeronaves e à medida que o tempo passa, vemos mais e mais delas. As aeronaves agora são capazes de detectar uma despressurização e descer automaticamente para uma altitude segura; Mesmo os novos planos pequenos do GA têm esse recurso . Pilotos automáticos também agora têm formas de modo de nível automático que trarão a aeronave de volta a uma atitude reta e nivelada com o apertar de um botão.
Isso também se reduz em parte à filosofia de design. Isso é altamente opinativo, por isso vou ficar longe dele neste site, mas há dados concretos para apoiar ambos os casos: em caso de emergência, um piloto ou sistema de computador está melhor equipado para lidar com a situação?