Resumo: Consideramos problemas de controle ótimo com horizonte infinito cujas leis de controle possuem uma componente mensurável e outra impulsiva. É permitido que o integrando associado com o controle impulsivo seja dependente do estado. Provamos condições necessárias para otimalidade, deduzimos o princípio de Bellman e a Eq. de Hamilton-Jakobi-Bellman nesse contexto.