Cet ouvrage est une introduction à la commande de systèmes dynamiques. Il s'appuie sur une approche mathématique rigoureuse, accompagnée d'illustrations sur de nombreux exemples issus de la physique et de la biologie. Les thèmes développés sont la stabilité de systèmes, la commande en représentation d'état, l'automatique fréquentielle (Bode, Nyquist, Black), le transfert en temps minimal, et l'équation de Hamilton-Jacobi-Bellman de la commande optimale déterministe ou stochastique. Il s'adresse aux étudiants de mastère et aux ingénieurs.
Les mécanismes de régulation et d'adaptation sont largement répandus dans la nature.
Chez les organismes vivants, ils assurent le maintien de certaines variables essentielles comme le taux de sucre, la température, ... En ingénierie également les mécanismes d'asservissement et de recalage ont une longue histoire. Au temps des romains les niveaux d'eau dans les aqueducs étaient pilotés par un système complexe de vannes. Le contrôle de stabilité est critique dans de nombreuses applications industrielles allant de l'avionique à l'industrie chimique. L'automatique est aussi présente dans les objets de tous les jours tels que l'automobile ou les disques compacts.
L'ouvrage présente l'outillage théorique et algorithmique de base, énoncé de manière précise, et illustré par des exemples concrets. Les objectifs sont les suivants : choisir les bonnes variables de description, savoir stabiliser un système, et construire un estimateur de l'état par approche en variables d'état, construire un feedback stabilisant (avec des marges de gain et de phase) par avance ou retard de phase, réaliser une représentation d'état à partir d'une description entrée-sortie, et calculer une commande optimale, soit par un principe du minimum, soit par résolution numérique de l'équation de Hamilton-Jacobi-Bellman.