Qui dirige vraiment les États-Unis, la politique ou le cinéma, Hollywood ou Washington ? La question est beaucoup plus sérieuse qu'il n'y paraît et la réponse qu'y apportent les auteurs de cette enquête originale et riche ne manquera pas de faire réfléchir. Le cinéma américain s'est toujours investi dans la vie politique, que ce soit pour participer aux grandes flambées patriotiques ou pour dénoncer les travers des administrations. Mais ce qui prend corps désormais, bien au-delà des cas Reagan ou Schwartzenneger, c'est une soumission croissante de la politique aux règles édictées par Hollywood. On ne mesure pas encore assez l'impact de ce renversement, qui marque l'avènement d'un avatar assez inquiétant de la "démocratie".