Le
cinéma américain, c'est-à-dire le
cinéma réalisé aux
États-Unis, est celui qui a globalement le plus profondément façonné le cinéma au cours de son premier siècle d'existence, tant au niveau des contenus et des techniques qu'au niveau économique et culturel. Son cœur est à
Hollywood, un quartier de
Los Angeles, où est produite la majeure partie des programmes
audiovisuels américains, télévisuels compris.