Les États-Unis d'
Amérique étaient avant tout des colonies anglaises.
Après les guerres d'indépendance, la
langue anglaise est donc restée.
Au même titre que la Louisiane, un des états d'Amérique, était une colonie française, vendue aux américains par
Napoléon, ou il y a encore quelques traces de langue française.