Wie konnten die Briten die Vereinigten Staaten zurückerobern? Sie haben nie einen Krieg gegen sie gewonnen und bis zum 20. Jahrhundert immer an der Seite der USA als verlässlicher Verbündeter gekämpft. Und ist nicht eher das Gegenteil der Fall: Diktieren die Vereinigten Staaten nicht die britische Außenpolitik?