Historia de América del Norte

¿Cuándo ganó Estados Unidos la Primera Guerra Mundial?

Estados Unidos no participó en la Primera Guerra Mundial. Estados Unidos entró en la Segunda Guerra Mundial en 1941 después del ataque japonés a Pearl Harbor.