Historia de América del Norte

¿Estados Unidos participó en la Primera Guerra Mundial?

Sí, Estados Unidos participó en la Primera Guerra Mundial. Estados Unidos declaró la guerra a Alemania el 6 de abril de 1917 y se convirtió en una "potencia asociada" en la guerra contra el Imperio alemán y sus aliados.