Historia de Sudamérica

¿Fueron Estados Unidos neutrales durante toda la Primera Guerra Mundial?

No, Estados Unidos fue neutral sólo durante la primera parte de la Primera Guerra Mundial. Estados Unidos declaró la guerra a Alemania en 1917.