Historia de América del Norte

¿Estuvieron los estadounidenses en la Primera Guerra Mundial?

Sí, Estados Unidos entró en la Primera Guerra Mundial el 6 de abril de 1917, después de que Alemania anunciara una guerra submarina sin restricciones en el Océano Atlántico. La campaña alemana de submarinos amenazó el transporte marítimo y las vidas estadounidenses, lo que llevó a Estados Unidos a unirse a las potencias aliadas.