Historia de América del Norte

¿Estados Unidos firmó el documento que puso fin a la Primera Guerra Mundial?

Estados Unidos no firmó el documento que puso fin a la Primera Guerra Mundial, que fue el Tratado de Versalles. El Senado de Estados Unidos se negó a ratificar el tratado debido a su oposición a las duras condiciones impuestas a Alemania y a la creación de la Sociedad de Naciones. Como resultado, Estados Unidos no puso fin formalmente a sus hostilidades con Alemania hasta la firma de un tratado de paz separado en 1921.