Historia de Asia

¿Estados Unidos obligó a todos los países a desarmarse después de la Primera Guerra Mundial?

La respuesta es:no

Estados Unidos no obligó a todos los países a desarmarse después de la Primera Guerra Mundial. Sin embargo, el Tratado de Versalles sí exigió que Alemania se desarmara, y las otras potencias centrales también debían reducir sus ejércitos.