Historia de Oceanía

Cuando terminó la Primera Guerra Mundial, ¿había paz?

La Primera Guerra Mundial no terminó con la paz. La guerra terminó el 11 de noviembre de 1918 con un armisticio entre los Aliados (principalmente Francia, Gran Bretaña, el Imperio Ruso, Italia, Japón y Estados Unidos) y Alemania. El armisticio fue un cese temporal de las hostilidades, no un tratado de paz.

Los tratados de paz que pusieron fin a la Primera Guerra Mundial fueron el Tratado de Versalles (con Alemania), el Tratado de Saint-Germain (con Austria), el Tratado de Trianon (con Hungría) y el Tratado de Neuilly (con Bulgaria). Estos tratados fueron muy duros para las potencias centrales derrotadas y contribuyeron al surgimiento del nacionalismo y el sentimiento revanchista en Alemania y otros países.

Los tratados de paz tampoco abordaron las causas subyacentes de la Primera Guerra Mundial, como la carrera armamentista, el imperialismo y las alianzas secretas entre las potencias europeas. Como resultado, estos factores contribuyeron al estallido de la Segunda Guerra Mundial apenas 20 años después.