Historia de Europa

¿Cuándo Estados Unidos entró en guerra con Alemania?

Estados Unidos declaró la guerra a Alemania el 6 de abril de 1917. Esto marcó la entrada oficial de Estados Unidos en la Primera Guerra Mundial. Estados Unidos había estado brindando apoyo tanto a las potencias aliadas como a las potencias centrales durante las primeras etapas de la guerra. pero había permanecido oficialmente neutral. Sin embargo, la declaración de Alemania de guerra submarina sin restricciones, que provocó bajas estadounidenses como la del RMS Lusitania, empujó a Estados Unidos a unirse a la guerra del lado de los aliados.