Historia de Europa

¿Por qué Estados Unidos rompió relaciones diplomáticas con Alemania en febrero de 1917?

Estados Unidos no rompió relaciones diplomáticas con Alemania en febrero de 1917. Las relaciones diplomáticas se rompieron el 6 de abril de 1917, después de que Estados Unidos declarara la guerra a Alemania.