Historia de Europa

¿Cuándo declaró oficialmente Estados Unidos la guerra a Alemania en la Segunda Guerra Mundial?

Estados Unidos declaró oficialmente la guerra a Alemania el 11 de diciembre de 1941, tras el ataque japonés a Pearl Harbor y la posterior declaración de guerra de Alemania a Estados Unidos.