Historia de Europa

¿En qué año Estados Unidos se convirtió en imperialista?

Estados Unidos inició sus actividades imperialistas a finales del siglo XIX, comenzando con la Guerra Hispanoamericana en 1898. Al final de este conflicto, Estados Unidos ganó nuevos territorios como Puerto Rico, Guam y Filipinas, entre otros. Esto inició un período de imperialismo estadounidense, que continuó hasta mediados del siglo XX.