Historia de Europa

¿Haití estuvo gobernado por Francia en los primeros años?

Sí, Haití estuvo gobernado por Francia durante la mayor parte del siglo XVIII y principios del XIX. Francia estableció la colonia de Saint-Domingue en la isla Hispaniola a finales del siglo XVII. La colonia prosperó y se convirtió en una de las más rentables de América, principalmente debido a las plantaciones de caña de azúcar trabajadas por una gran población africana esclavizada. En 1789, estalló en Saint-Domingue una revuelta de esclavos conocida como la Revolución Haitiana, y la población esclavizada se rebeló contra el dominio colonial francés. Después de más de una década de conflicto, Haití declaró su independencia de Francia y se convirtió en la República de Haití en 1804, convirtiéndose en la segunda nación de América después de Estados Unidos en luchar con éxito y establecer un gobierno republicano democrático.