Historia de América del Norte

¿Cuándo se convirtió California en territorio?

California nunca se convirtió en un territorio. Fue adquirido por Estados Unidos a México en 1848 después de la guerra entre México y Estados Unidos y fue admitido en la Unión como el estado número 31 en 1850.