Desde a sua independência em 4 de julho de 1776, até o
dia 20 de janeiro de 2009, os EUA nunca haviam tido um presidente negro.
A Guerra Civil que dividiu o país em 1861 tinha como
objetivo das partes: o norte visava uma nação unida, sem o uso de escravos e
queria que os mesmos fossem livres, tornando-os cidadãos. Já o sul queria
continuar com a exploração maciça dos escravos em todos os setores de produção.
Com a vitória do norte em 1865, os EUA foram unificados e liderados pelos
princípios do Iluminismo, diziam-se uma nação em que todos os seus cidadãos
eram livres e iguais.
Acontece que, logo nos primeiros anos após a Guerra
Civil, a grande maioria dos negros não podia exercer atividades consideradas
nobres. Ofícios como: medicina, advocacia, carreiras militares, etc, não eram
ocupados por negros, e até mesmo o porte de armas de fogo não era direito
deles.
Essas características do racismo eram comuns há até pouco
tempo, mas após George W. Bush (filho), o penúltimo presidente dos EUA, ter
sido substituído por Barack R. Obama, atual presidente do país e o primeiro
negro a ocupar o cargo, então todas essas desavenças e desigualdades foram
perdendo o lugar e o sentido.
Nos dias de hoje é esperada a reeleição de Obama na
próxima candidatura a presidência, já que não foram poucas as lições de vida e
melhorias igualitárias para com a sociedade que este homem ensinou e
proporcionou.
Espera-se que outras nações de suma importância, como o
Brasil, conscientizem-se de que não existem e nunca
existirão motivos para conflitos sociais desse nível.
Nenhum comentário:
Postar um comentário