Significado de Imperialismo

O que é Imperialismo

Imperialismo é uma prática política de expansão e domínio. Esse processo é realizado por Estados poderosos que buscam ampliar seus territórios, controlar economicamente uma nação ou mesmo influenciar a cultura de povos mais pobres.

O que é imperialismo

O imperialismo, como política de expansão, surgiu ainda no Antigo Egito. Logo depois, a Macedônia, Grécia e o Império Romano procuraram fervorosamente expandir seus territórios. Já na Idade Média, foi a vez dos turcos e do islamicos se tornaram verdadeiras potências do Imperialismo.

Característico do século XIX, o Imperialismo contemporâneo ou neocolonialismo tinha muita similaridade com o colonialismo que vigorava nos séculos XV, Porém, havia algumas diferenciações entre eles:

  • No caso do colonialismo, há a perda do domínio por meio do controle político do país que, até então, dominava tudo e todos e ainda abrangia a integração desses territórios aos países colonizados.
  • Já no imperialismo, ocorre não só o controle do país, como também a influência desse império sobre a nação dominada. Influência essa, realizada de maneira política, territorial ou econômica, direta ou indireta, assim como de maneira formal ou informal, porém nem sempre ocorre a anexação do país influenciado pelo outro.

No imperialismo, essa influência ocorreu na época da expansão do capitalismo industrial Europeu. Nesta época, a Europa precisava cada vez mais de matéria-prima e procurava conquistar novos mercados consumidores que fossem capazes de favorecer a produção de suas indústrias e ainda proporcionar lucros. Por isso, as regiões dos continentes africanos e asiáticos passaram a ser o principal foco desses países industrializados.

O imperialismo europeu mostrou seu poder ao dominar esses países. Eles buscavam neste tipo de domínio três coisas: mais matéria-prima, novos clientes e principalmente mão de obra barata e em abundância. 

Esses países imperialistas praticavam tais dominações em nome do:

  • etnocentrismo: tentando demonstrar superioridade perante outras sociedades e outras culturas, julgavam-se melhores e superiores a elas.
  • racismo e o darwinismo social: Visão deturpada sobre a teoria da evolução, justificando que a seleção natural é quem definia o poder dos mais fortes sobre os mais fracos.

Querendo cada vez mais, por volta do final do século XIX, os próprios países imperialistas provocaram uma verdadeira concorrência entre eles. O que acabou desencadeando a Primeira Guerra Mundial. Começando assim, uma nova era imperialista.

Após o termino da Primeira Guerra, países como a Alemanha e a Itália perderam o seu poder. Foi a partir desse episódio que surgiu uma nova luta pela conquista do mercado e uma nova forma de imperialismo, o imperialismo ideológico e o imperialismo de classes.

Essas duas situações também acabaram dando origem à Segunda Guerra Mundial. Porém, após o término da Segunda Guerra, o imperialismo colonial enfraqueceu devido às emancipações das antigas colônias.     

De acordo com estudos sobre o Neoimperialismo realizado por economistas ingleses e franceses no começo do século XIX, um país imperialista só podia ser classificado dessa forma se tivesse maior poder econômico sobre outro país imperialista. Dessa forma, o poder de capital dessa nação cresceria progressivamente.

Imperialismo americano

O imperialismo americano, isto é, o imperialismo norte-americano, é uma das maiores influências mundial. Seu domínio poder ser visto na área militar, na cultura, na economia e na política do mundo inteiro. Após essa percepção, ficou mais do que claro que os Estados Unidos da America executam o seu poder de forma imperialista. 

É considerado um país imperialista, pois desde o século XIX ele consegue efetuar certo controle em inúmeros acontecimentos mundiais. As duas primeiras guerras mundiais é que contribuíram para o fortalecimento dessa nação e o enfraquecimento dos impérios europeus.

Seu poder territorial foi aumentando graças à Guerra Mexicano-Americana, que uniu os estados do Texas, Novo México, Arizona e Califórnia. Essa expansão foi encorajada pelo Presidente Theodore Roosevelt, que incentivou a conquista do Caribe e do Pacífico, desta forma tornando-se uma superpotência mundial.

Essa hegemonia só foi abalada devido a uma crise econômica que ocorreu no século XXI. Houve uma contenção de gastos e que acabou diminuindo um pouco esse poder. 

Imperialismo no Brasil

O Brasil, após vários anos vivendo uma era colonialista, só pode se ver livre de Portugal com a ajuda da Inglaterra, tornando-se assim um país independente.

Porém, só após esse fato, o Brasil pode se tornar um país imperialista informal, pois grande parte das importações que aqui chegavam era proveniente da Inglaterra. Havia poucas empresas nacionais, sendo a grande maioria proveniente de capital Europeu.

Após anos de muito trabalho, o Brasil começou a ser visto como uma potência emergente, isso graças ao desenvolvimento da economia, à influência da cultura em diversas partes do mundo e às exportações, o que fez com que o país chamasse a atenção de outras nações.

Devido a sua situação como potência emergente, vários países como Equador, Bolívia, Paraguai, Uruguai, Guiana, e muitos outros, começaram a criticar o Brasil, refutando sua atitude e classificando tal fato de “Imperialismo Brasileiro”.

O significado de Imperialismo está na categoria Significados