Brasil Colonial

Assim como os demais países, o nosso Brasil também passou por transformações desde que fora ‘descoberto’. A primeira farsa que ouvimos falar, foi nesse suposto descobrimento. Sabemos, ao analisarmos o tratado de Tordesilhas, que nada foi descoberto, que o papa, ao dividir as terras entre as potencias Portugal e Espanha, já sabia das existências das mesmas. Pois bem, muitas coisas aconteceram quando aqui chegaram, como o primeiro contato dos portugueses com os índios. Olhando por assim dizer, não teriam interesse nenhuma nas terras novas.
Porem, daqui a pouco começou-se a exploração das mesmas. Primeiro foi o pau Brasil que simplesmente sumiu de nossas costas litorâneas que despidas, foram levadas a Portugal. Após isso, começou-se a busca incessante pelo ouro. A escravidão dos índios também fez parte desse processo, assim como sua catequização, como de fato ocorreu quando chegaram aqui. O implantamento da igreja católica,  a descoberta de fontes naturais, frutas ricas, enfim, muitos atrativos encontrados.
Foi então que Portugal começou a se apossar. Vendo suas novas terras, o rei de Portugal, para cá veio, porem, como corria o risco de perder o trono de lá, voltou para lá, deixando seu filho, Dom Pedro, de apenas quatro anos sobre a regência brasileira. Por isso, ficou conhecido como Brasil período regencial. Isso só se findou, com o grito de independência, dado as margens do rio Ipiranga.