Feminismo no Brasil

Feminismo no Brasil

Durante vários séculos, as mulheres estiveram relegadas somente ao ambiente doméstico. A transformação começou a se iniciar no século XIX, quando o governo imperial brasileiro viu a necessidade da educação feminina.

Diversos publicações em jornais e livros desse período abordavam a relação entre a mulher e a educação.

No século XX, os papéis das mulheres ampliaram em um nova sociedade, a industrial. Apesar da integração da mulher nas indústrias, sua esfera estava ainda ligada ao lar.

Tínhamos diferentes tipos de movimentos feministas, que iam do mais comportado ao incisivo. As mulheres reivindicavam e exigiam mais cidadania, igualdade de direitos.

Entre as décadas de 1930 e 1960, se transformavam, de acordo com os costumes e tendências políticas.

Muitas foram as conquistas, a luta pelos direitos das mulheres foram verdadeiras conquistas, que até o hoje refletem como uma nova sociedade, mais igual em todos os âmbitos sociais.

Chegamos na atualidade ainda com um movimento feminista – humano, muito forte, que é, contra a agressão a mulher. Leis como a Maria da Penha garantem a mulher condições mínimas de cidadania.

Deixe um comentário

Enviar comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *