sexta-feira, 11 de março de 2011

O futebol no Brasil

O futebol no Brasil começou como algo apenas praticado pela elite branca.[1][2][3]Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo paulista Charles William Miller.[4] A aristocracia dominava ligas de futebol, enquanto o esporte começava a ganhar as várzeas.[2] Somente na década de 1920, os negros passam a ser aceitos ao passo que o futebol se massifica.

Durante os governos - principalmente de Vargas foi feito um grande esforço para alavancar o futebol no país. A construção do Maracanã e a Copa do Mundo do Brasil (1950), por exemplo, foram na Era Vargas. A vitória no Mundial de 1958, com um time comandado pelos negros Didi e Pelé, o mestiço Garrincha e pelo capitão paulista Bellini, ratificou o futebol como principal elemento da identificação nacional, já que reúne pessoas de todas as cores, condições sociais, credos e diferentes regiões do país.

Editado por: Bruno Alves e Anderson Algusto

Um comentário:

  1. até que enfim postaram alguma coisa que eu gosto gostei muito desse tema e muito interessante

    ResponderExcluir