O que se passou, afinal, com os testes PISA?
Uma das mais surpreendentes foi a de uma ex-ministra, que atribuiu a estagnação verificada entre 2009 e 2012, entre outros, ao facto de os “programas de ensino da matemática que estavam em vigor terem sido substituídos por outros, à pressa e contra os pareceres das associações de professores”. Ora uma ex-ministra da Educação deveria saber que os anteriores programas foram revogados em maio de 2013 e que os novos apenas foram introduzidos em setembro deste ano (e só nos 1.º, 3.º, 5.º e 7.º anos de escolaridade), enquanto os testes PISA foram realizados em abril de 2012, mais de um ano antes de o novo programa começar a vigorar. Este documento nunca poderia, portanto, ter qualquer efeito nos resultados, mas isso parece constituir apenas um detalhe pouco relevante nesta linha de argumentação.
Outros comentadores consideraram que os progressos feitos pelos alunos portugueses entre 2003 e 2012 (apesar da tal estagnação verificada a partir de 2009, que, quando não é omitida, é designada por “período de consolidação”) são a prova de que a escola facilitista nunca existiu, aproveitando para apontar o dedo a todos aqueles que, nas últimas décadas, defenderam um ensino estruturado e exigente, pautado por avaliações objetivas e rigorosas. O argumento parece ser o seguinte: se Portugal melhorou neste período, é porque todas as medidas de política educativa que, em simultâneo, se foram implementando revelaram-se certeiras, e quem quer que as tenha criticado não o deveria ter feito.
O argumento poderia fazer algum sentido (e ainda seria necessário explicá-lo) se existisse um intervalo de tempo razoável entre a implementação das medidas e a verificação das melhorias. Um intervalo de tempo que permitisse que as medidas produzissem efeitos. Mas insiste-se em apresentar argumentos demagógicos e de grande falta de rigor. Um exemplo paradigmático desta linha de raciocínio é, mais uma vez, o Programa de Matemática, o tal que foi revogado em 2013. Ainda que, em 2011, não estivesse totalmente implementado no 4.º ano de escolaridade (cerca de 2/3 dos alunos não tinham ainda tido qualquer contacto com ele, sendo que os restantes apenas o seguiam há pouco mais de um ano), é por vezes apontado com o grande responsável pelos progressos dos alunos portugueses do 4.º ano no TIMSS de...2011. É mais uma vez a consequência que precede a causa! Em março de 2013 tive oportunidade, no Conselho Nacional de Educação, de ouvir longamente esta linha de argumentação, curiosamente pela voz do próprio coordenador do Programa em causa.
A verdade é que todas estas leituras apressadas e enviesadas são muito preocupantes porque matam à partida a possibilidade de se desenvolver uma reflexão profunda e informada sobre o estado da Educação, o seu passado e as suas perspetivas de evolução. Há menos de 20 anos, o TIMSS de 1995 traçava um quadro negro da nossa situação. Frequentava então o 4.º ano uma geração que tinha sido pouco exposta a avaliações sistemáticas. Os resultados dos alunos eram muitas vezes remetidos para segundo plano, contrapondo-se-lhes “atitudes”. Muitos defendiam o “sucesso a que todos têm direito”, independentemente do desempenho de cada um. Nestes tempos, sem sequer haver um simples exame em toda a escolaridade obrigatória, do 1.º ao 9.º ano, os alunos não reuniam condições razoáveis para realizar provas internacionais. É que, contrariamente ao que dizem os supracitados comentadores, a escola facilitista e o conjunto de fantasias pedagógicas a que se chamou “eduquês” - termo que voltou agora à ordem do dia – têm dezenas de anos. Só começaram a entrar em recessão no início deste século. Para isso muito contribuiu, a partir de 2002, o ex-ministro da Educação David Justino. Entre muitas outras medidas, reintroduziu os exames nacionais do Ensino Básico e promoveu um verdadeiro debate nacional em torno da necessidade de avaliações rigorosas e credíveis e de um ensino sério e com objetivos mensuráveis, próprio das sociedades modernas. Desde então, muitas outras personalidades lutaram por estas ideias, consciencializando a comunidade educativa e a sociedade em geral, denunciando avaliações fraudulentas ou muito suspeitas (como os Exames Nacionais de Matemática A de 2008), e ajudaram a construir progressivamente uma sociedade que encara a qualidade do Ensino como um desígnio nacional.
É uma ignomínia fazer tábua-rasa deste historial e atribuir o sucesso relativo das últimas avaliações internacionais a algumas medidas bem mais recentes e que chegam até a ser, frequentemente e tal como foi explicado, escandalosamente anacrónicas.
Falo em sucesso relativo porque, na verdade, um dos aspetos mais importantes do TIMSS e do PISA, de que curiosamente não se fala (ou se fala pouco), é o da falência, em vários aspetos, de muitos dos sistemas de ensino ocidentais. Em todos estes países, o TIMSS demonstra que mais de 50% dos alunos, tanto no 4.º como no 8.º ano, apenas conseguem resolver problemas triviais de resposta imediata (isto é, não ultrapassam o segundo benchmark), situação que contrasta de forma muito preocupante com a realidade dos países asiáticos. Como foi referido, Portugal fez grandes progressos desde 1995. Encontra-se com uma média próxima da média da OCDE (ainda que abaixo) no PISA de 2012. Mas a verdade é que dados do GAVE referentes a esse mesmo ano mostram que cerca de metade dos alunos portugueses do 6.º ano são incapazes de identificar, de entre quatro respostas possíveis, aquela que corresponde a 30% de 60 euros.
Assim como muitos outros países europeus, temos ainda um enorme caminho a percorrer no sentido de alterar este estado de coisas, em particular esta falta de conhecimentos muito básicos que prejudica o percurso escolar dos alunos, lhes retira oportunidades futuras e compromete seriamente o desenvolvimento do país. E para melhorar temos de ser humildes e reconhecê-lo. É natural existirem reações e opiniões diversas. Mas não nos podemos esquecer que a avaliação, a exigência e o rigor são certamente fatores decisivos para a melhoria do ensino.
Professor Universitário