A destruição do sistema científico e universitário nacional

Tudo isto está pois a minar credibilidade do processo de avaliação e ameaça destruir uma boa parte do sistema científico e de ensino pós graduado.

A fraqueza dos investimentos é ainda visível na percentagem do PIB gasta com a ciência, em Portugal, apesar da recente evolução positiva: era de 0,77, em 2001, e evolui para um máximo de 1,64, em 2009, tendo depois baixado para 1,5 em 2012; nesta última data, a média europeia era de 2,06. A situação é ainda mais gritante em matéria de gastos médios per capita. Os resultados mostram pois elevadas eficiência e produtividade (PÚBLICO, 9/2/2014, p. 16): “o número de publicações científicas subiu em poucos anos, passando de 350 por milhão de habitantes em 2001 para 1081 em 2012, aproximando-se muito da média europeia, que é de 1170 (…). As ciências humanas e as ciências sociais foram as áreas que aumentaram mais o número de publicações entre 2005 e 2012, com um crescimento médio anual de 26% e 21% respetivamente”.

Naturalmente, aqueles resultados são fruto não apenas do aumento dos investimentos na ciência, mas também da adoção de uma cultura de avaliação generalizada a praticamente todas as instituições durante a última década e meia (desde 1996), e fruto das apostas de vários governos e de diferentes maiorias políticas. Com este pano de fundo, e partindo do axioma de que o investimento na ciência e no ensino superior são cruciais não apenas para assegurar a competitividade económica do país, mas também do ponto de vista da criação de condições para o bem-estar social e para a qualidade das instituições, são bastante preocupantes algumas das tendências na política cientifica do presente governo. Os motivos para tais preocupações são vários: o desinvestimento na ciência via forte redução do número de bolsas FCT, a mudança de regras para atribuição de bolsas de doutoramento e pós doutoramento, a redução do financiamento às unidades de investigação, a falta de lisura processual e de rigor substantivo nos processos de avaliação, a alteração de critérios para financiamento dos centros de investigação e, finalmente mas não menos importante, as mudanças radicais no processo de avaliação dos centros de investigação cujos resultados têm sido muitíssimo contestados. Vale a pena por isso refletir sobretudo acerca deste último ponto. Focarei sobretudo a área das ciências sociais e políticas, que domino melhor.

Num cenário de fraco investimento relativo na ciência, em termos comparativos, e de bom desempenho do sistema em termos evolutivos, seria de esperar que não houvesse grandes mudanças nas grandes orientações da política cientifica da maioria de direita face à do PS. Mas a realidade aponta na direção oposta, nomeadamente nas alterações substanciais nas regras de financiamento das unidades de investigação e nos processos da sua avaliação. Até agora, todos os centros de investigação classificados por painéis de peritos nacionais e internacionais como sendo de “boa”, de “muito boa” ou de “excelente” qualidade tinham direito a um financiamento público plurianual estável, indexado à sua dimensão. Ora a primeira rutura deste governo em matéria de política cientifica passou por criar a categoria adicional de “excecional” e por corromper o significado da palavra “bom”: as instituições apenas “boas” passam a ter direito a um financiamento residual. A ideia era extinguir uma boa parte das unidades de investigação (CLA, Conselho de Laboratórios Associados, 25/7/2014). Mais: o governo estipulou ainda que cerca de metade dos atuais centros deveria ser chumbado logo na primeira fase da avaliação em curso (PÚBLICO, 19/7/2014, pp. 6-11). Ou seja, e esta é a segunda rutura do processo de avaliação dos centros de pesquisa encetado por este governo, o governo e a FCT demitiram-se de pilotar o processo da avaliação das unidades de investigação como tinha acontecido no passado, subcontratando todo o processo a uma entidade em vias de extinção (a ESF: European Science Foundation), em graves dificuldades e sem experiência neste tipo de processos (CLA, Março de 2014), exceto para impor quotas severas que limitassem o financiamento público. Naturalmente, um sistema reduzido às suas unidades “muito boas”, “excelentes” ou “excecionais” será sempre um sistema frágil porque os sistemas científicos precisam de massa crítica e de competição interna, antes mesmo da internacional, para funcionarem bem. Ora isso está já em causa com as novas regras de avaliação. Mais, tal exclusão generalizada de “boas” unidades de investigação privará muitos cursos de mestrado e de doutoramento dos necessários alicerces na investigação exigidos pela Agência de Avaliação e Acreditação do Ensino Superior (A3ES): de uma penada liquidam-se não apenas centros de pesquisa mas também, pelo menos a prazo, cursos do ensino superior de nível pós graduado. E, a prosseguir-se o processo tal como até aqui, estão em processo de extinção vários centros pesquisa (e cursos associados) “bons”, em várias regiões do país, privando tais zonas de Portugal de uma investigação e de um ensino pós graduado de qualidade.

Mas a demissão do governo e da FCT do processo de avaliação, como lhe competia e nada justifica (em 2007 tinham sido avaliadas 378 unidades de investigação, em 2014 estão a ser avaliadas 324: CLA, Março de 2014), passou também por subcontratar a análise bibliométrica à editora Elsevier preterindo a Direção-Geral de Estatísticas de Educação e Ciência. Aqui temos um duplo problema. Primeiro, a vertigem do Estado mínimo mas, paradoxalmente, com custos elevados para o contribuinte: prescinde-se dos serviços de um organismo do Estado com competências firmadas na área e vão adquirir-se no estrangeiro tais serviços. Segundo, temos aquilo que parece ser uma enfase exclusiva nos artigos em revistas indexadas na Scopus e/ou na ISI-WoS para efeitos de contabilização de publicações e de citações. Por um lado, percebe-se que se dê o devido relevo à internacionalização da ciência portuguesa, valorando as publicações internacionais em revistas indexadas, com arbitragem científica anónima e com elevado impacto. Porém, por outro lado, pelo menos nas ciências sociais e políticas, é um erro crasso deixar de lado na análise bibliométrica os livros e os capítulos de livros, internacionais mas também nacionais, até porque uma boa parte da justificação da existência da universidade e da investigação é a transferência de conhecimento para o meio social e político envolvente, a qual fica em causa com esta orientação. Mas aqui é preciso reconhecer que muitas universidades, nomeadamente nos seus regulamentos de avaliação de desempenho, têm emulado esta filosofia perversa.

Finalmente, mas não menos importante, temos a própria estruturação do processo de avaliação dos centros e o seu impacto na erosão da confiança da comunidade científica em todo o processo de avaliação. Em primeiro lugar, temos as deformações na constituição das equipas de peritos, nomeadamente via falta de cobertura de muitas áreas científicas nos painéis. Em segundo lugar, temos o facto de não só os parâmetros estabelecidos pela FCT para avaliação serem pouco precisos, criando assim injustiças relativas na avaliação, como aliás demonstram as enormes disparidades de classificações para um mesmo centro entre diversos avaliadores, como também diferentes painéis avaliarem diversos centros numa mesma área científica. Tudo isto está não só a minar a confiança da comunidade científica no sistema de avaliação (CLA, 25/7/2014; PÚBLICO, 19/7/2014) como se arrisca, a manter-se, a colocar em causa centros de pesquisa e cursos de muito boa ou até de excelente qualidade. O caso do CIES-IUL, a que pertenço e que não passou à segunda fase da avaliação, exemplifica as profundas injustiças e irracionalidades que se estão a passar com o processo de avaliação subcontratado pela FCT. Com 72 investigadores (FTE) integrados, em 2012 (a avaliação refere-se a 2008-2012), e 35, em 2008, o CIES-IUL foi sempre classificado nas avaliações anteriores como “excelente”. E a análise bibliométrica da Elsevier coloca o centro numa posição equivalente face a muitos outros centros destas áreas, amiúde até melhor posicionado, nomeadamente face a muitos dos que passaram à segunda fase. Mais, esta análise peca por defeito porque no ratio artigos/pesquisadores toma-se como denominador o número total de investigadores no final do período e isso penaliza os centros que têm crescido muito como é o caso do CIES-IUL. E a excelente performance prossegue nos livros, capítulos de livros, número de projetos, no número de investigadores estrangeiros, etc. É verdade que o plano para o futuro talvez devesse fazer mais jus às novas e mais dinâmicas áreas do centro (como a ciência política e as ciências da comunicação), e não centrar-se tanto na sociologia e nas políticas públicas, mas nada disto justifica a classificação atribuída (“bom”). Aliás, as classificações dos avaliadores caracterizam-se por inúmeros erros factuais (que o CIES-IUL não tem biblioteca, quando tem uma das melhores do país, a do ISCTE-IUL; que ministra cursos de licenciatura e mestrado quando só ministra doutoramentos) e por uma brutal incongruência entre o que é dito e a classificação atribuída. Por exemplo, um dos avaliadores diz o seguinte: “the various Research Groups address highly diversified topics in itself: Thus the quite successful group on migration also addresses environment and cultural values. The group on knowledge society is mainly oriented towards sociology of education and educational research; the publication record of the politics and citizenship group is particularly impressive, with 60 papers in international journals”. Porém, no final atribui ao CIES-IUL uma nota de 13 em 20, colocando em causa a viabilidade futura do centro, se se mantiver. Tudo isto está pois a minar credibilidade do processo de avaliação e ameaça destruir uma boa parte do sistema científico e de ensino pós graduado do país, corroendo a qualidade do conjunto.

Politólogo, ISCTE-IUL (andre.freire@meo.pt)

Sugerir correcção
Comentar