Em evento na FAPESP, pesquisadores do Brasil, Reino Unido e Estados Unidos discutem os melhores critérios para analisar resultados de projetos científicos; prática contribui para uso racional de recursos (foto: André Julião / Agência FAPESP)
Em evento na FAPESP, pesquisadores do Brasil, Reino Unido e Estados Unidos discutem os melhores critérios para analisar resultados de projetos científicos; prática contribui para uso racional de recursos
Em evento na FAPESP, pesquisadores do Brasil, Reino Unido e Estados Unidos discutem os melhores critérios para analisar resultados de projetos científicos; prática contribui para uso racional de recursos
Em evento na FAPESP, pesquisadores do Brasil, Reino Unido e Estados Unidos discutem os melhores critérios para analisar resultados de projetos científicos; prática contribui para uso racional de recursos (foto: André Julião / Agência FAPESP)
André Julião | Agência FAPESP – Avaliações de impacto são instrumentos essenciais para o aprimoramento dos programas de pesquisa e do financiamento da ciência, possibilitando direcionar recursos de forma mais racional.
Estratégias para realizar esses levantamentos foram debatidas durante o “UK-FAPESP Workshop: Science and Innovation impact evaluation”, ocorrido no dia 13 de fevereiro na sede da FAPESP.
“Temos a expectativa de que este workshop colabore para o avanço das avaliações de impacto, além de reforçar as conexões entre a FAPESP e seus parceiros internacionais”, disse Carlos Henrique de Brito Cruz, diretor científico da FAPESP, durante a abertura do evento.
O encontro foi coordenado por Sergio Luiz Monteiro Salles Filho, professor do Instituto de Geociências da Universidade Estadual de Campinas (Unicamp) e coordenador de Avaliação de Programas da FAPESP. Participaram pesquisadores do Brasil, Reino Unido e Estados Unidos.
“O histórico de avaliação de impacto em Ciência, Tecnologia e Inovação [CT&I] começa nas décadas de 1970 e 1980, quando aumenta a necessidade, do ponto de vista de políticas públicas, de obter informações que permitam gerir os programas de pesquisa. Inicialmente, era algo próximo a uma prestação de contas, que contemplava apenas a dimensão científica. Com o tempo, outras dimensões passam a ser consideradas, entre elas os impactos sociais”, contou Adriana Bin, professora da Faculdade de Ciências Aplicadas (FCA) da Unicamp e coordenadora associada do Laboratório de Estudos sobre Organização da Pesquisa e da Inovação (Lab-Geopi).
A pesquisadora apresentou um dos projetos conduzidos no Lab-Geopi, no qual foram avaliados os programas de iniciação científica, mestrado e doutorado da FAPESP. Para isso, os cientistas coletaram e cruzaram dados em diferentes bases.
“A cooperação do nosso grupo com a FAPESP vem de muito tempo. Este é o terceiro ciclo de avaliação que fizemos com a Fundação. A avaliação das bolsas foi uma das mais desafiadoras, justamente por usar apenas dados secundários. O grande desafio foi obter as bases e integrá-las para gerar esses resultados, que mostram o impacto positivo da FAPESP na carreira do bolsista”, disse a pesquisadora.
Critérios variáveis
Jonatan Pinkse, professor do Manchester Institute of Innovation Research, da University of Manchester (Reino Unido), ressaltou como as diferentes métricas usadas para avaliar pesquisas, pesquisadores e instituições precisam ser adotadas com cautela. Segundo Pinkse, toda métrica é importante, mas é preciso olhar cada caso com atenção.
“Depende realmente de que tipo de avaliação será feita. Quando se está avaliando uma proposta de pesquisa, por exemplo, algumas métricas podem não fazer diferença. Se a revisão por pares mostra que a proposta é de alta qualidade, não importa se o pesquisador não tem um perfil impecável no Google Acadêmico [ferramenta que, entre outras funções, fornece um índice de produtividade de pesquisadores], pois talvez ele estude algo muito novo. Já quando se quer avaliar uma instituição a partir do que seus pesquisadores têm feito em termos de pesquisa de alto impacto, o Google Acadêmico pode ser importante. Mas, provavelmente, uma combinação de diferentes métricas funcione melhor do que apenas uma isoladamente”, disse.
Nicholas Vonortas, professor da George Washington University (Estados Unidos), falou sobre a importância de avaliar os portfólios de pesquisa das instituições.
“Uma agência de amparo à pesquisa, uma universidade ou uma empresa, por exemplo, têm um portfólio de projetos de pesquisa. Essas organizações não olham apenas iniciativas individuais, mas como elas trabalham em conjunto. Por esse ângulo, o critério para selecionar um projeto pode ser diferente”, disse o pesquisador, que coordena o projeto “Inovação em sistemas: estratégia organizacional e governança de políticas de pesquisa e inovação” no Instituto de Geociências da Unicamp, apoiado pela FAPESP na modalidade São Paulo Excellence Chair (SPEC).
“No fim das contas, o contribuinte ou quem quer que forneça os recursos para financiamento da ciência está interessado no portfólio, não em projetos isolados. Portanto, estar apto a avaliar o próprio portfólio é muito importante”, disse.
O evento teve ainda a presença de Fernando Colugnati, professor da Universidade Federal de Juiz de Fora; Kate Barker, pesquisadora do Manchester Institute of Innovation Research, da University of Manchester, e Cindy Parker, gerente regional de Ciência e Inovação na América Latina da Embaixada Britânica no Brasil.
A Agência FAPESP licencia notícias via Creative Commons (CC-BY-NC-ND) para que possam ser republicadas gratuitamente e de forma simples por outros veículos digitais ou impressos. A Agência FAPESP deve ser creditada como a fonte do conteúdo que está sendo republicado e o nome do repórter (quando houver) deve ser atribuído. O uso do botão HMTL abaixo permite o atendimento a essas normas, detalhadas na Política de Republicação Digital FAPESP.