Desafios transversais | AGÊNCIA FAPESP

Em workshop na sede da FAPESP, cientistas de diversas áreas do conhecimento discutem como a pesquisa em ciências da computação pode ajudar a superar desafios interdisciplinares (Foto: A. Alcântara)

Desafios transversais

28 de agosto de 2009

Por Fábio de Castro

Agência FAPESP – Processar grandes volumes de dados heterogêneos, desenvolver ferramentas para análises e simulações complexas e integrar modelos de diversas naturezas são algumas necessidades comuns a áreas e assuntos tão diferentes como biodiversidade e astronomia, ou genética do câncer e mudanças climáticas globais.

Essa interface entre a ciência da computação e os desafios científicos das diversas áreas do conhecimento foi o foco das discussões realizadas nesta quinta-feira (27/8), na sede da FAPESP, durante o Workshop sobre Pesquisas Interdisciplinares em Computação no Estado de São Paulo. O objetivo do encontro foi estabelecer requisitos para um futuro programa da Fundação de pesquisas interdisciplinares em computação.

O encontro, organizado pela coordenação de área de ciência e engenharia da computação da FAPESP, reuniu pesquisadores de diversos programas e projetos apoiados pela Fundação: o Centro de Estudos da Metrópole (CEM) e o Centro Antonio Prudente para Pesquisa e Tratamento do Câncer – ambos Centros de Pesquisa Inovação e Difusão (Cepids) da FAPESP –, o Instituto Nacional de Ciência e Tecnologia (INCT) de Astrofísica, o Programa FAPESP de Pesquisa em Bioenergia (BIOEN), a Biblioteca Brasiliana, o observatório internacional Pierre Auger, o Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG) e o Programa Biota-FAPESP.

De acordo com Claudia Bauzer Medeiros, professora do Instituto de Computação da Universidade Estadual de Campinas (Unicamp) e membro da coordenação da área de ciência e engenharia da computação da FAPESP, o objetivo do evento foi identificar os principais desafios para a pesquisa em computação oferecidos pelas várias áreas do conhecimento.

“Outro objetivo foi tentar identificar pontos em comum, do ponto de vista de necessidades computacionais, entre todos esses programas – por mais que as áreas de atuação sejam diversas – que não se resumam à mera necessidade de infraestrutura computacional”, disse à Agência FAPESP.

Segundo a professora, o workshop proporcionou uma rara oportunidade para que os pesquisadores envolvidos com os diversos programas pudessem dialogar, em busca de pontos em comum.

“Foi uma oportunidade interessante para que os representantes de diferentes programas discutissem os desafios de todas essas áreas para simulação, visualização de dados, coleta de dados, desenvolvimento de ferramentas de análise e armazenamento dos resultados, disseminação do conhecimento e acesso da informação por pessoas externas ao meio científico”, disse.

A partir das discussões realizadas no workshop, os participantes produzirão um documento que identificará os problemas mais importantes da pesquisa em computação e que possam ao mesmo tempo servir para resolver desafios científicos nas outras áreas.

“O objetivo é que esse documento possa orientar, futuramente, diretrizes ou possíveis novas iniciativas da FAPESP, como programas voltados para pesquisas interdisciplinares em computação, novas parcerias de pesquisa e estratégias para formação de recursos humanos”, disse Claudia.

Após a exposição feita pelos responsáveis pelos diversos programas apoiados pela Fundação, a professora observou que a necessidade de integração de modelos e a formação de recursos humanos foram aspectos comuns que se destacaram em todas as áreas.

“Vimos que a modelagem em vários níveis e integração não apenas de dados, mas de modelos, é uma necessidade comum. Outro ponto citado por todos é o gargalo da formação de recursos humanos. Precisamos formar pessoal – e isso é uma carência mundial – necessariamente interdisciplinar”, destacou.

Astronomia e história

João Steiner, professor do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (USP) e coordenador do INCT de Astrofísica, afirmou que sua área de pesquisa terá, em breve, uma necessidade dramática de soluções computacionais, por conta do Large Synoptic Survey Telescope, telescópio que entrará em operação em 2015, no Chile, para varrer todo o céu da América do Sul a cada três dias, levantando todas as variáveis astronômicas possíveis de se obter.

“Ele irá mapear todos os asteróides do Sistema Solar e deverá identificar 20 milhões de estrelas variáveis e 10 milhões de quasares. O equipamento irá produzir uma quantidade de dados na ordem de 1 terabyte por noite. Não sabemos como guardar e processar essa informação. Teremos problemas de rede, de armazenamento e de processamento. E, além dos obstáculos computacionais, teremos um problema estatístico que não sabemos nem como abordar”, explicou.

Pedro Puntoni, professor do Departamento de História e diretor da Biblioteca Brasiliana Guita e José Mindlin da USP, explicou como a ciência da computação poderá ser útil para o projeto Brasiliana Digital, coordenado por ele e que disponibilizará pela internet, com acesso livre, além de outros acervos da universidade, a coleção de cerca de 40 mil volumes da coleção reunida por José Mindlin ao longo de 80 anos e doada à USP em 2006.

“Um dos principais desafios é a gestão da linha de produção, com uso da computação para controlar o fluxo de trabalho. Além disso, todo o projeto se fundamenta no conceito de oferecer à consulta pública tanto os textos como as imagens dos livros. A solução para a visualização desse material precisará ser aprimorada, especialmente à medida que a quantidade de dados aumenta”, disse.

Bioenergia

Marcos Buckeridge, professor do Departamento de Botânica do Instituto de Biociências (IB) da USP, ressaltou que a ciência da computação é estratégica para todas as frentes de pesquisa em bioenergia.

“Sem computação, simplesmente não vamos poder produzir bioenergia. As soluções computacionais serão necessárias para estudos que vão desde o aspecto biológico até as dimensões industriais envolvidas com a produção de etanol. Precisaremos padronizar modelos para integrar dados da genômica, da proteômica e da metabolômica”, disse Buckeridge, um dos responsáveis pela divisão de Biomassa do BIOEN e integrante da coordenação de área de biologia da FAPESP.

“O projeto de mapeamento do genoma completo da cana-de-açúcar – que é extremamente complexo – também irá lidar com quantidades imensas de dados. E precisaremos processar modelos de comportamento da cana no campo e uniformizar dados sobre os impactos dessa produção na água, no clima e na sociedade”, explicou.

Eduardo Marques, diretor do Centro de Estudos da Metrópole, afirmou que a ciência da computação tem sido fundamental para projetos voltados para produção de informação socioeconômica e geográfica capaz de orientar políticas públicas.

Um exemplo é o livro Assentamentos precários no Brasil urbano, lançado em 2008, que incluiu tabelas com dados detalhados por município e 371 cartografias relativas às principais áreas urbanas analisadas, avaliando em 12 milhões o número de brasileiros que vivem em assentamentos precários.

“As principais demandas computacionais atualmente se concentram na análise de dados, incluindo estatística espacial, sistemas de informação georreferenciada, análises de redes sociais e pesquisas de amostragem”, disse.

Clima e saúde

Gilvan Sampaio, pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe) e membro do INCT para Mudanças Climáticas, apontou que as pesquisas em ciências do clima produzem quantidades imensas de dados que são rodados em modelos climáticos para elaboração de cenários futuros. Além de ser necessária para processar a crescente quantidade de informações complexas, a ciência da computação será fundamental para o desenvolvimento de um modelo climático brasileiro.

“Precisamos do nosso próprio modelo, que seja capaz de representar processos importantes para nós e que são considerados secundários em modelos desenvolvidos no exterior. Teremos necessidade constante de otimização de códigos de modelos, desenvolvimento e implementação de softwares, acoplamento de componentes, softwares de visualização, gerenciamento e assimilação de grandes volumes de dados terrestres e de satélite. E, para tudo isso, teremos principalmente necessidade de recursos humanos”, afirmou.

Segundo Silvia Rogatto, professora do Instituto de Biociências da Universidade Estadual Paulista (Unesp) de Botucatu e representante do Centro Antonio Prudente para Pesquisa e Tratamento do Câncer, os estudos realizados na área precisam de melhorias estratégicas para maximização dos resultados terapêuticos, evitando tratamentos excessivos e impedindo tratamentos desnecessários com quimioterápicos. A ciência computacional seria importante, segundo ela, para ajudar a delinear alvos moleculares visando ao desenvolvimento de novas drogas.

“Temos o objetivo de realizar pesquisa translacional – isto é, investigação científica conectada diretamente ao tratamento dos pacientes – de alto impacto. Temos necessidade de integrar dados da metabolômica, da transcriptômica e da genômica, aumentar a capacidade de armazenamentos de dados on-line, com interação entre dados de outros bancos, e otimizar a sobreposição entre diferentes plataformas com informações genéticas”, disse.

Espaço e biodiversidade

Vitor de Souza, professor do Instituto de Física de São Carlos, da USP, e representante do Observatório Pierre Auger, explicou que a computação é crucial para o estudo dos raios cósmicos de altíssima energia – um dos maiores mistérios da ciência –, que ultrapassa a escala de 40 vezes 10 elevado a 18 elétrons-volts.

Segundo ele, trata-se de fenômeno bastante raro: chegam à Terra em uma taxa de uma partícula por quilômetro quadrado a cada século. Em um observatório de 1 quilômetro quadrado seria preciso esperar cem anos para colher uma partícula. Por isso, o observatório tem 3 mil quilômetros quadrados, possibilitando a observação de 30 partículas por ano.

“A necessidade de processamento de informações é bastante alta. Os 1,6 mil tanques detectores espalhados pela área do observatório enviam os dados para uma central de computadores que decide o que importa. A informação é então enviada de volta aos tanques e as informações irrelevantes são descartadas”, disse.

Carlos Alfredo Joly, professor do Instituto de Biologia da Unicamp e coordenador do Biota-FAPESP, contou que o programa montou uma base de dados que, utilizando como eixo central a identificação taxonômica, reúne grandes quantidades de informações sobre o ambiente e metadados associados à coleta de espécies. Além disso, o programa produz mapas da biodiversidade no território paulista, integrando as informações biológicas com imagens de satélites.

“Os mapas e o banco de dados têm conexão entre si, com registro de mais de 15 mil espécies. Os problemas que temos para resolver é que os mapas são estáticos e não têm dados da parte marinha. Seria interessante também integrá-los com dados de outros programas, como o PFPMCG. Sofremos também com a falta de profissionais especializados. Mais que o volume de dados, nosso problema é a diversidade de informações e a falta de pessoal”, disse.

Assuntos mais procurados