Índice do Artigo

Notícias

Consultor do INPE fala sobre os desafios do uso da GPGPU em grandes instituições brasileiras

Jairo Panetta, consultor do INPE (Instituto Nacional de Pesquisas Espaciais) hÁ mais de 30 anos, falou sobre os desafios e as situações enfrentadas por grandes instituições brasileiras no uso da supercomputação, durante o GPU Computing Developer Forum (GCDF), parte da Conferência Anual da Sociedade Brasileira de Computação (CSBC). Panetta usou dois exemplos para ilustrar situações onde implementar a computação paralela pode ser a melhor solução, ou utilizar o recurso pode se tornar um desafio muito grande, ou até mesmo próximo do impossível.


Panetta fala dos desafios de implementar a computação paralela em instituições como a Petrobras e CPTEC

Os dois exemplos utilizados são o da Petrobras e o Centro de Previsão de Tempo e Estudos  ClimÁticos (CPTEC). A empresa petrolífera trabalha com menos linhas de código (em torno de 10 mil por aplicação), e trata dados e linhas de código desenvolvidos “em casa”, ou seja, produzidos pela empresa. JÁ no caso CPTEC, a situação é muito diferente: a empresa trabalha com um código muito maior e mais complexo, com contribuições de programadores de todo o mundo, e com dados de diversos locais, resultando em aplicativos com mais de 100 mil linhas.

Panetta destacou como estes dois casos trazem situações de implementação da computação paralela muito diversos. Enquanto utilizar o recurso no caso da PetrobrÁs, com sistemas do tipo GPGPU com arquiteturas como CUDA, é muito mais simples e eficiente, para o CPTEC a necessidade de ajustes são muito mais complexos. “Este é um dos grandes desafios que vocês terão que solucionar”, afirma Panetta, se direcionando aos vÁrios estudantes presentes no auditório da palestra. “Treinar profissionais capazes de lidar com este tipo de aplicações é algo muito desafiador, e é uma das grandes dificuldades desta Área”.


Além da anÁlise da situação em que serÁ aplicado, outro fator importante para o uso do paralelismo na computação é a própria linguagem utilizada. HÁ uma série de sistemas, como o OpenCL, CUDA, OpenACC, etc. Cada um traz características próprias, e a implementação do GPGPU deve levar em consideração estas especificidades.

Apesar de complexa, a aceleração do processamento de dados é extremamente necessÁrio, em casos como o do CPTEC, pois hÁ uma grande quantidade de simulações realizadas. “Temos que fazer a previsão regional, a previsão nacional, anÁlise de qualidade do ar, modelos de ondas do mar… E temos no mÁximo duas horas para rodar cada simulação”. Apesar do avanço da capacidade de processamento dos computadores, cada vez mais é preciso inserir mais dados no sistema, aumentar a resolução e precisão dos dados, para melhorar as previsões. Entre os exemplos que justificam esta necessidade, Panetta citou o caso do ciclone Catarina, que atingiu o litoral sul do país em 2004. “Na época, a precisão que possuíamos não foi o suficiente para prever o evento claramente, e por isto que é muito importante melhorarmos a eficiência dos nossos sistemas, além de apenas adquirir computadores mais potentes”, afirmou.


Panetta demonstra a diferença de precisão das previsões, ao longo dos anos

O consulto do INPE também defendeu a importância social da supercomputação, para a melhoria da qualidade de vida de toda a população: “Computação de alto desempenho deve servir a sociedade. Enquanto ela não é aplicada em empresas que servem a população, como o INPE ou a Petrobras, ela não cumpriu a sua função”, concluiu Panetta.

Participe do grupo de ofertas do Adrenaline

Participe do grupo de ofertas do Adrenaline

Confira as principais ofertas de hardware, componentes e outros eletrônicos que encontramos pela internet. Placa de vídeo, placa-mãe, memória RAM e tudo que você precisa para montar o seu PC. Ao participar do nosso grupo, você recebe promoções diariamente e tem acesso antecipado a cupons de desconto.

Entre no grupo e aproveite as promoções