Blog do Daka

Um espaço para compartilhar informações e estimular a reflexão.


Deixe um comentário

ESA lança mapa-múndi mais preciso já feito!!

Cobertura terrestre

A Agência Espacial Europeia (ESA) anunciou o lançamento de uma nova versão do seu mapa-múndi, o GlobCover, ou “mapa global de cobertura terrestre”. Segundo a agência, o novo GlobCover, que atualiza a versão original, lançada em 2005, tem a melhor resolução já obtida até hoje para um mapa dessa natureza.

Mapas da cobertura terrestre são úteis no estudo dos efeitos das mudanças climáticas, da conservação da biodiversidade e da gestão dos recursos naturais.[Imagem: ESA/Université Catholique de Louvain]

O mapa-múndi foi produzido com dados coletados pelo Espectrômetro de Média Resolução do satélite Envisat durante 12 meses seguidos, de 1 de Janeiro a 31 de Dezembro de 2009. Esse espectrômetro tem uma resolução de 300 metros. O programa utilizado para transformar os dados do espectrômetro na imagem de um mapa-múndi foi desenvolvido pelas empresas Medias France e Brockmann Consult.

Download gratuito

Esses mapas são úteis no estudo dos efeitos das mudanças climáticas, da conservação da biodiversidade e da gestão dos recursos naturais. As legendas do mapa adotam o Sistema de Classificação de Cobertura Territorial da Organização das Nações Unidas para Agricultura e Alimentação (FAO, na sigla em inglês). A versão anterior do mapa, o GlobCover 2005, foi baixada por cerca de 8.000 usuários. As informações para baixar o novo GlobCover estão disponíveis, em inglês, no endereço http://ionia1.esrin.esa.int.

Anúncios


Deixe um comentário

Ministérios se unem para incentivar energia solar

Embora a matriz energética brasileira já seja composta com uma quantidade significativa baseada em energias renováveis, além do território nacional possuir elevado potencial de irradiação, a participação da energia solar ainda é incipiente no País.

A usina heliotérmica que deverá ser construída em Pernambuco usará a tecnologia de cilindros parabólicos.[Imagem: Abengoa]

Reportagem recente da revista Photon (importante publicação de energia solar fotovoltaica em âmbito internacional) intitula o Brasil como “o gigante que está dormindo embaixo do sol”. Mas talvez este cenário possa começar a mudar a partir de 2011.

A reboque das iniciativas do setor privado, voltadas sobretudo para o uso da energia solar térmica para o aquecimento de água residencial, o governo federal deu os primeiros passos para uma política pública mais sólida para o setor da energia solar no Brasil.

Energia heliotérmica

Foi assinado nesta semana, em Brasília, um Acordo de Cooperação Técnica entre os ministérios da Ciência e Tecnologia (MCT) e de Minas e Energia (MME) com o objetivo de fomentar o desenvolvimento científico e tecnológico para o aproveitamento da energia solar no Brasil. O foco dos esforços será a energia heliotérmica, que usa concentradores solares para aquecer fluidos e gerar eletricidade.

O princípio de funcionamento de uma usina heliotérmica é similar ao de uma termelétrica, com a diferença que o calor que alimenta as turbinas é gerado pela luz do Sol. Atualmente existem três tecnologias principais na área: cilindros parabólicos, torre central e disco parabólico.

O acordo entre os Ministérios prevê o acompanhamento conjunto de atividades, compartilhamento de informações, fomento para a elaboração de projetos-piloto, de pesquisa e demonstrações, de capacitação técnica e de acordos nacionais e internacionais, além da criação um Comitê Gestor.

Heliotérmica em Pernambuco

De acordo com o Coordenador de Energia e Inovação de Tecnologia do MCT, Eduardo Soriano, “o acordo vai alavancar a implantação da Planta Piloto de Geração Heliotérmica no Semiárido”, em Pernambuco, com aporte inicial de R$ 23 milhões, sendo R$ 18 milhões do Fundo Setorial de Energia (CT-Energ) e R$ 5 milhões da Secretaria de Ciência Tecnologia e Meio Ambiente do estado (Sectma).

A Plataforma de Pesquisa Experimental abrange tecnologias de diversos tipos de sistemas, nos moldes de plataformas de pesquisa existentes no exterior, como a de Almeira (na Espanha). A primeira tecnologia a ser implantada será a de cilindros parabólicos.

O projeto conta com parceiros como a Faculdade de Ciências Aplicadas e Sociais de Petrolina (Fapape), o Centro de Pesquisas de Energia Elétrica (Cepel), a Companhia Hidroelétrica do São Francisco (Chesf), a Universidade Federal de Pernambuco (UFPE), o Centro de Tecnologias Estratégicas do Nordeste (Cetene), dentre outras instituições em fase de negociação.

Tecnologia solar no Brasil

Na avaliação do ministro de Minas e Energia, Márcio Zimmermann, o documento é um marco do desenvolvimento da tecnologia solar no Brasil e, para isso, é essencial que o País elabore mecanismos que estimulem a produção de pesquisas e tecnologia nacional.

“É importante o Brasil não somente ir lá fora e comprar uma central solar, mas trazer a comunidade acadêmica, centros de pesquisa e também, numa outra etapa, as empresas que pretendem participar de todo o processo”, afirmou Zimmermann.

Veja também uma outra reportagem sobre a mesma temática – Energia solar no Brasil pode ser vantajosa a partir de 2013.


Deixe um comentário

Simulador da Terra Viva quer simular o planeta inteiro

Um grupo internacional de cientistas está tentando criar um simulador para recriar tudo o que acontece na Terra, desde os padrões do clima global à disseminação de doenças, passando por transações financeiras internacionais ou mesmo os congestionamentos nas ruas de uma cidade.

O Living Earth Simulator (Simulador da Terra Viva) quer recriar em computador tudo o que acontece na Terra.[Imagem: OneGeology]

Acelerador de conhecimento

Batizado de Living Earth Simulator (LES, ou Simulador da Terra Viva), o projeto tem como objetivo ampliar o entendimento científico sobre o que acontece no planeta, encapsulando as ações humanas que moldam as sociedades e as forças ambientais que definem o mundo físico.

“Muitos problemas que temos hoje – incluindo as instabilidades sociais e econômicas, as guerras, a disseminação de doenças – estão relacionadas ao comportamento humano, mas há aparentemente uma séria falta de entendimento sobre como a sociedade e a economia funcionam”, afirma Dirk Helbing, do Instituto Federal Suíço de Tecnologia, que dirige o projeto FuturICT, que pretende criar o simulador.

Graças a projetos como o Grande Colisor de Hádrons, o acelerador de partículas construído na Suíça pela Organização Européia para Pesquisa Nuclear (Cern, na sigla em francês), os cientistas sabem mais sobre o início do universo do que sobre nosso próprio planeta, diz Helbing. Segundo ele, necessita-se de um acelerador de conhecimento, para fazer colidir diferentes ramos do conhecimento. “A revelação das leis e dos processos ocultos sob as sociedades constitui o grande desafio mais urgente de nosso século”, afirma.

O resultado disso seria o LES. Ele seria capaz de prever a disseminação de doenças infecciosas, como a gripe suína, descobrir métodos para combater as mudanças climáticas ou mesmo identificar pistas de crises financeiras incipientes.

Hipercomputadores

Mas como funcionaria esse sistema colossal? Para começar, seria necessário inserir grandes quantidades de dados, cobrindo toda a gama de atividades no planeta, explica Helbing. Ele também teria que ser movido pela montagem de supercomputadores que ainda estão para ser construídos, com a capacidade de fazer cálculos em uma escala monumental.

O projeto SAEMC vai usar uma megarrede computacional para prever o clima das megacidades da América do Sul. [Imagem: OneGeology]

Apesar de os equipamentos para o LES ainda não terem sido construídos, muitos dos dados para alimentá-lo já estão sendo gerados, diz Helbing. Por exemplo, o projeto Planetary Skin (Pele Planetária), da Nasa (agência espacial americana), verá a criação de uma vasta rede de sensores coletando dados climáticos do ar, da terra, do mar e do espaço.

Para completar, Helbing e sua equipe já começaram a identificar mais de 70 fontes de dados online que eles acreditam que possam ser usadas pelo sistema, incluindo Wikipedia, Google Maps e bases de dados governamentais. A integração de milhões de fontes de dados – incluindo mercados financeiros, registros médicos e mídia social – geraria o poder do simulador.

Web semântica

O próximo passo é criar uma base para transformar esse pântano de dados em modelos que recriem com precisão o que está ocorrendo na Terra. Isso só será possível com a coordenação de cientistas sociais, especialistas em computação e engenheiros para estabelecer as regras que definirão como o LES vai operar.

Os simuladores quânticos talvez sejam uma alternativa para lidar com a infinidade de dados do projeto de simulação da Terra. [Imagem: Riken Research]

Segundo Helbing, esse trabalho não pode ser deixado para pesquisadores de ciências sociais tradicionais, que tipicamente trabalham por anos para produzir um volume limitado de dados. Também não é algo que poderia ter sido conseguido antes – a tecnologia necessária para fazer funcionar o LES somente estará disponível na próxima década, observa Helbing.

Por exemplo, o LES precisará ser capaz de assimilar vastos oceanos de dados e ao mesmo tempo entender o que significam esses dados. Isso só será possível com a maturação da chamada tecnologia de web semântica, diz Helbing. Hoje, uma base de dados sobre poluição do ar seria percebida por um computador da mesma maneira que uma base de dados sobre transações bancárias globais – essencialmente apenas uma grande quantidade de números.

Mas a tecnologia de web semântica será capaz de trazer um código de descrição dos dados junto com os próprios dados, permitindo aos computadores entendê-los dentro de seu contexto. “Além disso, nossa abordagem sobre a coleta de dados deve enfatizar a necessidade de limpá-los de qualquer informação que se relacione diretamente a um indivíduo,” explica Helbing.

Segundo ele, isso permitirá que o LES incorpore grandes quantidades de dados relacionados à atividade humana sem comprometer a privacidade das pessoas.

Além das nuvens

Uma vez que uma abordagem para lidar com dados sociais e econômicos em larga escala seja acertada, será necessário construir centros com supercomputadores necessários para processar os dados e produzir a simulação da Terra, diz Helbing. A geração de capacidade de processamento para lidar com a quantidade de dados necessários para alimentar o LES representa um desafio significativo, mas está longe de ser um impedimento.

Recentemente pesquisadores da IBM conseguiram simular o cérebro de um gato, abrindo caminho para um computador cognitivo. [Imagem: IBM]

Para Peter Walden, fundador do projeto OpenHeatMap e especialista em análise de dados, se olharmos a capacidade de processamento de dados do Google, fica claro que isso não será um problema para o LES. Apesar de o Google manter segredo sobre a quantidade de dados que é capaz de processar, acredita-se que em maio de 2010 o site usava cerca de 39 mil servidores para processar um exabyte (1.000.000.000.000.000.000 bytes) de dados por mês – quantidade de dados suficientes para encher 2 bilhões de CDs por mês.

Assim, se aceitarmos que apenas uma fração das “várias centenas de exabytes de dados sendo produzidos no mundo a cada ano seriam úteis para uma simulação do mundo, o gargalo do sistema não deverá ser sua capacidade de processamento”, diz Warden.

Encontrar utilidade nos dados

“O acesso aos dados será um desafio muito maior, além de descobrir como usá-los de forma útil”, afirma. Warden argumenta que simplesmente ter grandes quantidades de dados não é suficiente para criar uma simulação factível do planeta. “A economia e a sociologia falharam consistentemente em produzir teorias com fortes poderes de previsão no último século, apesar da coleta de muitos dados. Eu sou cético de que grandes bases de dados farão uma grande mudança”, diz.

O simulador do sistema nervoso humano está disponível pela internet, como um software gratuito. [Imagem: Sensopac]

“Não é que não sabemos o suficiente sobre muitos dos problemas que o mundo enfrenta, mas é que não tomamos nenhuma medida a partir das informações que temos”, argumenta. Independentemente dos desafios que o projeto enfrenta, o maior perigo não é tentar usar as ferramentas computacionais que temos hoje e que teremos no futuro para melhorar nosso entendimento das tendências socioeconômicas, diz Helbing.

“Nos últimos anos, tem ficado óbvio, por exemplo, que necessitamos de indicadores melhores que o Produto Interno Bruto (PIB) para julgar o desenvolvimento social e o bem-estar”, argumenta. No seu âmago, ele diz, o objetivo do LES é usar métodos melhores para medir o estado da sociedade, o que poderia então explicar as questões de saúde, educação e ambiente. “E por último, mas não menos importante, (as questões) de felicidade”, acrescenta.

Fonte: http://www.inovacaotecnologica.com.br


Deixe um comentário

Inpe inicia testes do novo supercomputador para análise do clima

Começam nesta terça-feira (28) os testes do supercomputador Tupã, do Instituto Nacional de Pesquisas Espaciais (Inpe). Mesmo antes de entrar em funcionamento, o Tupã já foi listado entre os supercomputadores mais poderosos do mundo. O equipamento está instalado em Cachoeira Paulista (SP), onde funciona o Centro de Previsão do Tempo e Estudos Climáticos (Cptec).

Tupã

O supercomputador é um modelo XT6 da Cray, capaz de realizar 258 trilhões de cálculos por segundo, o que coloca o Tupã também entre os mais poderosos supercomputadores do mundo para previsão de tempo e estudos sobre as mudanças climáticas.

Com isso, os pesquisadores esperam que a previsão do tempo e os estudos climáticos ganhem ainda mais agilidade e precisão. Tupã, na tradição tupi, representa o trovão, que os indígenas acreditavam ser a manifestação de um deus. O supercomputador Tupã entrará em plena operação no início de 2011 e permitirá ao INPE gerar previsões de tempo mais confiáveis, com maior prazo de antecedência e de melhor qualidade, ampliando o nível de detalhamento para 5 km na América do Sul e 20 km para todo o globo.

Será possível prever ainda eventos extremos com boa confiabilidade, como chuvas intensas, secas, geadas, ondas de calor, entre outros. As previsões ambientais e de qualidade do ar também serão beneficiadas, gerando prognósticos de maior resolução, de 15 quilômetros, com até seis dias de antecedência.

Modelo brasileiro do clima global

A nova máquina também será fundamental para o desenvolvimento e implementação do Modelo Brasileiro do Sistema Climático Global, que incorporará todos os elementos do Sistema Terrestre (atmosfera, oceanos, criosfera, vegetação, ciclos biogeoquímicos, etc), suas interações e como este sistema está sendo perturbado por ações antropogênicas (por exemplo, emissões de gases de efeito estufa, mudanças na vegetação, urbanização, etc.).

Este esforço envolve um grande número de pesquisadores do Brasil e do exterior, provenientes de diversas instituições, o que se constitui num projeto interdisciplinar de desenvolvimento de modelagem climática sem precedentes entre países em desenvolvimento.


4 Comentários

Ciência ambiental: não troque as sacolas plásticas ainda

Bio é sempre bom?

Os sacos plásticos estão literalmente por toda parte. Embora aqueles usados para embalar produtos nos supermercados sejam o alvo preferencial dos ambientalistas, eles estão em praticamente todos os produtos vendidos no comércio. Infelizmente, eles estão também pelas ruas, bueiros e nos lixões, uma vez que a estrutura de reciclagem é muito deficiente.

As sacolas de bioplástico somente podem ser consideradas ambientalmente amigáveis se o processo de produção for feito utilizando energias renováveis. [Imagem: AStar]

A substituição desses sacos plásticos por bioplásticos tem sido alvo de grandes discussões, havendo pesquisadores que afirma que as “leis das sacolas plásticas” erram o alvo.

Contudo, os reais benefícios ambientais, assim como eventuais desvantagens, da substituição dos plásticos por bioplásticos ainda não estão totalmente claros. Por isso, Hsien Hui Khoo e seus colegas do Instituto de Engenharia e Ciências Químicas de Cingapura decidiram fazer uma avaliação do ciclo de vida das sacolas feitas com bioplásticos para verificar se elas são mesmo boas para o meio ambiente.

Avaliação do ciclo de vida

A avaliação do ciclo de vida (ACV) é uma técnica usada para analisar os impactos ambientais associados a todas as fases de um processo produtivo, com a elaboração de um inventário da energia e dos recursos consumidos e das emissões e dos resíduos gerados na produção de um determinado produto.

Os pesquisadores usaram a ACV para comparar o uso de sacolas feitas de polihidroxialcanoato (PHA) – um bioplástico à base de amido de milho – em relação às tradicionais sacolas de polietileno. O polietileno é atualmente o material mais usado para a fabricação de sacos de plástico.

A produção de sacos de polietileno requer a extração e refino de combustíveis fósseis, a conversão dos combustíveis fósseis em polietileno e a extrusão do polietileno em sacos plásticos. Os pesquisadores calcularam que 1,22 kg de petróleo bruto, 0,4 kg de gás natural e 48 megajoules de energia são necessários para produzir 1 kg de sacolas de polietileno.

O PHA, por outro lado, é um bioplástico feito a partir do amido de milho. A produção das biossacolas de PHA envolve o cultivo de milho, colheita, moagem úmida e fermentação. Os pesquisadores calcularam que 4,86 kg de milho e 81 megajoules de energia são necessários para produzir 1 kg de sacolas de PHA.

Desafios para os bioplásticos

De forma sobremaneira inesperada, Khoo e sua equipe descobriram que a energia consumida na produção das sacolas de PHA é 69% maior do que a energia gasta na fabricação das sacolas de polietileno. Embora o cultivo de milho possa ajudar a compensar emissões de carbono através da fotossíntese, os pesquisadores descobriram que a fabricação das sacolas de bioplástico exige maior consumo de energia durante a produção em comparação com produção de sacolas de polietileno.

Eles concluem que os sacos de PHA somente podem ser considerados ambientalmente amigáveis se o processo de produção for feito utilizando energias renováveis. Finalmente, os cientistas advertem que, antes que os biomateriais sejam considerados como alternativas sustentáveis aos plásticos convencionais, alguns desafios precisam ser superados: “A questão principal reside na redução da demanda de energia para a conversão da biomassa em materiais com propriedades semelhantes às dos plásticos,” afirmaram.

Fonte: http://www.inovacaotecnologica.com.br


Deixe um comentário

ClimaGrid quer aumentar acerto na previsão de grandes tempestades

Erros na previsão do tempo

A região Sudeste do Brasil deverá registrar no verão de 2011 um número de tempestades severas – formadas por altas descargas atmosféricas (raios), ventos fortes e chuvas intensas – maior do que a média dos últimos três anos, alerta o coordenador do Grupo de Eletricidade Atmosférica (Elat) do Instituto Nacional de Pesquisas Espaciais (Inpe), Osmar Pinto Júnior.

A previsão é baseada em um algoritmo utilizado pelos pesquisadores do Inpe que, na última década, teve uma média de acerto de 80%, prevendo corretamente as condições climáticas em oito dos dez anos analisados. Mas, a exemplo de outras metodologias empregadas para fazer previsões de curto prazo de tempestades severas, o sistema ainda apresenta uma margem de erro relativamente alta, ressalva o pesquisador.

“As abordagens utilizadas até hoje para fazer previsões de tempestades severas, como dados de satélite, de rede e modelos meteorológicos, falharam. Como no Sudeste e, talvez também em outras regiões do país, esses eventos severos estão ficando cada vez mais frequentes, é preciso testar outras abordagens para prevê-los”, disse Pinto Júnior.

Concentração de gelo nas nuvens

Por isso, no Inpe já estão sendo testadas outras ferramentas, como modelos meteorológicos de alta resolução espacial, em escalas de 1 a 2 quilômetros, para tentar medir a concentração de gelo em nuvens, que é o fator determinante para a formação de raios. Outro exemplo são sensores de descargas intranuvem, que passam de uma nuvem a outra.

Reconhecido como um dos melhores indicadores para prever a severidade de uma tempestade, os dados sobre esse tipo de raio só eram captados no Brasil na região do Vale do Paraíba, no leste do Estado de São Paulo. Um projeto de pesquisa realizado pelo Elat, em parceria com a empresa distribuidora de energia elétrica EDP Bandeirante, possibilitará que essas informações sejam captadas ainda no Espírito Santo, onde a empresa também atua.

Previsto para ser realizado ao longo de três anos, ao custo de R$ 2 milhões, o projeto, denominado ClimaGrid, visa a desenvolver um sistema computacional que integre diversas informações meteorológicas para monitorar tempestades severas. Segundo Pinto Júnior, o fenômeno climático é responsável por um número significativo de falhas no sistema elétrico brasileiro e causa um prejuízo anual de mais de R$ 600 milhões às operadoras de energia no país com reparos nas redes de transmissão.

“As redes de transmissão no Brasil estão expostas diretamente aos fenômenos climáticos porque 99% são aéreas. Se conseguirmos prever eventos extremos, como tempestades severas, será possível às operadoras de energia fazer um planejamento preventivo da manutenção de suas redes”, disse o pesquisador no lançamento do projeto, que ocorreu em 3 de dezembro, em São Paulo.

Ao monitorar diariamente a probabilidade de descargas nuvem-solo (que descem ao solo) no território abrangido por suas redes de transmissão, as distribuidoras de energia poderiam planejar e tomar decisões melhores sobre o posicionamento de suas equipes, de forma que pudessem reparar rapidamente eventuais falhas no sistema.

Fenômenos climáticos severos

A primeira fase do projeto foi iniciada em novembro com a instalação de uma versão inicial do sistema computacional no centro de operações da empresa, situado em Mogi das Cruzes, na região metropolitana de São Paulo. Na segunda fase, que está prevista para ser iniciada em 2011, os pesquisadores pretendem analisar os impactos das mudanças climáticas sobre todo o setor elétrico brasileiro.

“Os resultados do projeto também podem ter repercussões em outros setores que sofrem com impactos de fenômenos climáticos severos, como o de aviação e a defesa civil”, disse Pinto Júnior.

O cientista coordena o Projeto Temático “Impacto das mudanças climáticas sobre a incidência de descargas atmosféricas no Brasil”, apoiado pela FAPESP.

“Esse Temático, com previsão de término para o fim de 2013, resultará em muitos resultados aplicados. Um deles é o ClimaGrid”, disse.

Fonte: http://www.inovacaotecnologica.com.br


Deixe um comentário

Cientista comenta “bactéria alienígena” anunciada pela NASA.

No último dia 2, a NASA anunciou a descoberta de uma bactéria que pode crescer em uma dieta de arsênio e, portanto, não compartilha os blocos de construção biológica tradicionalmente associados com as formas de vida que conhecemos. A descoberta levanta a possibilidade de que podem existir organismos em configurações que não se acreditava serem possíveis – nem aqui na Terra e nem em outro lugar.

Sara Seager, professora de Ciências Planetárias do MIT, estuda organismos conhecidos como extremófilos que podem viver em ambientes extremos. Seu trabalho é parte de um esforço para procurar vida em planetas fora do Sistema Solar, os chamados exoplanetas. Ela falou sobre a descoberta – e o que essa descoberta significa para a busca de vida em outras partes do universo.

P. Como esta descoberta pode impactar nossa compreensão corrente de como surgiu a vida na Terra?

A nova descoberta é sobre bactérias que podem substituir o fósforo por arsênio nos elementos fundamentais constituintes das células. O arsênio e o fósforo são quimicamente semelhantes. Nessas bactérias, o arsênio está associado com os ácidos nucleicos e com as proteínas de uma maneira que levou os pesquisadores a sugerirem que o fósforo está sendo substituído pelo arsênio na cadeia de DNA da bactéria. Contudo, descobertas extraordinárias exigem provas extraordinárias, e dados mais detalhados serão necessários para se chegar a conclusões mais robustas.

Um experimento realizado na Estação Espacial Internacional revelou que alguns animais e plantas sobrevivem até 18 meses no vácuo do espaço. [Imagem: ESA/NASA]

Por si só, a nova descoberta não sugere nada de novo para a compreensão da origem da vida na Terra. O arsênio como um bloco de construção bioquímica é quase certamente uma adaptação, e não um remanescente de um cenário diferente para a origem da vida.

A conclusão é, no entanto, verdadeiramente entusiasmante ao mostrar que a vida pode existir fora das verdades tradicionais que têm sido convencionalmente aceitas até agora. Os pesquisadores vão, sem dúvida, procurar por evidências que sustentem a existência de uma “biosfera sombra”, uma biosfera microbiana com formas de vida que nós ainda não reconhecemos porque elas poderiam ter uma bioquímica radicalmente diferente. Uma biosfera sombra significaria uma “segunda gênese” – uma origem e uma rota evolutiva independentes para o resto da vida como a conhecemos.

P. O que esta descoberta representa para a busca de vida em planetas extrassolares? Os pesquisadores vão começar a procurar arsênio nas atmosferas dos exoplanetas? Isso irá afetar os tipos de planetas que os pesquisadores irão procurar?

A descoberta reforça nossa motivação para pensar de forma tão ampla quanto possível sobre os tipos de ambientes que são adequados para a vida. Além disso, ela não vai mudar o tipo de exoplanetas que estamos procurando na busca por vida em outros mundos; a este respeito, estamos limitados pela tecnologia e pelo número de estrelas próximas.

A descoberta apóia a noção de que a vida nos exoplanetas poderia ser muito diferente da vida na Terra. Não estamos preocupados do que é feita a vida nos exoplanetas, apenas o que essa vida faz e quais bioassinaturas ela gera. Ainda que o arsênio não seja um gás tido como uma bioassinatura, a descoberta é uma clara advertência de que é provável haver gases não reconhecidos como bioassinaturas, e precisamos começar a trabalhar para identificá-los.

Um laboratório brasileiro, localizado em Valinhos (SP), estuda a vida fora da Terra, incluindo pesquisas sobre os extremófilos. [Imagem: NASA]

P. O que são extremófilos, e como eles se relacionam com as bioassinaturas, ou sinais de vida?

Os extremófilos são formas de vida que podem existir em ambientes extremos. Alguns organismos realmente prosperam em situações que matariam a maior parte das outras formas de vida, incluindo os seres humanos. Temos exemplos que incluem os termófilos, que florescem em temperaturas acima do ponto de ebulição da água, os barófilos, que vivem nas altas pressões no fundo do oceano, e os acidófilos, que existem em condições altamente ácidas.

A nova descoberta envolve bactérias que vivem em um lago rico em arsênio – um lago que tem também uma elevada concentração de sal e muito baixa acidez. Os extremófilos, como toda a vida, têm subprodutos metabólicos. Ao fazer o sensoriamento remoto de vida em planetas distantes, estamos interessados em gases que são subprodutos metabólicos que se acumulam na atmosfera do planeta e possam ser identificados. Nós os chamamos de bioassinaturas gasosas.

Os extremófilos são tão variados nas substâncias químicas que eles comem e respiram que podem produzir uma grande variedade de gases que poderiam ser potenciais bioassinaturas em outros mundos.

Fonte: http://www.inocaotecnologica.com.br