segunda-feira, 30 de abril de 2012

A idosa galáxia 0902+34

Ao captar sistematicamente durante anos as emissões de rádio vindas de uma determinada área do espaço, o astrônomo inglês Simon Lilly acabou descobrindo um corpo celeste a 12 bilhões de anos-luz de distância que poderá corrigir a teoria habitualmente aceita sobre a data de nascimento das galáxias. Pois, se essa formação, já catalogada como 0902 + 34, for de fato uma galáxia como se suspeita, será a mais distante já conhecida. Ocorre que uma parte de seu brilho talvez provenha de estrelas ainda mais anti- gás, nascidas de 13 a 14 bilhões de anos atrás.
Segundo os cosmologistas, porém, pelo menos 4 bilhões de anos transcorreram desde o Big Bang até que a sopa cósmica de matéria e energia que constituiu inicialmente o Universo desse origem às galáxias. Ora, como os cosmologistas também calculam que o Big Bang ocorreu entre 15 e 20 bilhões de anos atrás, não teria havido tempo suficiente para existirem galáxias completamente formadas, como a que o inglês Lilly parece ter descoberto. Como diz o astrofísico Roberto Boscko, da USP, "se não houver um erro de detecção da 0902 + 34, pode ser que as contas sobre o momento em que ocorreu o Big Bang tenham de ser alteradas".

Revista Super Interessante n° 011

Computador julga espermatozóide

Três séculos depois de ter sido observado pela primeira vez, o espermatozóide começa a ser estudado de forma rigorosamente objetiva. Até há pouco, a única maneira de analisá-lo era o espermograma, em que se procura verificar ao microscópio quantidade, velocidade e proporção de elementos anômalos de uma amostra. Esses três dados são fundamentais para se determinar a capacidade de fecundação do esperma. Considera-se normal o esperma que contém entre 20 milhões e 200 milhões de espermatozóides por centímetro cúbico – um padrão, como se vê, bastante elástico. Agora, começam a ser usados na Europa aparelhos computadorizados, que medem e avaliam automaticamente aquelas características - o que pode fazer toda a diferença no exame de um caso de infertilidade.

Revista Super Interessante n° 011

O micromundo dos chips


Fátima Cardoso

Do espaço ao fundo da Terra, o diamante entra em cena quando nenhum outro material aguenta trabalho pesado ou executado em condições adversas. Incorporado à eletrônica, ele promete revolucionar o mundo dos computadores.
Milimétricos condutores de energia são a alma da eletrônica e um dos motores do mundo moderno. Do quartzo ao circuito integrado, sua fabricação exige até trinta etapas, além de extremos cuidados.
São peças dignas de ser apreciadas pelo microscópio: as menores têm 0,3 milímetro de espessura e as maiores medem 0,5 milímetro. As áreas nunca excedem 1 centímetro quadrado. Apesar de tão minúsculas, têm embutidos milhões de transistores por onde se movimentam sem parar sinais elétricos— como carros trafegando em alta velocidade pelas ruas e avenidas de uma cidade bem planejada. Esses ínfimos circuitos incrustados nos faladíssimos chips chegam a medir 1,5 mícron—1,5 milésimo de milímetro—, ou seja, são cinquenta vezes mais finos do que um fio de cabelo. No entanto, guardam milhões de informações— os chips utilizados nos supercomputadores IBM 3090, por bits. (O bit é a menor unidade de informação de um computador.)
Nas últimas três décadas, o chip — palavra que em inglês significa lasca, fatia ou pedaço — tornou-se a ferramenta mais preciosa da indústria eletroeletrônica mundial. E um pequeno retângulo feito de silício substância a meio caminho entre os condutores de eletricidade, como os metais, e os isolantes, como a cerâmica usada nas linhas de alta tensão. Por isso é chamado semicondutor. O irrisório tamanho do chip é muito bem aproveitado: ali coabitam componentes de nomes exóticos, como resistores, capacitores, diodos e até os conhecidos transistores. Todos eles, quando conectados entre si, podem provocar resistência, armazenar, amplificar ou interromper a corrente elétrica. Essas possibilidades, devidamente combinadas e traduzidas em números, são a chave de qualquer sistema eletrônico moderno.
Se os chips não fossem capazes de armazenar tantos componentes num espaço tão limitado, não haveria supercomputadores, satélites de comunicação, naves espaciais nem mísseis de guerra. Aliás, não é preciso ir tão longe. Os chips estão presentes nos televisores, equipamentos de som, telefones, calculadoras, relógios, brinquedos e eletrodomésticos. Eles fazem parte de tudo o que se fabrica com um componente eletrônico em seu bojo, seja um autorama ou um liquidificador, o mecanismo de partida de um carro ou as caixas registradoras de um supermercado.
A carreira dessa micropeça é recente, mas meteórica. No final da década de 50, os engenheiros já sabiam que uma onda eletromagnética, produzida por circuitos elétricos poderia transportar milhares de informações através do espaço em poucos segundos. Teoricamente, as possibilidades eram ilimitadas. Naquela época, os transistores feitos de material semicondutor como o silício já tinham substituído as válvulas nos computadores mais rápidos. Mas o que na teoria funcionava perfeitamente, na prática dava errado. Como num jogo de armar, os transistores tinham de ser soldados quase manualmente aos outros componentes de um circuito eletrônico. Em casos mais complexos, podia-se obter até 1 milhão de conexões. Assim, embora já houvesse projetos de supercomputadores, eles esbarravam nesse problema: a tirania do número de conexões que crescia assustadoramente com a complexidade dos circuitos.
Foi quando, em 1958, um engenheiro da Texas Instruments, Jack Kilby, na época com 34 anos, descobriu uma maneira de juntar todos os componentes do circuito numa única pastilha de silício. Em vez de usar circuitos soldados um a um, Kilby percebeu que a adição de determinadas "impurezas", como fósforo ou boro, numa barra de silício altamente purificado afetaria a mobilidade dos elétrons. Se essas impurezas fossem colocadas em camadas, como num sanduíche, seria possível comprimir todos os componentes de um circuito integrado num único bloco de silício semicondutor. A tendência, com o tempo, foi manter a área do chip e diminuir o tamanho dos componentes, que, empilhados em dez camadas de material, podem medir 10 milionésimos de milímetro cada uma.
Mas, em 1958, não era apenas a Texas Instruments, empresa famosa por ter fabricado os primeiros rádios transistores, que estava interessada em circuitos integrados de silício. Outra companhia, a Fairchild Semiconductor, instalada num vale ao sul da baia de São Francisco, na Califórnia, então uma aprazível área agrícola, também fazia pesquisas semelhantes. Um de seus diretores, o físico Robert Noyce, então com 31 anos, tivera a mesma idéia de Kilby, com a diferença de alguns meses. Entre o tempo que durou a pesquisa e o aparecimento das primeiras peças, já na década de 60, Kilby e Noyce repartiram as honras de serem os inventores dos chips. O local onde funcionava a Fairchild acabaria invadido por gigantes da microeletrônica, tornando-se conhecido como Vale do Silício.
O nome pegou. Outras regiões dos Estados Unidos foram batizadas de Floresta do Silício, Pradaria da Silício, Colinas do Silício e assim por diante. O primeiro chip fabricado em 1958 tinha cinco peças fundidas numa barra de 1,5 centímetro quadrado hoje, os chips podem ter até 5 milhões de componentes. Em trinta anos, eles diminuíram dez vezes de tamanho e multiplicaram por 1 milhão a capacidade. Isso não aconteceu por acaso.
Como subproduto do projeto espacial americano que levaria o homem à Lua, a microeletrônica foi premiada com grandes investimentos para pesquisa. Mas, nos últimos anos, com a disseminação do uso dos chips, o custo e, portanto, a competitividade das indústrias passou a fazer toda a diferença e os japoneses tomaram a dianteira no ramo.
Nos próximos dois anos, eles prometem fabricar circuitos de 18 milhões de componentes e até o ano 2000, de 500 milhões tudo isso no mesmo espaço minúsculo de 1 centímetro quadrado. Então, os supercomputadores já estarão superados, tendo cedido a vez aos chamados ultracomputadores. Se imaginar esses chips do futuro próximo já é difícil, que dirá construí-los. No mundo miniaturizado dos circuitos integrados, um simples grão de poeira pode adquirir as proporções de uma avalanche sobre uma rodovia movimentada. Não é de admirar, portanto, que instrumentos tão delicados exijam uma associação de paciência, capital e cérebro em níveis difíceis de serem igualados em qualquer outra atividade industrial.
Algumas universidades brasileiras já se atrevem a fazer o ciclo completo da fabricação do chip um processo que envolve mais de trinta etapas—, mas isso não acontece ainda na indústria nacional. "Uma coisa é fazer a experiência em nível de pesquisa avançada", explica o engenheiro Armando Laganá, da Escola Politécnica da USP. "Outra coisa muito diferente é manter a competitividade industrial." Antes de pensar na fabricação dos chips, as empresas microeletrônicas devem conseguir silício puro, ou seja, tão limpo que entre 1 bilhão de átomos não haja mais do que uma dúzia de impurezas.
O Brasil possui uma das maiores jazidas de quartzo do mundo, mineral de onde é retirado o silício. Mas entre o quartzo encontrado até no cascalho à beira dos rios do sul de Minas — e o silício monocristalino dos chips vai uma grande diferença. O quartzo é transformado em silício metálico, depois purificado até tornar-se cristal mas ainda não está pronto para ser trabalhado. Esse cristal de silício deve ter todos os átomos em seus devidos lugares para que não haja nenhuma imperfeição no material e para que a corrente elétrica que circula pelo chip não sofra alterações. Portanto, ele é fundido em torno de uma "semente”, ou núcleo monocristalino, sobre o qual vão se depositando, já então corretamente ordenados os átomos de silício. Formam-se assim os tarugos—"salames", de 1,50 metro de altura, fatiados por uma serra de diamante.
As bolachas, ou wafers, como são chamadas em inglês as finíssimas fatias de silício de 3 polegadas de diâmetro, são lapidadas ou polidas como barras de aço de uma usina siderúrgica. Essas lâminas são então divididas em centenas de chips, cujos circuitos, numa etapa posterior, serão gravados segundo um método semelhante ao da fotografia. Na curta história dos chips, esses circuitos já foram feitos a mão, embora atualmente sejam usados computadores gráficos. Curiosamente, são esses computadores que vão desenhar as memórias de outros computadores iguais a eles. Para que os circuitos sejam gravados na chapa de silício, ela é aquecida à temperatura de 1 200 graus centígrados, até que se forme uma finíssima camada protetora de óxido, com uma grande resistência elétrica. Em seguida, se cobre o wafer com material fotográfico, sobre o qual se colocam as máscaras— que se parecem às antigas chapas de vidro usadas em fotografia onde os circuitos foram fotografados.
Ao submeter o conjunto a radiação ultravioleta, as áreas ocultas pelas máscaras ficam intactas, enquanto a luz atinge o material fotográfico, que se dissolve, deixando livre a camada de óxido de silício. Esse processo é repetido várias vezes, de acordo com o número de máscaras que forem necessárias. Em seguida, pode começar o processo de dopagem, como dizem os engenheiros. O método é o mesmo usado na gravação das máscaras, mas neste caso as áreas livres são bombardeadas ou dopadas com boro, fósforo ou arsênio, as chamadas "impurezas" que vão permitir a condutividade elétrica.
Depois, é preciso cobrir os chips com condutores de alumínio. Numa fábrica onde são feitos todo ano milhões de chips, esses processos ocorrem em salas onde o ar é mais limpo do que nos centros cirúrgicos dos hospitais. As pessoas ali só trabalham de uniformes imaculadamente brancos, com os pés, cabelos e mãos  protegidos, pois a poeira trazida por elas pode prejudicar dezenas de chips incrustados numa lâmina.
No futuro, prevê-se que os chips serão confeccionados com materiais supercondutores que, por não oferecerem resistência à eletricidade, podem transmitir sinais ainda mais velozes do que se sonha com os circuitos atuais. Aliás, a preocupação dos fabricantes é conseguir chips que processem informações cada vez mais rapidamente. Para isso, já está sendo usado o arseneto de gálio como material semicondutor. O arseneto conduz elétrons até seis vezes mais depressa do que o silício, além de operar em temperaturas mais elevadas, reduzindo a necessidade de resfriar os computadores e outros sistemas eletrônicos. Como é muito caro, só é utilizado em pesquisas, como as que se desenvolvem na Unicamp, ou em supercomputadores militares americanos ou ainda na fabricação de circuitos para comunicações por microondas.
Independente do material de que são feitos —silício  ou  arseneto de gálio—, no final de todas as etapas de fabricação os chips ainda estão ligados às centenas num único wafer. Esse wafer então é serrado e os chips, enfim libertos, são soldados aos seus suportes mecânicos, os chamados lead-frames. É um trabalho que no Brasil ainda é mecânico na sua maior parte, além de ser executado. quase só por mulheres. São operárias que vão manusear, interligar, soldar os chips e depois implantar minúsculos fios de ouro que os manterão presos aos equipamentos eletrônicos. Encapsulado num invólucro de epóxi, o chip deixa de ter esse nome. Daí em diante, o retângulo milimétrico de silício passa a ser conhecido como circuito integrado.

O circuito brasileiro
A indústria micro eletrônica nacional tem prazo de dois anos para dominar o ciclo completo da fabricação do chip, conforme compromisso assumido com o Conin (Conselho Nacional de Informática e Automação). O objetivo é dominar a tecnologia tanto nos circuitos digitais, aqueles dos computadores, que lidam com memória, como a dos analógicos ou lineares, que processam dados contínuos, como nos televisores. Qualquer que seja o circuito, a base dos chips é sempre a mesma. Só muda a tecnologia, que permite que um número menor ou maior de componentes seja colocado num único chip.
A SID Microeletrônica, subsidiária da Sharp, com sede em Contagem, a 10 quilômetros de Belo Horizonte, é uma das três empresas brasileiras do setor mais avançadas em termos de tecnologia de chips. Mesmo assim, por enquanto, ela só trabalha com circuitos lineares. "No ano que vem", prevê seu diretor industrial, o engenheiro Wilson Leal, "começamos a fabricar circuitos para memórias." As outras duas empresas, Itautec Componentes e Elebra, desenham circuitos e realizam o estágio final de produção do chip—teste, montagem e encapsulamento. O restante é realizado por indústrias estrangeiras.
Só falta ao Brasil dominar duas etapas do ciclo de produção: a purificação do silício, do qual se obtém o cristal cilíndrico, e a elaboração de máscaras, que se segue ao projeto dos circuitos. Embora não seja capaz de transformar o silício metálico em policristal, a empresa paulista Heliodinâmica, especializada em células solares, fabrica o silício sob a forma de cristal puro. O CTI—Centro Tecnológico de Informática —, órgão do Ministério da Ciência e Tecnologia que faz pesquisas em informática, se comprometeu a fazer ainda este ano as máscaras dos chips nacionais.

Imitação de cérebro
No futuro, os chips poderão ser feitos de organismos vivos, tornando- se bem mais parecidos com o cérebro humano do que as atuais microplaquetas de silício. Pelo menos desde 1974, pesquisadores americanos procuram desenvolver chips que copiem a maneira como os neurônios humanos processam uma colossal quantidade de informações. De acordo com esse modelo, os transistores seriam equivalentes às sinapses—ligações entre as células nervosas por onde se transmitem os impulsos. Mas enquanto os primeiros só permitem dois estados—ligado e desligado —, as sinapses têm uma enorme variedade de estados intermediários, que fazem com que as células nervosas tanto sirvam de memória como processem informações de maneira simultânea.
Outro motivo pelo qual os cientistas procuram substituir o silício por matéria orgânica é que o número de componentes existentes num circuito convencional está atingindo seu limite. Para substituir os transistores, pesquisadores da IBM americana, por exemplo, usaram moléculas orgânicas com cargas positiva e negativa. A montagem da experiência foi semelhante à dos circuitos integrados tradicionais, ou seja, foram usadas duas camadas separadas por um isolante, prensadas entre placas metálicas. No Japão, demonstrou-se que uma proteína extraída do coração do cavalo se comporta como material semicondutor.
Em outra pesquisa, dessa vez na Universidade da Califórnia, uma equipe de cientistas se propôs a produzir chips a partir de grandes moléculas de carbono, que possuem propriedades elétricas semelhantes às do silício. Essas moléculas seriam sintetizadas pela Escherichia coli, uma bactéria do intestino normalmente usada em engenharia genética. Os resultados dessa pesquisa vão demorar pelo menos vinte anos. De seu lado, pesquisadores da AT&T Bell Laboratories anunciaram recentemente, num seminário no Canadá, terem desenvolvido chips que imitam o cérebro humano, funcionando como neurônios eletrônicos. Esses chips de 7 milímetros quadrados de área teriam 75 mil transistores, o que equivale à memória de um micro tipo Apple. A idéia é usar esses chips como censores que reconstruiriam funções nervosas lesionadas.

Revista Super Interessante n° 011

Programa espacial americano: Contagem regressiva

Depois do desastre com a Challenger, em 1986, o programa espacial americano praticamente parou. Seu renascimento depende agora do que acontecer com a Discovery, cujo lançamento está previsto para o fim deste mês.

Do mesmo Centro Espacial John Kennedy, na Flórida, onde há 31 meses ocorreu a maior catástrofe da história da conquista do espaço—a explosão da nave Challenger—, deve subir, se não houver novo adiamento, o ônibus espacial Discovery, com o qual os Estados Unidos se preparam para retomar seu interrompido programa de exploração do Cosmo. Em outubro, será a vez da Atlantis, em missão para o Departamento de Defesa Contemporânea da Challenger, e tendo voado pela primeira vez em novembro de 1984, a Discovery será levada à plataforma de lançamento com menos modificações do que se chegou a imaginar, quando o governo americano decidiu seguir adiante com o projeto dos ônibus espaciais, após a tragédia de 1986.
A rigor, os foguetes lançadores, ou boosters, como são chamados, é que sofreram mais alterações. Não é para menos, pois foram a causa principal do acidente que transformou a Challenger numa bola de fogo. A maior dificuldade tem sido desenhar um sistema eficiente de anéis de vedação para os boosters, dois foguetes que ficam ao lado do enorme tanque de combustível e são construídos como uma série de tambores empilhados. Para unir uma peça à outra é intercalado um anel de vedação—feito de um composto capaz de resistir às temperaturas mais extremas, tanto abaixo como acima de zero.
Foi justamente uma falha nesse sistema de vedação que deixou escapar combustível no lançamento da Challenger, provocando a explosão. Nos últimos dois anos, engenheiros da NASA e da Morton Tiokol, a empresa que construiu os foguetes, desenvolveram e testaram um sistema mais eficiente de anéis de vedação. A nave espacial propriamente dita, o orbiter, é a mesma dos vôos anteriores, sem nenhuma modificação. Não foi instalado nenhum sistema de salvamento dos astronautas em caso de acidente, como uma cabine ejetora, por exemplo.
Os técnicos da NASA afirmam que tal sistema seria excessivamente oneroso, além de comprometer o desempenho do lançamento ao aumentar em demasia o peso da nave. E, o que é pior, sem nenhuma garantia de que funcionasse: durante a subida, viajando a quase 4 500 quilômetros por hora — a velocidade necessária para romper a força de atração da gravidade—, não há cabine ejetora capaz de salvar vidas, no caso de uma falha inesperada.
No solo, contudo, várias modificações foram feitas por exemplo, na rampa de lançamento, um dos pontos mais vulneráveis dos programas espaciais. Tanto a tripulação da nave como as equipes de resgate poderão ser retiradas rapidamente do local por meio de pequenos teleféricos, capazes de transportar até três pessoas para um abrigo, a 330 metros da rampa, de onde serão levadas por carros de combate M- 113 modificados, que atravessam uma área incendiada sem sofrer danos, até um abrigo ainda mais distante. De qualquer forma, como nos primeiros dias da aventura espacial, na década de 60, haverá muita tensão no ar—afinal, está em jogo a própria sobrevivência do programa americano.
O trauma causado pela morte de sete pessoas a bordo da Challenger, entre elas a professora primária Christa MacAuliffe, fez com que a NASA redefinisse o tipo de uso para o space shuttle, que passou a ser exclusivamente científico e militar. O ônibus espacial deixa de transportar tripulantes não especializados, ao contrário do que queria o departamento de relações públicas da agência espacial, que esperava poder levar um leigo como passageiro em cada um dos futuros vôos.
A colocação de satélites comerciais em órbita deixará também de ser uma prioridade — outros podem fazer o serviço, não apenas mais barato mas com maior eficiência, como o consórcio espacial europeu Ariane e os chineses, sem falar dos soviéticos, que abriram um escritório em Houston, no Texas, oferecendo seus serviços. Enquanto os americanos procuravam soluções de alta tecnologia— e cada vez mais caras para os veículos espaciais, os soviéticos avançaram passo a passo com naves relativamente simples e confiáveis, mantendo um ritmo constante de lançamentos.
A estação espacial Mir é um perfeito exemplo da filosofia soviética. Colocada em órbita em fevereiro de 1986, ela é menor e menos sofisticada que a estação espacial Skylab, lançada pelos americanos em 1973. Mas, enquanto a Skylab foi abandonada em 1974, a Mir tem colecionado resultados impressionantes, como o recorde dos 362 dias que o cosmonauta Yuri Romanenko passou em órbita, em 1987. Até o final da década, os soviéticos esperam poder colher amostras do próprio solo do planeta Marte.
Missão similar está sendo projetada pelos americanos. Por causa disso não faltam especialistas de grosso calibre para propor a cooperação entre os dois países nessa missão. A exploração de Marte está presente no já famoso relatório encomendado à pesquisadora Sally Ride, a primeira mulher astronauta americana. Com o título "Liderança e Futuro da América no Espaço", o texto foi terminado no ano passado, antes que ela voltasse a trabalhar na Universidade de Stanford, na Califórnia. O Relatório Ride, como ficou conhecido, fixa metas para as futuras missões americanas.
Segundo ele, em 1994, quatro plataformas espaciais de observação seriam construídas. Circulando em órbitas polares, teriam como função principal o estudo da Terra. Afinal, os propósitos científicos da exploração espacial não devem excluir o planeta. O estudo do sistema solar seria reiniciado, ainda de acordo com o relatório, com duas missões- robôs. Uma, projetada para colher amostras do solo marciano em 1996; outra, para estudar Saturno e Titã a maior de suas quinze luas em 1998. E, finalmente, o envio da primeira missão tripulada para Marte, em 2005.
Uma missão conjunta, envolvendo americanos e soviéticos, nesse caso teria maiores possibilidades de êxito. Os soviéticos dominam as técnicas da longa permanência no espaço e da descida de naves tripuladas em solos desérticos (as cápsulas americanas desciam no oceano). Assim como possuem o mais poderoso foguete lançador da atualidade, o Energia. Por sua vez, os melhores recursos tecnológicos e as diversas missões tripuladas à Lua, na década de 70, deram aos americanos a experiência única de pisar no solo de outro planeta ou satélite.
Isso reforça a proposta apresentada pelo astrônomo Carl Sagan, o autor do livro e da série de TV Cosmos, um ardoroso defensor da idéia da missão conjunta. Aliado a pessoas famosas, como o ex-presidente Jimmy Carter, ele escreveu a Declaração de Marte, defendendo a exploração do planeta, "para fornecer um objetivo coerente e um senso de propósito para a NASA, que hoje está sem o espírito de iniciativa que a caracterizava".
As metas propostas no Relatório Ride, de certo modo, não foram novidade para a NASA, que já possuía um plano similar — o Projeto Pathfinder (guia ou batedor). Em vez de missões específicas com data certa, como gostaria Sally Ride, a NASA se concentra em desenvolver quatro áreas de tecnologia essenciais para a realização daqueles mesmos objetivos. A primeira dessas áreas diz respeito ao desenvolvimento de técnicas de exploração para a coleta de informações científicas, tanto em missões robotizadas como tripuladas. O objetivo é criar veículos motorizados capazes de viajar com grande autonomia e desenvoltura na superfície da Lua ou de Marte.
A segunda área de estudos visa à construção, manutenção e operação de sistemas integrados, em órbita ou na superfície. Os técnicos da NASA procuram criar um sistema automático de acoplamento, permitindo que as estações espaciais possam se conectar facilmente com outros veículos, tripulados ou não. Também está em estudos a construção de usinas de mineração no solo lunar, para o processamento do oxigênio. Tais usinas serão fundamentais para a autonomia das colônias lunares. Futuramente, verdadeiros estaleiros espaciais montarão grandes estruturas em pleno espaço, já que o tamanho de uma estação espacial, ou da nave para uma missão tripulada a Marte, inviabiliza o lançamento dessas estruturas, já montadas, a partir da Terra.
A terceira área lida com as tecnologias necessárias à segurança e produtividade das missões humanas no espaço. Aqui se inclui a pesquisa de novos trajes para astronautas, assim como técnicas para evitar a degeneração fisiológica do corpo humano causada pelas longas missões na ausência de gravidade. O último e não menos importante aspecto do Projeto Pathfinder trata daquilo que a NASA chama "veículos de transferência"— em bom português, as naves espaciais. Os técnicos pesquisam um sistema de propulsão para longas jornadas, seguro o suficiente para permitir reparos, sem a necessidade de cancelar a missão.
Nos computadores da NASA, os técnicos já fizeram diversas simulações da controvertida técnica chamada aerobraking (aerofrenagem), ou seja, utilizar a própria atmosfera de um planeta para frear a nave, durante a entrada em órbita depois de uma viagem espacial, poupando combustível dos foguetes retropropulsores. O menor erro de cálculo pode fazer a nave interplanetária se espatifar na chegada. Quando finalmente conseguirem dominar esta técnica, será dado um grande passo a favor das missões tripuladas a outros planetas.
A NASA retoma, atualmente, o programa espacial, seguindo o caminho já traçado pelo Projeto Pathfinder. Duas missões científicas não tripuladas estão quase prontas. A primeira, a Galileu, será lançada em outubro de 1989 com destino às luas de Júpiter. A segunda missão partirá em 1993 para encontrar e acompanhar o cometa Tempel 2 por um período de três anos. Projetos mais ambiciosos, como a estação espacial, a base lunar e a missão tripulada a Marte, encontram, porém, uma grande barreira entre o mundo da fantasia e a realidade terrestre: o orçamento da NASA.
Num ano de eleições presidenciais como este, o déficit público americano se torna um importante tema de campanha. Com isso, fica mais difícil para a NASA justificar um pedido de mais verbas, como reconhece James G. Fletcher, atual administrador da agência: “O objetivo é manter durante este período de austeridade orçamentária um programa espacial forte, mas economicamente sensato". O que muitos duvidam é se a NASA vai conseguir sobreviver dentro dessa política, em face dos elevados custos da exploração espacial. A aventura americana talvez dependa do aparecimento de um presidente sonhador, disposto a arriscar dinheiro e prestígio para mais uma vez colocar o país no caminho das estrelas.

Carga preciosa
A retomada do programa americano vai tornar possível a colocação em órbita do telescópio espacial Hubble, avaliado em 1.4 bilhão de dólares, que deveria ter sido lançado em outubro de 1986. Em órbita, livre das perturbações atmosféricas, seu poderoso espelho de 2,4 metros de diâmetro permitirá enxergar sete vezes mais longe que qualquer outro telescópio ótico terrestre. Já não é sem tempo. Com o atraso no programa espacial americano, os astrônomos perderam a oportunidade única de estudar, com o Hubble, a mais próxima explosão de uma supernova dos últimos trezentos anos — a Shelton 1987A—, que aconteceu no início do ano passado. Resta esperar por novas oportunidades.

Revista Super Interessante n° 011

Quando os bichos bocejam

Desde que, em 1873, o naturalista inglês Charles Darwin observou que os macacos babuínos bocejam quando se sentem ameaçados, os cientistas comparam o significado do bocejo em bichos e seres humanos. Apenas um ponto parece existir em comum: bocejar é contagiante indistintamente para animais e pessoas. Cientistas ingleses suspeitam que o motivo esteja nas ligações nervosas dos olhos com determinada área cerebral, que bem poderia ser uma espécie de central de bocejos. Uma observação curiosa dos ingleses, porém, é que os homens tendem a bocejar mais quando estão sozinhos - se bocejam quando têm alguém do lado é sinal de que o encontro está monótono. Já certos animais, como vacas e bois, bocejam mais quando estão acompanhados, pois aí o bocejo funciona como um estímulo para dormirem juntos e dessa forma estarem mais seguros e aquecidos.

Revista Super Interessante n° 011

Aliança contra o câncer

Pode haver alguma relação entre câncer e estado civil? Por estranho que pareça, pode. Pelo menos é o que sugerem os resultados de uma recente pesquisa concluída nos Estados Unidos com mais de 27 mil pessoas internadas para tratamento de tumores malignos. Com base nas fichas dessa população, verificou-se que o câncer costuma ser - diagnosticado mais cedo em casados - provavelmente porque seus parceiros os estimulam a ir ao médico com maior frequência. Além disso, as chances de sobrevivência também se revelam maiores nos casados, em comparação com pessoas solteiras, ainda que estas sejam em média dez anos mais jovens. Os cientistas imaginam que o fator decisivo pode ser o apoio dos parceiros e da família, amenizando os efeit9s do estresse causado pela doença. E claro que conclusões como essa não devem ser generalizadas - mas talvez ajudem os (as) indecisos(as) a dar logo o seu "sim".

Revista Super Interessante n° 011

Anestesia

Gisela Heymann

A descoberta de substâncias que inibem dores intensas proporcionou um grande salto na cirurgia: operações antes só realizadas em ultimo caso tornaram-se rotina.
Quem já não viu um filme de faroeste, onde o fiel companheiro do herói é ferido na perna? Sem poder andar, não lhe resta outra alternativa senão beber uma golada de uísque e morder com força um pedaço de pano, enquanto o mocinho, a sangue-frio, retira a bala e limpa a ferida: A cena não está tão longe da realidade como se poderia imaginar. De fato, apenas no século passado é que cientistas americanos descobriram os efeitos anestésicos de substâncias como o éter e o óxido nitroso, este mais conhecido como gás hilariante.
Suas propriedades sedativas haviam sido descobertas pelo químico inglês Sir Humphry Davy em 1799.0 gás foi usado nas primeiras décadas do século XIX não em Medicina; mas em espetáculos públicos, onde homens perambulavam rindo sob o seu efeito. Certa vez, um jovem dentista americano chamado Horace Wells foi a uma dessas apresentações. Muito atento,  Wells notou que um cidadão que havia cheirado o gás batera violentamente com a perna numa cadeira sem pronunciar sequer um ai.
No dia seguinte, tomou uma decisão corajosa e radical: pediu a um aprendiz que lhe arrancasse um dente enquanto estivesse sob a ação do gás. Não deu outra: a extração foi indolor.
Ajudado por um amigo e aluno, William Thomas Green Morton, Wells tentou, em 1845, demonstrar cientificamente a descoberta, convocando seus colegas a uma apresentação no Hospital Geral de Massachusetts, em Boston. Desta vez, porém, a experiência não deu certo: o paciente gritou de dor e o dentista foi exposto ao ridículo.
Apesar do fracasso do mestre, Morton voltou seus estudos para o campo ainda virgem da anestesia. Pediu então a outro professor, o químico Charles Jackson, que lhe falasse de suas pesquisas com o éter. Morton se entusiasmou com o que ouviu, fez experiências por conta própria e, em 1846, apenas um ano após a desastrada tentativa de Wells, apresentou-se duas vezes no mesmo hospital de Boston. Na primeira, extraiu um dente sem que a vítima sentisse dor.
Na segunda, anestesiou com éter um doente do qual seria retirado um tumor – e ele nada sentiu durante a operação. O dentista foi aclamado.
Segundo o relato de alguns historiadores, Charles Jackson, o amigo químico de Morton, ficou furioso quando percebeu que não seria lembrado pela descoberta. Buscou o reconhecimento durante anos, mas desistiu quando outro americano, Crowford Williamson Long, um médico do interior, divulgou suas experiências com o éter, datadas de 1842, portanto quatro anos antes da demonstração de Morton.
Como a população de Jefferson - a cidade da Georgia onde Long clinicava - tinha desaprovado seu método, ele escondera o feito da comunidade científica, com medo de perder o direito de exercer a Medicina ou, pelo menos, de perder a fiel clientela da província. Seja como for, hoje se aceita que tanto Morton como Long descobriram a anestesia, cada qual de seu lado. Ao primeiro, porém, ainda cabe a glória de tê-la divulgado.
Apesar das divergências e dos acidentes ocorridos nas primeiras experiências, a anestesia se desenvolveu a passos largos. Além do éter e do óxido nitroso, já a partir de 1847 o clorofórmio também passou a ser empregado. Em 1853, o médico inglês John Snow usou a substância em ninguém menos que a rainha Vitória, no parto de seu oitavo filho, Leopoldo. Tempos depois, porém, o clorofórmio foi sendo abandonado aos poucos, devido às inúmeras complicações cardíacas e hepáticas que provocava. O éter só recentemente - deixou de ser usado, por ser explosivo; o gás hilariante até hoje éutilizado. Em 1884, o oftalmologista checo Carl Koller, que então trabalhava no Hospital Geral de Viena, utilizou pela primei1"a vez a cocaína como anestésico local numa cirurgia de vista. Ele começou a estudar a substância a pedido de um colega chamado Sigmund Freud, empenhado por sua vez em curar um amigo viciado.
A consequência do rápido desenvolvimento de substâncias e técnicas anestésicas foi sentida na cirurgia, muito aperfeiçoada a partir de então. A função do anestesiologista que integra uma equipe de cirurgia não se restringe à aplicação das inúmeras drogas disponíveis. A ele cabe, além disso, controlar o estado geral do paciente antes, durante e logo depois da operação. Não é para menos. O processo anestésico tornou-se tão complexo que todo cuidado é pouco.
Atualmente existem dois tipos de anestesia geral: a inalante e a endovenosa. Na primeira, o líquido anestésico é vaporizado e inalado pelo paciente. O vapor vai até o pulmão e a partir daí entra na corrente sanguínea, sendo distribuído por todo o corpo. Quando chega ao cérebro, bloqueia os impulsos nervosos que trazem a mensagem da sensação dolorosa.
Na do tipo endovenoso, a droga é injetada diretamente na veia de onde segue ao coração e então se distribui pelo organismo como no primeiro caso. Em ambas as versões, entram, no mínimo, três medicamentos: um, para fazer o paciente dormir; outro, para mantê-lo imóvel, com os músculos relaxados; e, por fim, o analgésico propriamente dito, que combate a dor.
Já a anestesia local insensibiliza apenas uma região do corpo. E o caso da raquianestesia, muito usada em operações de parto e fraturas de membros inferiores. Injeta-se o medicamento no espaço entre as terminações nervosas que saem da medula espinhal e a membrana que as protege chamada subaracnóide. Esse espaço é preenchido por uma substância chamada liquor que leva a droga ao tronco nervoso que comanda a parte do corpo a ser anestesiada. Ainda não se sabe como os nervos, respondem ao estímulo anestésico. E certo, porém que as drogas deprimem o sistema circulatório e diminuem o ritmo de funcionamento de todo o organismo.
Isso torna a dosagem muito importante. Uma pessoa mais sensível, submetida à mesma quantidade de anestésico dada a outra, normal, pode sofrer até uma parada cardíaca, ou um choque anafilático - uma reação alérgica que chega a matar. Os acidentes mais comuns são devidos à interação da anestesia com outros medicamentos. As combinações e reações são tantas, que nenhum ·anestesiologista pode prever todas elas. Enquanto diversas teorias sobre a ação dos anestésicos esperam comprovação científica, para os chineses tudo parece muito simples. A prática milenar da acupuntura passou a fazer parte das salas de cirurgia na China a partir da década de 60 e, desde então, não cessa de propagar-se pelo mundo.
Divulgou-se muito, por exemplo, um episódio que envolveu o conhecido jornalista americano James Reston. Em 1972, cobrindo a histórica viagem do então presidente Richard Nixon à China, Reston precisou ser operado às pressas, por causa de uma apendicite. Ele mesmo escolheu a anestesia: as agulhas da acupuntura - e tudo correu às mil maravilhas.
A aplicação de agulhas em pontos específicos do corpo estimula o cérebro a produzir analgésicos naturais chamados endorfinas, que bloqueiam a  dor. Atualmente, desde alguns exames preventivos até os complicados transplantes de órgãos, tudo é possível graças ao controle da dor. Seria realmente de espantar se hoje em dia o amigo do mocinho ainda precisasse se encharcar de uísque para suportar a extração de uma bala na perna.

Revista Super Interessante n° 011

Cigarro: Urânio no fumo

É sabido que o cigarro contém partículas radioativas que seriam as responsáveis pelas doenças, como certos tipos de câncer, de que os fumantes tendem a ser vítimas. Diante disso, os fumantes brasileiros podem estar correndo riscos maiores do que os viciados de outros países. De fato, resultados preliminares de uma pesquisa original sugerem que pelo menos algumas marcas de cigarros vel1didas no Brasil contêm duas vezes mais o elemento radioativo urânio do que marcas vendidas no exterior. O motivo estaria nos solos do norte de Minas e sul da Bahia, ricos em urânio e tório, que abrigam extensas plantações de fumo. Quem levanta a hipótese é o próprio autor da pesquisa, o físico nuclear João Arruda Neto, da Universidade de São Paulo. Há quatro meses ele começou a medir a concentração de urânio, um emissor de partículas radioativas alfa, no fumo. Parte desse urânio e seus descendentes são absorvidos pelo organismo do fumante. "Estudos já demonstraram que a radiação alfa provoca o câncer", diz Arruda Neto, ele próprio fumante de cachimbo. "Falta saber se o cigarro brasileiro é ou não mais cancerígeno que o estrangeiro." A pesquisa abrange cerca de vinte marcas, cujas amostras serão submetidas à detecção de urânio, segundo uma técnica inédita: a microanálise nuclear com elétrons. Num acelerador de partículas, os elétrons bombardeiam as amostras; ao encontrar urânio, quebram-no em dois pedaços, permitindo assim medir a concentração da substância nos cigarros.

Revista Super Interessante n° 011

Exame de sangue por fibra óptica

Toda vez que num hospital é preciso analisar o sangue de um paciente, perdem-se, no mínimo, dez minutos entre colher a amostra e levá-la ao laboratório onde será examinada – o que pode ser excessivo em casos de vida ou morte. Esse desperdício de tempo parece estar com os dias contados: no futuro, o sangue será examinado na hora graças a uma finíssima fibra ótica colocada na circulação. Um feixe de luz percorre a fibra em incontáveis idas e vindas. Na ponta da fibra, uma cavidade coberta por uma tinta fluorescente reage ao entrar em contato com determinada substância química - componente do sangue, droga ou agente patogênico -, provocando uma alteração no retorno do feixe de luz. Essa alteração pode ser analisada por um aparelho chamado espectrômetro. Em alguns hospitais dos Estados Unidos, a fibra ótica já tem sido usada com essa finalidade, mas por enquanto apenas em cirurgias, cardíacas, para avaliar a quantidade de oxigênio no sangue do paciente.

Revista Super Interessante n° 011

Fígado à parte

Certas doenças do fígado poderão ser tratadas no futuro simplesmente retirando-se o órgão para submetê-lo a radiação e drogas e. depois reimplantá-lo novinho em folha. Pelo menos com porquinhos a experiência funciona, verificaram cientistas italianos. Em 90 por cento dos testes, o sucesso foi absoluto; nos casos de câncer, os tumores foram atenuados. Segundo os cientistas, só é preciso aperfeiçoar a técnica da cirurgia, para usá-la em gente. "A possível vantagem dessa cirurgia", explica o hepatologista Erki Larsson, de São Paulo, "seria a aplicação de drogas apenas no fígado, em vez de deixá-las se espalhar pelos outros órgãos, como acontece quando um remédio é injetado." O doutor Erki só duvida que a experiência possa ser feita tão cedo em pessoas: "Cirurgia de fígado é barra-pesada".

Revista Super Interessante n° 011

Lembre-se: Recordar é Viver

Lúcia Helena de Oliveira

A memória humana é capaz de armazenar bilhões de informações. Graças a ela somos capazes não só de fazer algo, como também de relacionar as coisas entre si, de estabelecer associações, sem as quais seria impossível a própria sobrevivência.
Já pensou se, cada vez que fosse assinar o nome, você tivesse de recordar as primeiras letras, aprendidas na infância? Pois é exatamente isso que acontece, embora não se perceba: escrever é como pressionar no cérebro a mesma tecla da cartilha do curso primário, desenhar novamente as palavras do jeito que a professora ensinou. A rigor, fazer qualquer coisa qualquer coisa  mesmo —é voltar inconscientemente à primeira experiência de aprendizado. A memória está presente em tudo. Graças a ela somos capazes não só de fazer algo como também de relacionar as coisas entre si, de estabelecer toda sorte de associações, sem as quais a própria sobrevivência seria impossível. Todos nós, enfim, vivemos de recordações.
O dia de sol evoca a praia, o céu cinzento adverte que pode chover, a música reanima um antigo sentimento. Dito desse modo, é como se os responsáveis pelas lembranças —ou  pelas memorizações — sempre estivessem fora da pessoa, no sol, no céu, no som, por exemplo. Faz sentido: a memória é uma interação entre o ambiente e o organismo. Essa interação altera o sistema nervoso de tal modo que lhe permite reviver uma experiência. Naturalmente, todos os sentidos —tato, paladar, olfato, audição e visão —são instrumentos da memória. Mas a sede das lembranças é uma massa gelatinosa, com cerca de 1 quilo e meio que mal se acomodaria na palma da mão. Ou seja, o cérebro.
Comparáveis ao número de  estreIas na Via Láctea, existem no cérebro 100 bilhões de neurônios, acinzentadas células nervosas com centésimos de milímetro de diâmetro, que possuem prolongamentos, chamados axônios.
Aparentemente, o cérebro é revestido por uma camada cinza, o córtex, que deve sua cor ao fato de ser formado quase só por corpos de neurônios. Dentro está a chamada substância branca. Trata-se de uma rede de axônios, feito fios encapados. O revestimento é a mielina, componente químico que lhe confere a cor clara.
Neurônios e axônios formam conexões: não chegam propriamente a se tocar, mas se aproximam tanto, que basta um neurônio liberar a substância química  chamada neurotransmissor para que outro neurônio a capte e se estabeleça a comunicação entre eles. Calcula-se que no cérebro humano existam 100 trilhões dessas conexões. Chamadas sinapses. Um pensamento, por mais simples que seja, ativa  centenas de sinapses. A capacidade de memorizar que todas as sinapses dão ao homem é incrível: aproximadamente 1014 bits (unidades de informação), ou o número 1 seguido de catorze zeros. Esse oceano de bits daria para escrever 20 bilhões de livros. Difícil é imaginar que cada um de nós carrega essa megabiblioteca na cabeça.
Já se nasce sabendo. É o que os cientistas chamam de memória biológica do cérebro, herdada geneticamente, que tem a ver com o instinto de sobrevivência de cada indivíduo de uma espécie. Assim, não se precisa ensinar o recém-nascido a mamar. O bebê também já nasce com todo o potencial para arquivar o que for aprendendo pela vida afora e formar, dessa maneira, a memória cerebral— que é, aliás, 10 mil vezes mais ampla que a memória dos genes das células do organismo.
Recentemente, cientistas italianos levantaram a hipótese de que a potencialidade da memória cerebral é hereditária. Eles fizeram uma experiência muito sugestiva: cruzaram ratos de laboratório dotados de boa capacidade de memorização; verificaram depois que a geração seguinte de ratinhos se distinguia pela facilidade com que aprendia a buscar comida num labirinto, em comparação com filhotes de outros ratos. Mas nada prova por enquanto que filhos de pais com boa memória também nasçam com boa memória.
Mas onde será que a memória se localiza? Todas as partes do cérebro são capazes de armazenar memórias; mas isso não impede que existam vagas demarcadas especialmente para certos tipos de memória. O grande desacordo entre os cientistas diz respeito a outra questão: os mecanismos que o cérebro usa para gravar os eventos. São duas correntes: de um lado a dos que acham que são as sinapses (conexões entre os neurônios) as responsáveis pela memorização, de outro, a dos que acreditam que a chave da memória está na síntese de proteínas feita pelo cérebro. "A explicação mais lógica é que a cada evento o cérebro ou forma novas sinapses ou amplia a área de contato nas sinapses já existentes", raciocina o neurologista Paulo Bertolucci, da Escola Paulista de Medicina.
Ele dá um exemplo: "Quando me lembro de que fui a um baile, ativo várias sinapses, uma para cada detalhe: o lugar, a cor do vestido da moça com quem dancei, as pessoas presentes etc. Com o passar do tempo, a não ser que esteja sempre me recordando da festa e mantendo as sinapses em atividade, como correntes elétricas, elas irão se desfazendo. Eis por que a gente se lembra minuciosamente do que aconteceu no dia anterior e depois os detalhes vão fugindo. Na verdade, são as sinapses que estão se desativando aos poucos".
"A idéia de novas sinapses é absurda", contesta o neurologista João Radvany, do Hospital Albert Einstein de São Paulo, ferrenho partidário da síntese de proteínas. "As pessoas não formam sinapses após a adolescência." A teoria da síntese de proteínas sugere que a memória é transmissível. Na década de 60, cientistas americanos ensinaram um rato a ter medo do escuro: quando ele entrava num quarto sem luz, onde sabia estar a comida, levava um choque elétrico. Depois de um certo número de descargas, o animal associou a dor à ausência de luz.
Os cientistas — por incrível que pareça —liquefizeram então o cérebro do ratinho condicionado a temer a treva e injetaram o líquido obtido em outro rato. Resultado: este passou a manifestar sintomas de pânico do escuro. O problema é que nunca se conseguiu repetir essa experiência. "Todos sabem que se inibirmos a produção de proteínas pelo cérebro, um animal de laboratório perderá a capacidade de aprender", observa Radvany. Os neurologistas — seja qual for sua opinião sobre o papel de sinapses e proteínas—dividem a memória em três tipos.
A imediata é aquela que entra em ação quando se acha um número na lista telefônica: ela é eterna enquanto dura; o problema é que dura pouquíssimo. Se, por exemplo, a pessoa que acabou de localizar o número desejado no catálogo ouvir um ruído intenso antes de começar a discar, é bem possível que o número Ihe fuja, porque a memória imediata, de tão frágil, não resiste a interferências. Elas interrompem a sinapse ou a síntese (conforme a teoria).
O segundo tipo, a memória evocativa, menos sujeita a esses percalços, dura de algumas horas a alguns dias. Frustrada pelo primeiro esquecimento, a pessoa volta à lista, dessa vez com a firme intenção de decorar o número. A concentração necessária — mesmo quando inconsciente — transporta a informação da memória imediata para a evocativa. Enfim existe a memória de longo prazo, que pode durar a vida inteira. Se houver um motivo muito forte, o número daquele telefone não sumirá jamais.
Normalmente, o esquecimento é um recurso do cérebro para não ficar entulhado de informações inúteis. Trata- se, portanto, de uma limpeza de arquivos. Ocorre que nem sempre alguns diriam, raramente —os critérios dessa seleção do que deve ser guardado passam pelo racional. Se já não bastassem as teorias de Freud e a prática da psicanálise, a experiência pessoal de cada um demonstra que aquilo que mexe com as emoções fica guardado no cérebro por mais tempo e com uma riqueza maior de detalhes. Ficar guardado não quer dizer necessariamente que se consiga evocar certas memórias com facilidade. Ao contrário: lembranças associadas a emoções básicas ou poderosas demais tendem a permanecer bloqueadas.
A terapia analítica busca desbloquear tais fatos, que seriam a causa oculta de neuroses e outros distúrbios de personalidade. Os neurologistas, de seu lado, já descobriram que os sentimentos influem na formação de neurotransmissores. "Parece que nada melhor do que uma novidade para ajudar a memorizar algo", revela Esper Cavalheiro, do Laboratório de Neurologia Experimental da Escola Paulista de Medicina. Trabalhos com animais têm demonstrado que o cérebro reage à novidade liberando a substância endorfina, um eficiente fixador de memórias.
"Algo semelhante deve acontecer aos seres humanos", imagina Cavalheiro. Se isso é verdade, após estudar para uma prova, um aluno bem que poderia fazer em seguida algo novo, como andar de roda- gigante, caso nunca tenha feito isso. Provavelmente, Ihe será mais fácil recordar a matéria na hora do exame. Com animais, pelo menos, essas coisas funcionam.
Emoções demais, porém, podem ser prejudiciais. Quem será que nunca sentiu um “branco” num momento de nervoso? A razão é conhecida: o estresse libera grandes quantidades de hormônios, principalmente adrenalina, que atingem o cérebro e interferem na capacidade de evocar informações.
Várias pesquisas têm demonstrado que as substâncias do estresse desempenham papel importante na memorização: animais em que se injetaram aquelas substâncias em pouquíssima quantidade tinham dificuldade em memorizar; com doses maiores; alcançavam- o auge da capacidade de memorização; com grandes quantidades, porém, os animais esqueciam tudo o que haviam aprendido exatamente como uma pessoa estressada. Tudo indica que, quando alguém se concentra para memorizar algo, está produzindo substâncias do estresse nas quantidades intermediárias, como as cobaias de boa memória.
Um dos trabalhos mais interessantes sobre a produção dos neurotransmissores que influenciam a memória foi realizado na Universidade Federal do Rio Grande do Sul, pelo neurologista Ivan Izquierdo, que estuda há vinte anos os processos da memória. Izquierdo provou que existe o que chama de “dependência de estado":aquilo que um animal aprende sob estresse só será recordado em outra situação semelhante. "Talvez seja um mecanismo instintivo". supõe o professor, "pois a comparação de situações parecidas pode ajudar o animal a se sair- melhor."
Segundo especialistas, os maiores inimigos da memória são os acidentes automobilísticos—a principal causa de amnésia. "mais do que qualquer doença do sistema nervoso", garante o neurocirurgião Reynaldo Brandt, do Hospital Albert Eisntein Mas ele faz questão de deixar claro: "Aquela amnésia do cinema e de novelas de televisão, na qual a pessoa pergunta quem sou eu?” é pura ficção. De fato, como a memória se espalha por todo o cérebro, não existe acidente que possa apagar todo o arquivo sem ser fatal. A pessoa pode se esquecer do momento do acidente, pode perder a capacidade de recordar determinadas coisas. Mas jamais se esquecerá de tudo, vagando pelas ruas.
A idade está deixando de ser associada à perda de memória, embora essa seja uma idéia tão recente que muitos especialistas ainda argumentem que, com o passar dos anos, diminui o número de neurônios. “Talvez os idosos apenas sejam mais lentos para formar sinapses"; especula o neurologista Paulo Bertolucci, de São Paulo. "A mocinha, por exemplo, precisa repetir o nome do novo namorado à avó, até que ela o guarde." O fato de pessoas idosas se lembrarem mais do passado do que de episódios recentes também tem sido explicado como uma questão de prática: a vida inteira elas ficaram com aquelas lembranças, que por isso acabam vindo à tona com mais facilidade. "Manter a memória acesa depende de usá-la sempre, o que significa atividade- mental e interesse pelo mundo", diz: Bertolucci. Nesse sentido, recordar não é só viver é viver bem.

Não esqueça de conhecer a sua memória
O cérebro está sempre gravando tudo o que a pessoa vê, ouve, sente ou toca. Mas o que dá o foco àquilo que se grava, tornando as lembranças mais nítidas ou menos, é a concentração—cuja falta é a principal responsável pelos problemas de memória. Por isso, o primeiro passo para se avaliar a memória de alguém é testar a sua atenção: pedir, por exemplo, que conte até cem de três em três números—1, 4, 7, 10, etc. "Quem não consegue cumprir a meta não tem atenção suficiente para fixar informações·, interpreta a neuropsicóloga Cândida Pires de Camargo, do Hospital das Clínicas de São Paulo.
Se está tudo bem com a atenção, testa-se a capacidade de reter eventos mais remotos, com perguntas sobre fatos históricos conhecidos, enredos de filmes antigos e ainda mostrando fofos de personalidades para serem identificadas. "Finalmente. peço ao paciente que me conte fatos importantes de sua vida em ordem cronológica; depois, confiro essa ordem com seus familiares", diz Cândida. Já os testes de memória imediata ou recente, são mais específicos, conforme a modalidade— memória para números, rostos, nomes etc. "O importante é dar o estímulo uma única vez; por exemplo, mostrar um desenho e logo escondê-lo, para a pessoa reproduzir o que se lembrar dali a 5 minutos, meia hora, um dia, uma semana", descreve a neuropsicóloga.
Ela aplica um método semelhante para testar a memória verbal, pedindo que o paciente repita uma história breve, de quatro ou cinco linhas, também em prazos diferentes. É natural esquecer um ou outro detalhe. Mas se após uma semana a pessoa só se recorda de 60 por cento da história, então é preciso diagnosticar se a dificuldade é de evocação — o equivalente a buscar a ficha correta nos arquivos do cérebro—ou de fixação. Problemas de evocação costumam estar relacionados a estados de ansiedade e de depressão, que comprovadamente atrapalham o processo de trazer as lembranças à tona. Esse tipo de problema pode ser tratado com auxilio de um psicoterapeuta. "Casos em que a dificuldade é realmente de memória, quando o cérebro perde a capacidade de gravar, são raríssimos", informa Cândida. "Isso é seguramente sinal de que alguma doença orgânica está  em andamento.·

Revista Super Interessante n° 011

O casal Curie


Suzana Veríssimo

Operários da ciência, Pierre e Marie construíram as bases do conhecimento moderno do átomo. Famosos, premiados, reclamavam que não podiam trabalhar tanto quanto queriam.
Quando se fala em átomo, urânio, radioatividade, a primeira idéia que vem à cabeça é a de uma imensa usina recheada de aparelhos sofisticados. Mas foi num pequeno galpão improvisado em laboratório, mais parecido com um celeiro ou uma estrebaria, que, em dezembro de 1898, o casal francês Pierre e Marie Curie fez uma descoberta que está na base da ciência moderna: o elemento químico a que chamaram radium. Eles trabalhavam com duas panelas em um fogão que esquentava mal e escreviam suas anotações sobre mesas ordinárias de madeira. O lugar, nos fundos da modesta Escola Municipal de Física e Química, em Paris, onde Pierre era professor, tinha sido emprestado pela diretoria. Foi desse trabalho quase primitivo que brotaram dois prêmios Nobel, atribuídos, um, ao casal e, outro, a Marie Curie, já viúva.
Não que, naquela época, a França fosse um país pobre. Mas os Curie eram. Marie Sklodowska, imigrante polonesa, chegara a Paris em 1891 tendo como diploma apenas o de professora. Voluntariosa, calada, forte, dona de uma rara curiosidade científica, memória prodigiosa e acentuado gosto pela Matemática, ela entrou para a Sorbonne. Em quatro anos, formou-se em Física e em Matemática. Estudante, vivia com os parcos recursos de uma bolsa e o pouco dinheiro que a sua irmã Bronia lhe enviava da Polônia. Essa renda mínima permitia a Marie apenas alugar um quartinho minúsculo e comer o estritamente necessário para sobreviver—e é certo que durante um bom período viveu praticamente de pão, manteiga e chá, a ponto de os colegas temerem por sua saúde.
Em abril de 1894, aos 26 anos, ela se dedicava a uma pesquisa sobre as propriedades de certos metais e, para tanto, procurava um lugar onde pudesse fazer suas experiências. Foi quando um amigo polonês fez, para ajudá-la, algo que mudaria o curso da vida de Marie e da própria ciência. Ele a apresenta a um conhecido, chefe de pesquisa na Escola de Física, chamado Pierre Curie. Pierre era alto, usava os cabelos castanhos cortados a escovinha, tinha barbicha e doces olhos castanho-claros. Era imensamente inteligente e, como ela, adorava a Física e a Matemática. Enfim, essas qualidades, além de uma enorme ternura, conquistaram a estudante.
Como ela, Pierre era tímido e introvertido. Como ela também, preocupava-se com problemas sociais. Filho de médico, aos 35 anos ainda morava na casa dos pais, na periferia de Paris. Anos antes de conhecer Marie, em 1880, Pierre e seu irmão Jacques tinham feito uma descoberta importante: a piezeletricidade, ou seja, a produção de corrente elétrica em consequência da compressão ou dilatação de cristais cuja estrutura molecular não é simétrica. As antigas cápsulas de cerâmica dos toca- discos, o acendedor elétrico de fogão e o relógio a quartzo, por exemplo, seriam consequências a longo prazo desse trabalho.
Na época, o físico já era conhecido na comunidade científica francesa e preparava sua tese de doutorado. Pierre, naturalmente, encantou-se com aquela mulher com a qual podia conversar sobre ciência—e ser compreendido, coisa rara naquele tempo. O resto foi decorrência. Pouco mais de um ano depois do primeiro encontro, em setembro de 1895 os dois se casaram. Ao voltarem da lua-de-mel, passada esportivamente numa viagem pelo interior da França a bordo de duas bicicletas, foram morar num pequeno apartamento perto da escola.
A essa altura, Pierre tinha sido promovido a professor e ganhava um pouco mais. Marie, por seu lado, se preparava para o concurso de mestrado e procurava um trabalho de pesquisa remunerado.
Os dois primeiros anos do casamento, conforme ela escreveu em autobiografia, foram "os melhores de minha vida". Eles passavam o dia na escola, cujo diretor havia permitido que Marie usasse ali um laboratório. Enquanto Pierre se dedicava às aulas e pesquisas sobre cristais, ela mergulhava num trabalho sobre variações das propriedades magnéticas de diversos tipos de aço em função de suas propriedades químicas (proporção de ferro na composição). "Nossa vida é sempre a mesma", escreveu ela numa carta ao irmão, na Polônia. Essa rotina foi alterada quando Marie engravidou. Ela teve uma gravidez difícil, a ponto de muitas vezes nem conseguir trabalhar.
Em setembro de 1896, Irène nasceu. Marie não permitiu que a condição de mãe a afastasse da Física. Assim, ao mesmo tempo que preparava sua monografia sobre os aços, ela procurava uma tese para seu doutorado um ato surpreendente, já que havia, em toda a Europa, uma única mulher com o título de doutora: a alemã Elsa Neumann, autora de uma tese sobre eletroquímica. Marie seria a segunda. Eram tempos prodigiosos aqueles. No mundo científico pontificavam figuras gigantescas como Sigmund Freud e Louis Pasteur, este falecido em 1985. Faziam-se espantosos progressos no conhecimento e no uso da eletricidade, media-se com precisão a velocidade da luz.
Pesquisadores ousados subiam em balões a 10 mil metros para fazer a previsão do tempo, enquanto nos Estados Unidos cartões perfurados ajudavam a coletar e interpretar os dados do recenseamento. Foi no ano em que Irène nasceu que o francês Antoine-Henri Becquerel (1852- 1908) descobriu que os sais de urânio emitiam raios que, como os raios X, penetram a matéria. Interessada, Marie resolveu tirar daí sua tese: medir esses raios e verificar se, além do urânio, havia outros elementos capazes de produzir radiações. Logo nas primeiras semanas fez uma descoberta animadora: o tório e seus compostos tinham as mesmas propriedades do urânio. Marie passou a outra série de experiências. Com um aparelho inventado por Pierre, mediu a intensidade da corrente provocada pelos compostos de urânio e tório. O primeiro resultado foi a descoberta de que a atividade dos compostos de urânio dependia apenas da quantidade de urânio neles presente—e de nada mais. Do ponto de vista científico, foi essa descoberta—e não as posteriores, às quais ela iria dever sua celebridade — que constitui a obra-mestra de Marie Curie.
Afinal, ela tinha provado que, ao contrário do que se poderia supor na época, a radiação não era consequência nem da interação entre as moléculas, nem da formação de novas moléculas, nem ainda da reorganização de moléculas em novos esquemas como ocorre numa reação química normal.
A nova energia só podia se originar dos átomos propriamente ditos: a radiação é obrigatoriamente uma propriedade dos átomos de certos elementos químicos. A partir dessa descoberta, a ciência adquiria as primeiras condições de decifrar os mistérios atômicos.
Entre as substâncias manipuladas por Marie Curie estavam dois minerais que, segundo ela desconfiava continham forte proporção de urânio a pechblenda e a chalcolita. Ela intuía que esses minerais continham, na verdade, pequenas quantidades de outra substância então ainda desconhecida consideravelmente mais ativa que o próprio urânio. Ao ser colocado diante da hipótese, Pierre ficou intrigadíssimo e resolveu interromper seus trabalhos com os cristais e dedicar-se aos átomos. Era 14 de abril de 1898.
Marie tinha a mania de anotar tudo que fosse quantificável. Em cadernos meticulosamente organizados, marcava o preço dos sapatos do marido, a conta da lavanderia, da eletricidade ou dos queijos. Essa obsessão foi muito útil para sua atividade científica, já que as notas continham sempre observações objetivas. Se ela tivesse que registrar que estava cansada, diria "subi 25 degraus e tive de parar". Os cadernos de Marie revelam que o casal trabalhava até altas horas. As únicas distrações que se permitiam eram uma rara peça de teatro ou um passeio de bicicleta ou ainda uma reunião com os colegas cientistas, nas tardes de domingo. Nenhum dos dois gastava muito: comiam pouco e se vestiam modestamente.
Uma das marcas registradas de Marie, por exemplo, eram seus vestidos, sempre compridos e pretos, cinza ou marinho. Em junho de 1898, apenas dois meses depois de iniciada a pesquisa com a pechblenda, algo extraordinário aconteceu. No dia 6, sabe-se pelas anotações, Marie pegou uma solução de nitrato de bismuto e misturou-a a sulfato de hidrogênio. Depois, recolheu o sólido assim precipitado e mediu sua atividade. O resultado está sublinhado: " 150 vezes mais ativo que o urânio". No mesmo dia, depois de colocar sulfato de bismuto numa proveta e aquecê-lo a 300 graus, Pierre percebeu que um fino pó negro se depositara no vidro. Em dado momento, a proveta estourou, mas a atividade do pó negro foi medida: 330 vezes superior à do urânio. À medida que purificavam a substância, com a retirada do bismuto, mais ela se revelava radioativa.
Como suspeitava Marie, estavam diante de um novo elemento—e, em homenagem a seu país natal, chamaram- no polonium (polônio, em português). De julho a novembro de 1898, o casal se afastou do laboratório para cuidar da saúde. Ambos sentiam um cansaço inexplicável e dores leves mas preocupantes. Estavam frágeis e ficavam doentes continuamente. Pierre achava que estava com reumatismo. As pontas dos dedos de Marie doíam muito e rachavam à medida que ela manipulava as soluções purificadas. Eram já consequências da radioatividade mas, à época, não se conheciam seus efeitos nocivos para o organismo.
De volta à pesquisa, obtiveram uma substância novecentas vezes mais radioativa que o urânio. Ao novo elemento deram o nome de radium (rádio). A 26 de dezembro, a descoberta é comunicada à Academia de Ciências numa nota assinada por Pierre, Marie e ainda pelo químico Georges Bémont—chefe da equipe de pesquisas da escola. Só faltava provar que o rádio era um elemento da natureza e não uma substância produzida em laboratório. Foi a isso que, de 1899 a 1902, o casal se dedicou. Pierre mergulhou no estudo das propriedades da radiação, enquanto Marie tentava isolar a substância e obter um frasco de sal de rádio. Para consegui-lo, ela trabalhou sobre toneladas de resíduos de pechblenda.
"Eu passava às vezes o dia inteiro a mexer uma massa em ebulição com um bastão de ferro quase tão grande quanto eu. A noite, estava quebrada de cansaço", escreveu Marie. Apesar disso, esse trabalho era sua paixão. À noite, depois de voltar para casa e cuidar da filha, eles retornavam ao laboratório. "Para dar uma olhada", dizia Marie. "Nossos preciosos produtos, para os quais não tínhamos abrigo, estavam colocados sobre mesas e prateleiras; de todos os lados víamos suas silhuetas fracamente luminosas, e essas luzes que pareciam suspensas na escuridão eram um motivo sempre novo de emoção e encantamento." O rádio purificado é uma substância luminosa e fluorescente.
Em 1900, Pierre foi finalmente convidado para professor da Sorbonne, enquanto Marie assumia o posto de professora de Ciências Físicas na Escola Normal Superior da cidade de Sèvres, perto de Paris, só para moças. Os novos empregos roubam tempo às pesquisas. Mas, em março de 1902, Marie escreve: "Ra = 225,92". Ou seja, ela havia chegado ao peso de um átomo de rádio. As experiências sobre as propriedades do rádio pareciam indicar que ele poderia ser útil no combate ao câncer.
A notícia correu mundo e o casal foi propelido à celebridade. Pierre é convidado a pronunciar uma conferência na respeitadíssima Royal Society de Londres, o templo supremo da ciência européia. Marie recebe menção honrosa ao apresentar sua tese de doutorado em Física, na Sorbonne. Em dezembro de 1903, enfim, a Academia Sueca concede o Prêmio Nobel de Física ao casal Curie e a Antoine-Henri Becquerel. A fama chegou para atrapalhar o casal. Acostumados a uma vida quieta, eles não conseguem se livrar dos inúmeros convites para entrevistas, recepções, jantares ou espetáculos ao lado dos grandes nomes da sociedade. Um ano depois do Prêmio Nobel, sua filha Eve nasce—e isso complica ainda mais as coisas.
Pierre se incomoda profundamente com o novo ritmo. Numa carta enviada a um amigo de infância, em julho de 1905, desabafa: "Há mais de um ano não faço nenhum trabalho e não tenho um minuto para mim. Esta é uma questão de vida ou de morte do ponto de vista intelectual". Mesmo assim, pressionado pelo reitor da Universidade de Paris, no mesmo ano Pierre aceita disputar uma cadeira na Academia de Ciências na primeira tentativa, anos antes, ele fora derrotado e sofrera com isso. Desta vez, ganha. Em abril de 1906, Pierre acabara de abandonar os trabalhos com a radioatividade e se preparava para voltar a seus velhos cristais. Na tarde do dia 5, depois do almoço dos professores da Faculdade de Ciências, foi a pé até a editora que publicava seus artigos. A porta estava fechada: gráficos em greve. Pierre. Então, decidiu caminhar até o cais do Sena, em direção à Academia.
No meio do caminho, foi atropelado: a roda de uma charrete passou por cima de sua cabeça. Tinha apenas 47 anos. Arrasada com a notícia, Marie se abandonou a uma dor profunda. Sete meses mais tarde, depois de muita insistência, aceitou ocupar a cadeira que pertencera ao marido na Sorbonne. Sua aula inaugural reuniu mais de uma centena de pessoas dos mais diferentes meios. Ela não fez por menos: começou o curso retomando a última aula de Pierre, exatamente onde ele havia terminado. Nos quatro anos seguintes, além de lecionar, dedicou-se a extrair rádio puro, numa tarefa penosa.
Taciturna, reservada, preocupada em preservar sua privacidade, Marie viu-se em 1911 no centro de um escândalo. A mulher do físico Paul Langevin que frequentou a roda dos Curie por longos anos tornou pública a correspondência amorosa entre Marie e seu marido. O escândalo foi tal que, por alguns meses, com a saúde abalada, ela viveu escondida fora de Paris, com o nome de solteira. No meio desse furacão, a Academia Sueca Ihe concede seu segundo Prêmio Nobel desta vez de Química, pela descoberta do rádio e do polônio.
Em 1914, graças à doação do milionário americano Andrew Carnegie, é construído em Paris o Instituto do Radium e um dos prédios é o Pavilhão Curie, onde ela instalará seu laboratório. Mas o trabalho científico teria que esperar: a Primeira Guerra Mundial mobiliza as energias da cientista. Ela cria uma rede de postos volantes de raios X em todo o front francês.
No fim da guerra, retoma suas pesquisas e, desde então, passa os dias trabalhando doze, catorze horas por dia no laboratório. Em 1921, um giro de conferências a leva a vários países, entre eles o Brasil. Nos Estados Unidos teve uma acolhida triunfal as mulheres se cotizaram para doar-lhe um grama de rádio, que ela utilizaria nas pesquisas sobre aplicações da radioatividade em Medicina.
A essa altura, Marie era amiga de todos os grandes nomes da ciência, Albert Einstein, por exemplo, chegou a passar férias com ela, na sua casa no sul da França. O curie tornou-se a unidade de medida da radioatividade. Com a saúde minada e quase cega, Marie morreria aos 66 anos, em 1934, vítima de leucemia—provável consequência de anos de manipulação de substâncias radioativas. Um ano a mais de vida e ela teria tido a alegria de ver a filha Irène e o genro Frédéric Joliot ambos físicos e formados à sombra da velha dama receberem o terceiro Prêmio Nobel (de Química) da família Curie.

Revista Super Interessante n° 011

domingo, 29 de abril de 2012

Tu-155: Voo histórico

Um rastro de vapor condensado em vez da fumaça de sempre - à primeira vista, esse era o único sinal nos céus de Moscou a indicar que havia algo de diferente no vôo daquele Tu-155, o novo trirreator soviético semelhante ao Boeing 727. O vapor, na verdade, fazia toda a diferença - demonstrava que o combustível do avião não era o habitual querosene e sim o revolucionário hidrogênio, que os cientistas esperam transformar na principal fonte de energia do mundo na primeira metade do século XXI. Recentemente divulgado pela TV soviética, o vôo do Tu-155 será com certeza um marco na história da tecnologia.
O aparelho contém um tanque especial de combustível onde o hidrogênio líquido é mantido a 252 graus negativos. Aquecido, transforma-se em gás e nesse estado vai às câmaras de combustão de um reator. Ali, em contato com o oxigênio do ar, o hidrogênio queima. O calor resultante proporciona um formidável impulso. Uma das mais atraentes características do hidrogênio como combustível é o fato de não poluir - daí o rastro de vapor em lugar da fumaça. Isso permitiu aos soviéticos dizer que o reator do Tu-155 é "ecologicamente puro". O teste, segundo eles, provou que o hidrogênio poderá ser usado rotineiramente como combustível de aviação quando as reservas de petróleo começarem a minguar.

Revista Super Interessante n° 011

Waterhouse Hawkins, Reveillon pré-histórico


Em 1842, quando ainda era um aliado de Charles Darwin, o paleontologista inglês Richard Owen criou o nome dinossauro. O sucesso foi imediato, pois reinava enorme entusiasmo com as descobertas das primeiras ossadas desses gigantescos animais pré-históricos. E nem mesmo os cientistas, em geral contidos em suas manifestações, fugiram a essa euforia geral. Tanto que em 1853 geólogos e paleontólogos uniram-se numa vaquinha para encomendar ao escultor Waterhouse Hawkins a reconstrução de um dinossauro dos mais afamados na época, o iguanodonte, em tamanho natural. Hawkins deu conta do recado, embora nem ele nem seus patronos tivessem uma idéia clara de como seria realmente o animal, o grande esporão que os iguanodontes tinham nas patas ele o colocou sobre o nariz, dando ao dinossauro um ar de rinoceronte. Nada disso, no entanto, empanou as festas programadas. Elas tiveram seu ponto alto na noite de 31 de dezembro, quando aconteceu, dentro do gigantesco dinossauro, uma animada ceia de Ano-novo que os cronistas só puderam descrever com uma palavra: pantagruélica.

Revista Super Interessante n° 011

A Terra vive

Martha San Juan França

Sempre se soube que o ambiente influi decisivamente sobre a vida na Terra. Agora, os cientistas sugerem o contrário: a Terra seria aquilo que a vida quer que ela seja. É a hipótese Gaia.
Desde 2 bilhões dos seus 4,5 bilhões de anos, a Terra contém um coquetel de água, gases, calor e minerais nas doses necessárias e suficientes para que a vida floresça em toda a sua esplêndida variedade. Isso pode ser considerado apenas uma felicíssima coincidência: a vida teria surgido e se desenvolvido neste relativamente pequeno planeta o quinto em tamanho do sistema solar—e não em qualquer outro pela simples e boa razão de que aqui se encontra o mais confortável ambiente, se não do Universo inteiro, pelo menos deste canto do Cosmo. Mas pode ter acontecido também que, tendo se formado fortuitamente, os organismos vivos, com o passar dos milênios, acabaram tomando conta da casa terrestre, adaptando-a com tanta perfeição que ela se moldou à vontade de seus hóspedes.
Hoje, as dependências desta habitação chamada Terra abrigam seres tão diversos como bactérias e baleias, plânctons e pinheiros—além, é claro, dos presunçosos seres humanos, que se consideram o supra- sumo da criação e, por isso, os donos da casa. A idéia de que a vida é aquilo que a Terra Ihe permite ser é a versão convencional, que soa bem ao senso comum. Já a idéia de que a Terra é aquilo que a vida faz com ela parece uma extravagância. Mas tem sido ouvida com muita atenção por quem se interessa por esse tipo de assunto. "A Terra está viva", afirma o biólogo inglês James Lovelock, o primeiro a defender esse ponto de vista heterodoxo há quase vinte anos.
Cientista de muitos talentos, Lovelock acredita que cada componente da Terra funciona de forma tão integrada em relação aos demais e ao conjunto todo como os instrumentos de uma orquestra bem afinada. Ou, como ele gosta de dizer, citando o escocês James Hutton (1726 - 1797), considerado um dos países da moderna Geologia, "a Terra é um superorganismo que deveria ser estudado como um sistema completo, assim como os fisiologistas estudam todas as funções orgânicas do corpo humano". A soma total das partes vivas e inanimadas da Terra, Lovelock chamou Gaia, em homenagem à deusa grega cujo nome quer dizer Terra e da qual derivaram palavras como geografia e geologia.
Na realidade, não é nova a idéia da integração entre os organismos vivos e o meio ambiente. Afinal, a própria palavra ecologia foi criada já lá se vão 120 anos pelo zoólogo alemão Ernst Haeckel (1834 - 1919). Ela vem do grego oikos (casa) e significa "saber da casa". Mas até recentemente essa integração era mal compreendida por causa da imprecisão dos conceitos e dos métodos de análise. Hoje se sabe que os mecanismos que agem sobre a Terra não podem ser alterados sem que se pague por isso um preço provavelmente muito alto em termos da própria continuidade da vida.
Por exemplo, pesquisa conjunta da agência espacial NASA com universidades americanas e instituições científicas brasileiras, realizada na Amazônia no ano passado, comprovou que o equilíbrio climático da região depende basicamente da floresta. Daí, a crescente e indiscriminada derrubada de árvores para a formação de pastagens tende a alterar o ciclo de renovação da água, ameaçando tornar caótico o regime de chuvas.
O pior é que as consequências desse processo de desertificação não deverão se limitar, a longo prazo, à área desmatada. A poluição, de seu lado. também pode estar destruindo as moléculas de ozônio da atmosfera, rompendo uma complexa teia de interdependências que existe há pelo menos 600 milhões de anos.
Formado por três átomos de oxigênio (O3), o ozônio começou a existir em quantidades consideráveis graças ao aparecimento dos organismos vivos que liberavam, através da fotossíntese, grandes quantidades de oxigênio na atmosfera. Desde então, a camada de ozônio a 15 mil metros acima da superfície terrestre não só ajuda a estabilizar a temperatura como impede a exposição direta dos seres vivos à radiação solar. Lovelock tem o privilégio de ter sido o primeiro cientista a detectar, em 1971, o acúmulo de moléculas do gás artificial clorofluorcarbono, que corrói o ozônio, na atmosfera. Inventor de numerosos equipamentos científicos, ele já aperfeiçoara, em 1957, um detector de elétrons que permitiria a identificação das moléculas.
Não foi a primeira vez que esse invento teve um papel importante na história da Ecologia. Em 1962, ele tinha servido para medir os dramáticos efeitos dos pesticidas sobre o solo, mostrados pela americana Rachel Carson no livro A primavera silenciosa, considerado um marco dos movimentos ambientais. Com esse currículo, não é de estranhar que Lovelock, aos 69 anos, seja um cientista diferente da maioria dos colegas. Biólogo de formação, prefere ser tratado como um estudioso de várias disciplinas foi professor de Química e Cibernética em universidades inglesas e americanas. Atualmente, estabeleceu seu laboratório numa tranquila vila no noroeste da Inglaterra, cercado de árvores que ele e sua família plantaram.
No final da década de 60, Lovelock foi convidado pela NASA para fazer parte do projeto que enviaria a sonda automática Viking a Marte. Ele deveria dizer como os pesquisadores poderiam identificar eventuais formas de vida naquele planeta. Lovelock comparou a atmosfera de Marte — equilibrada e quase toda composta de carbono com a turbulenta e instável mistura gasosa da Terra. Concluiu dai que os organismos terrestres usam a atmosfera ao mesmo tempo como fonte de matéria-prima e depósito de elementos de que não necessitam.
Nem sempre foi assim. Ao se formar, há cerca de 4 bilhões e meio de anos, a atmosfera da Terra continha basicamente hidrogênio, amoníaco e metano. Não havia oxigênio livre. A temperatura do planeta exposto à radiação ultravioleta do Sol era extremamente elevada. Em suma, um ambiente incompatível com qualquer forma de vida. À medida que a Terra foi se resfriando, nos primeiros 2 bilhões de anos, o hidrogênio, muito leve, escapava da atmosfera, enquanto o dióxido de carbono e a água iam lentamente sendo liberados para a crosta terrestre pelos vulcões. Nessa fase, o carbono funcionou como um manto protetor que retinha o calor do Sol, sem o qual o planeta ficaria congelado Foi quando apareceram os seres vivos — e a aparência da Terra começou a mudar.
Outros planetas do sistema solar, como Marte ou Vênus, são mundos cuja base é muito semelhante à da Terra. Vênus, porém, está envolta numa densa atmosfera de dióxido de carbono, que eleva a temperatura na sua superfície a 400 graus centígrados. Marte, por sua vez, é um deserto gelado, tumultuado por tempestades de areia e coberto por uma fina camada de dióxido de carbono. Já a Terra tem um revestimento variado e — segundo a hipótese Gaia, de Lovelock — derivado das incontáveis formas de vida que abriga.
Toda essa vida é capaz de atividades fantásticas. O professor Walter Shearer, da Universidade das Nações Unidas, em Tóquio, calcula por exemplo que 100 bilhões de formigas na Amazônia liberam 55 mil toneladas de ácido fórmico por ano, que respondem por 25 por cento da acidez das chuvas que caem sobre a região. Gaia sugere outros raciocínios tão imaginativos como esse. O mesmo Shearer afirma que um inofensivo fungo que cresce nas raízes das árvores da Amazônia libera nada menos de 5 milhões de toneladas de clorocarbono por ano para a atmosfera.
A descoberta de que há mil e uma maneiras pelas quais a vida mexe com o ambiente não transforma automaticamente qualquer cientista em adepto das idéias de Lovelock. James Kirchner, da Universidade da Califórnia, por exemplo, não aceita a noção da Terra como um organismo vivo e auto- regulador. Para ele, isso é mais poesia do que ciência. Seu colega James Kasting, da NASA, acredita que a biosfera, o conjunto dos seres vivos, é um dos fatores que afetam a composição da atmosfera, dos continentes e oceanos. Mas não existe, segundo ele, nenhuma razão para acreditar que a biosfera controla todo o sistema terrestre.
No Brasil, essa polêmica praticamente ainda não chegou ao conhecimento da maioria dos pesquisadores. Mas existem aqui idéias que têm muito a ver com a questão. O geofísico nuclear Ênio Bueno Pereira, especialista do INPE (Instituto Nacional de Pesquisas Espaciais) em radiatividade atmosférica, acredita que a Terra poderia semear vida em outros planetas. E pergunta: "Não seria aconselhável começarmos a estudar essa possibilidade antes de a Terra esgotar seus recursos?" Sua proposta envolve questões bem mais delicadas do que à primeira vista os admiradores de aventuras espaciais poderiam esperar.
Existem microorganismos terrestres, encontrados no continente gelado da Antártida. que talvez pudessem sobreviver em Marte. Será que, como admite a hipótese Gaia, eles poderiam se espalhar, absorver a luz solar, aquecer o gelo e mudar a composição química da atmosfera marciana? Nem Lovelock tem uma resposta segura para isso. Mas o astrônomo Enos Picazzio, do grupo de Astrofísica do Sistema Solar da Universidade de São Paulo, é categórico: "Levar qualquer tipo de vida para fora só terá validade se for reproduzido um habitat semelhante ao da Terra. Caso contrário, o resultado é imprevisível".
A idéia da interdependência dos organismos vivos com o meio ambiente tem partidários de peso. Uma adepta é a bióloga Lynn Margulis, da Universidade de Boston, nos Estados Unidos, co - autora, com Lovelock, do livro Gaia—uma nova visão da vida na Terra, ainda não traduzido para o português. Ela escreveu também Microcosmos, em co - autoria com o filho Dorian Sagan, de seu casamento com o astrônomo Carl Sagan. A hipótese Gaia também agradou aos movimentos verdes e foi apropriada pela moda da New Age, uma mistura de propostas místicas com retorno à natureza, que tem se manifestado nos Estados Unidos.
Quando Lovelock formulou sua teoria pela primeira vez, foi ignorado pelas universidades. Mas isso já é história antiga. Recentemente, ele participou no Estado americano do Colorado de uma conferência da Associação Geofísica Americana, organizada especialmente para discutir a hipótese Gaia. Ali, Lovelock, junto com o climatologista Robert Charlsom da Universidade de Washington, apresentou um novo exemplo dessa ciranda vida-ambiente. Segundo afirmou, alguns tipos de plânctons sintetizam um composto químico chamado sulfeto de dimetila. O contato com o oxigênio do ar libera sulfato, uma partícula aerossol que serve como núcleo de condensação de nuvens sobre os oceanos. Como as nuvens são do tipo estratos — baixas e rasas —, não provocam chuvas, mas têm impacto sobre a temperatura da água ao refletir a radiação solar. Esse é um exemplo importante da influência dos organismos vivos sobre as nuvens. Mas daí a inferir que  eles afetam a temperatura dos oceanos vai uma distância muito grande”, afirma, cauteloso, o meteorologista da USP, Oswaldo Massambani, também especialista em nuvens.
Lovelock pode se orgulhar de ter conseguido uma proeza. Especialistas de várias áreas concordam em debater uma visão mais integrada e até mesmo ecológica do mundo. “A solução da crise ambiental requer um raciocínio científico diferente do que vínhamos seguindo até agora" propõe o professor José Galizia Tundizi, da Faculdade de Engenharia da USP em São Carlos, um entusiasta da nova tendência.
Tundizi procurou colocar em prática suas idéias. Naturalista de formação, mas com mestrado em Oceanografia, doutorado em Botânica e livre-docência em Ecologia de Reservatórios, está atualmente empenhado em criar o primeiro curso no Brasil de Ciências Ambientais, em nível de pós-graduação, para diplomados de áreas diferentes. Segundo Tundizi, "o uso que os seres humanos fazem da água, ar, terra e florestas está conduzindo esses sistemas a um limite além do qual sofrerão prejuízos irreversíveis .
É possível, como pensam os mais otimistas, que, se a hipótese Gaia estiver correta, os organismos vivos acabarão ajudando a Terra a suportar, mediante uma lenta sucessão de ajustes, os efeitos da crise ambiental. Resta saber se, quando a Terra finalmente se recuperar, os seres humanos ainda estarão aqui para apreciar os resultados. "Gaia não é uma mãe cegamente apaixonada por seus filhos", adverte Lovelock. "Se  algum deles lhe fizer mal, ela o eliminará sem dó nem piedade.

Revista Super Interessante n° 011